1. Introducción.

Definición
Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas
militares. Luego de su creación fue utilizado por el gobierno, universidades y otros
centros académicos.
Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de
las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las
bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una
oportunidad de difusión mundial, un mecanismo de propagación de la información y un
medio de colaboración e interacción entre los individuos y sus ordenadores
independientemente de su localización geográfica.
2. Orígenes de Internet
La primera descripción documentada acerca de las interacciones sociales que podrían
ser propiciadas a través del networking (trabajo en red) está contenida en una serie de
memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology,
en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic
Network (Red Galáctica).
El concibió una red interconectada globalmente a través de la que cada uno pudiera
acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy
parecido a la Internet actual. Licklider fue el principal responsable del programa de
investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en
DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del
MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red.
En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la
teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad
teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un
gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental
fue hacer dialogar a los ordenadores entre sí.
Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en
Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de
baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área
amplia jamás construida. El resultado del experimento fue la constatación de que los
ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando
programas y recuperando datos a discreción en la máquina remota, pero que el sistema
telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La
convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó
pues confirmada.
A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de
ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967.
En la conferencia en la que presentó el documento se exponía también un trabajo sobre
el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL.
Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul
Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de
conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.
Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían
discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los
demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la
velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue
aumentada desde 2,4 Kbps hasta 50 Kbps (5).
En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran
refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un
RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes
llamados interface message processors (IMPs, procesadores de mensajes de interfaz).
El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de
Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob
Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET
global, la topología de red y el aspecto económico fueron diseñados y optimizados por
Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation,
y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la
Universidad de California, en Los Angeles (6).
A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y
su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de
Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET.
Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la
UCLA y quedó conectado el primer ordenador host .
El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento
del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto
de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el
Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló
funciones tales como mantener tablas de nombres de host para la traducción de
direcciones así como un directorio de RFCs ( Request For Comments ).
Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de
host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos
en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos
últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler
y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas
mediante el uso de "storage displays" ( N. del T. : mecanismos que incorporan buffers
de monitorización distribuidos en red para facilitar el refresco de la visualización) para
tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en
Utah investigando métodos de representación en 3-D a través de la red.
Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la
ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva
etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya
existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el
día de hoy.
Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años
siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente
completo, así como software adicional de red. En Diciembre de 1970, el Network
Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial
para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de
red). Cuando en los nodos de ARPANET se completó la implementación del NCP
durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a
desarrollar aplicaciones.
En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de
ARPANET en la International Computer Communication Conference . Esta fue la
primera demostración pública de la nueva tecnología de red. Fue también en 1972
cuando se introdujo la primera aplicación "estrella": el correo electrónico.
En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de
mensajes de correo electrónico, impulsado por la necesidad que tenían los
desarrolladores de ARPANET de un mecanismo sencillo de coordinación.
En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad
de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y
responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió
en la mayor de la red durante más de una década. Fue precursora del tipo de actividad
que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de
todas las formas de tráfico persona a persona.

3.Redes sociales
“Las Redes son formas de interacción social, definida como un intercambio dinámico
entre personas, grupos e instituciones en contextos de complejidad. Un sistema abierto y
en construcción permanente que involucra.
Una sociedad fragmentada en minorías aisladas, discriminadas, que ha desvitalizado sus
redes vinculares, con ciudadanos carentes de protagonismo en procesos
transformadores, se condena a una democracia restringida. La intervención en red es un
intento reflexivo y organizador de esas interacciones e intercambios, donde el sujeto se
funda a sí mismo diferenciándose de otros.”
No difiere lo dicho sobre una red grupal y lo que sucede a nivel subjetivo en Internet, al
menos en las que se dedican a propiciar contactos afectivos nuevos como lo son las
redes de búsqueda de pareja, amistad o compartir intereses sin fines de lucro.
En las redes sociales en Internet tenemos la posibilidad de interactuar con otras personas
aunque no las conozcamos, el sistema es abierto y se va construyendo obviamente con
lo que cada suscripto a la red aporta, cada nuevo miembro que ingresa transforma al
grupo en otro nuevo. La red no es lo mismo si uno de sus miembros deja de ser parte.
Intervenir en una red social empieza por hallar allí otros con quienes compartir nuestros
intereses, preocupaciones o necesidades y aunque no sucediera más que eso, eso mismo
ya es mucho porque rompe el aislamiento que suele aquejar a la gran mayoría de las
personas, lo cual suele manifestarse en retraimiento y otras veces en excesiva vida
social sin afectos comprometidos.
Las redes sociales en Internet suelen posibilitar que pluralidad y comunidad se
conjuguen y allí quizás esté gran parte de toda la energía que le da vida a los grupos
humanos que conforman esas redes. Las redes sociales dan al anónimo popularidad, al
discriminado integración, al diferente igualdad, al malhumorado educación y así muchas
cosas más.
La fuerza del grupo permite sobre el individuo cambios que de otra manera podrían ser
difíciles y genera nuevos vínculos afectivos y de negocios.
 Networking Activo: Agrupa a una serie de empresarios y emprendedores
complementándose con una revista impresa y distintos eventos presenciales.
 Neurona: proclama que su objetivo es para ampliar y mejorar la red profesional
de contactos, un espacio virtual en el que interactúan diariamente más de medio
millón de profesionales presentes en más 50 sectores productivos y más de 100
de comunidades profesionales. Fue adquirida por Xing, aunque aún no ha sido
fusionada.
 Tuenti: De reciente creación y accesible solo por invitación, ha despertado gran
interés y un crecimiento muy acelerado para conectar a jóvenes universitarios y
de nivel secundario.
 eConozco: se presenta como una herramienta que te permite contactar con miles
de profesionales a través de tus conocidos de confianza y donde puedes accede a
nuevas oportunidades para desarrollar tu carrera profesional. Fue también
adquirida por Xing , fusionándose recientemente con dicha red.
 Cielo: parece la red más completa, combina contactos en línea con una
comunidad cara a cara donde estos medios se complementan el uno al otro.
 Dejaboo.net: que es una red social orientada a la cultura, en la que los usuarios
pueden compartir sus reseñas y gustos literarios, musicales o de cine, la cual
anuncian que sigue en fase de pruebas.
 Qdamos: se anuncia como el nuevo portal para buscar pareja y amigos en
Español. El registro y todos los servicios son gratuitos.
 Festuc.com: esta es una red social basada en móviles. Festuc te promete que
conocerás gente nueva a través de amigos o por cercanía geográfica a través de
servicio en el teléfono móvil.
 Spaniards: se presenta como la Comunidad de Españoles en el Mundo. Indican
que la misión de esta red es ayudar y poner en contacto a todos los españoles
que viven en el extranjero, bien sea por motivo de estudios, trabajo o placer,
además de a todos aquellos que buscan salir de España, temporal o
permanentemente.
 Linkara: enfocado hacia las relaciones de amistad, se presenta como la primera
red social para conocer gente a través de aficiones y opiniones. Y en cuanto al
funcionamiento lo explican de manera muy simple, diciendo.” Expresa tu
opinión, conectate con tus amigos, conoce gente nueva”.
 Gazzag: es una mixtura entre red social profesional y red social de contactos
personales. La apariencia y la usabilidad son bastante buenas y permite la
creación de galerías de fotos y blogs, a diferencia de otras redes sociales en
español que no lo permiten.
 Gentenotable: Otra red de encuentros.
4.Ventajas y desventajas de las redes sociales



Las redes sociales se han convertido en todo un fenómeno social. Están
revolucionando la forma de comunicarse y de interactuar. Ofrecen muchas
posibilidades que pueden llegar a ser valiosas para diversos ámbitos de la vida. Para
sacarles el máximo partido, es preciso conocer sus ventajas e inconvenientes. A
continuación, determinamos los pros y los contras principales de estas plataformas.
Las ventajas de las redes sociales son numerosas. Su atractivo esencial radica en la
participación e interacción que proporcionan a los internautas. La relación entre los
usuarios en estas plataformas pasa de ser vertical a horizontal, posibilitando que
todos estén al mismo nivel. Cualquiera puede convertirse en emisor y producir sus
propios contenidos.

Gracias a las redes sociales, es posible ponerse en contacto con gente a la que en la
vida cotidiana no se podría acceder. Permiten establecer relación con personas de
diferentes sectores y países. Las redes sociales han alcanzado una especial
relevancia en los tiempos de crisis. Las redes de carácter profesional son una buena
herramienta para establecer contactos profesionales y encontrar oportunidades
laborales. Las empresas hacen cada vez un mayor uso de estas redes a la hora de
buscar personal.

En el ámbito empresarial las redes sociales también abren muchas nuevas
posibilidades. Hay empresas que empiezan a sacarles partido en sus oficinas. Crean
grupos privados, que funcionan como una especie de Intranet, para compartir
información corporativa. El ejemplo de esta iniciativa es la empresa estadounidense
Serena Software que impulsó los “viernes Facebook”. Permite a sus trabajadores
dedicar una hora a la semana para actualizar sus perfiles, colaborar con colegas y
establecer nuevos contactos. Hay que destacar que esta política sólo empieza a
implantarse en empresas y todavía queda mucho potencial por explotar.

Las redes sociales son una plataforma idílica para el ocio. Posibilitan desarrollar
hobbies y formar parte de diversas comunidades. Permiten acudir a eventos y
participar en actos y conferencias. Sirven para mantenerse en contacto con los
amigos, especialmente con los que viven lejos. Con la ayuda de estas redes, se
diluyen las fronteras geográficas.

Otra ventaja de las redes sociales radica en la posibilidad de incrustar todo tipo de
contenidos. Es denominado “life streaming” que posibilita tener toda nuestra vida
resumida en la red social. El potencial de las redes sociales es enorme. Como
cualquier aplicación también tienen sus puntos débiles que se han de conocer.

Según el reciente informe de la Agencia Española de Protección de Datos, el 43%
de los usuarios tiene configurado su perfil de forma que todo el mundo puede verlo.
De esta manera, la privacidad puede verse en peligro. Es especialmente relevante en
el caso de los menores. Para tener un mayor control es necesario aprender a
configurar las opciones de la privacidad. Otro riesgo al que pueden enfrentarse los
usuarios en las redes sociales es relativo a la suplantación de personalidad. La
Agencia Española de Protección de Datos ha recibido recientemente la primera
denuncia de un ciudadano por la suplantación de personalidad en una red social. A
consecuencia de esto, el organismo ha iniciado una inspección de dos redes sociales
internacionales y una web española.

Hay una cierta falta de control de los datos. Todo lo que publicamos, puede
convertirse en propiedad de las redes sociales. Hace poco Facebook anunció que
todos los contenidos pasarían a formar parte de su propiedad, aunque después
rectificó comunicando que de momento no iba a adoptar esta medida. Las redes
sociales pueden devorar todo nuestro tiempo. Hay que saber administrarlo bien para
no pasar la vida delante de la pantalla.

Para que se pueda sacar el máximo provecho de las redes sociales sin caer en ningún
peligro, hay que aprender a navegar y a configurar la herramienta de privacidad. El
hecho de conocer las ventajas e inconvenientes ayudará a hacer un buen uso de estas
aplicaciones para aprovecharlas en la vida personal, profesional y académica.

5.Mundo virtual

Mundos virtuales es un campo relacionado con la inteligencia artificial. Se trata de la
simulación de mundos o entornos, denominados virtuales, en los que el hombre
interacciona con la máquina en entornos artificiales semejantes a la vida real.
Aparte de los simuladores de vuelo y otras aplicaciones de este tipo que sirven desde
hace años para la enseñanza y la práctica de determinados oficios, existen ya programas
que, mediante cámaras de vídeo y software permiten construir «puertas virtuales» que
enlazan un despacho u oficina con otro punto cualquiera del edificio (por ejemplo, un
pasillo) y permiten a los que pasan por éste, ver y hablar con los que están en el
despacho, estableciendo comunicaciones bidireccionales arbitrarias, no previstas por el
arquitecto.
En la actualidad aparte del desarrollo que están llevando a cabo diferentes universidades
en este campo el grueso de la investigación en la generación de entornos virtuales que
traten de reproducir la realidad está siendo llevado por las empresas de ocio electrónico,
que ven en esta tecnología una salida para sus videojuegos.
Mediante una tarjeta aceleradora 3D que se puede adquirir en cualquier tienda de
componentes informáticos (por un precio entre 70 a 250€) un ordenador personal
adquiere la potencia necesaria para reconstruir en tiempo real verdaderos entornos
tridimensionales que reflejen un tipo de paisaje, ya sean ciudades, selvas o el espacio. El
grado de realismo conseguido sobrepasa lo imaginado hace una década y año tras año
esta tecnología se duplica lo que hace muy factible pensar que en menos de cinco años
todos dispongamos de auténticos dispositivos para introducirnos en mundos virtuales en
nuestro propio hogar.
6. Ventajas e inconvenientes de los mundos virtuales
La virtualización más que una moda es una tecnología cuya planeación a mediano y
largo plazo puede rendir frutos muy importantes pero que necesita de preparativos y
monitoreo para asegurar el cumplimiento de sus objetivos
El principal atractivo de los ambientes virtuales es la posibilidad de utilizar todos
los recursos de un equipo, que por lo general están entre el 15% y 25% en la operación
diaria, lo que ofrece estas ventajas.

* Mejor utilización de la infraestructura, al usar entre el 70% y 90% de los recursos
de cada anfitrión (host).

* Reducción del equipo en los centros de cómputo, al implementar múltiples
huéspedes (guests) en un sólo servidor. Adicionalmente, permite el retiro de equipo
obsoleto y escalar los servidores de acuerdo a sus características; al tiempo que dreduce
los costos por obsolecencia a futuro.

* Seguridad al mantener aislado en un ambiente virtual un servicio. En caso de
producirse una intrusión en el sistema, difícilmente se puede acceder al otros huéspedes
o al propio anfitrión, por lo general el servidor que hospeda a los otros servicios tiene un
nivel de acceso muy restringido.

* Generación de múltiples imágenes del sistema (snapshots). La mayoría de las
aplicaciones que administran sistemas virtuales pueden generar copias de los sistemas,
lo que permite recontruir el servicio a un momento determinado en muy poco tiempo.

* Computación verde (green computing). Esta tendencia se refiere a la mejor
utilización de las TI en lo que respecta a la utilización de energía, no sólo con la
reducción del número de equipos, sino también con el consumo responsable de la
misma y aprovechamiento de la plataforma instalada.

* Reducción de costos de administración al mantener un menor volúmen de equipos
en operación.

* Ambientes de prueba controlados. Cuando un sistema o servicio todavía no está en
producción, esta es una manera muy eficiente de verificar su funcionamiento.

A todas luces, estos puntos a favor (que no son los únicos, pero si los más importantes)
han justificado a lo ancho del planeta la implementación de la tecnología, pero también
tiene puntos en contra que es necesario vigilar.

* Un sólo punto de falla. El equipo anfitrión es el talón de Aquiles del conjunto, ya que
en caso de una falla masiva del sistema, todos los servicios se ven afectados
simultaneamente; por supuesto que en un plan de contingencias es requisito mantener
un servidor de las mismas características para implementar las imágenes (snapshots) de
cada servicio.

* Utilización de equipo con alto poder y reciente. En un ambiente de pruebas puede
no ser tan necesario, pero al momento de tener sistemas en producción es posible que
nos enfrentemos a la necesidad de adquirir equipos anfitriones con características
específicas, con múltiples procesadores, abundante RAM y capacidad de crecimiento de
discos duros; no se deben descartar arreglos de discos para ofrecer resistencia a fallas
físicas, fuentes de energía redundantes y posiblemente dos o más tarjetas de red, pero
esto se determina con el dimensionamiento del servicio.

* Instalaciones adecuadas. Por lo general se dan por sentado, pero dos elementos muy
importantes serían el suministro de energía ininterrumpido y un sistema de
enfriamiento; este último es muy importante ya que al usar el procesador y otros
recursos cerca del 90% de su capacidad, el calor que generan es muy superior que
aquellos que sólo mantienen sistemas reales. * Mayor requerimiento de espacios para
respaldos. Las imágenes de los sistemas contienen tanto el sistema operativo como las
aplicaciones e información almacenada, por lo que se necesita definir una estrategia de
respaldos adecuada para guardar y retener múltiples copias de cada huésped.

* Limitaciones de equipo especiales. Algunos dispositivos o componentes, como son
tarjetas de fibra, unidades múltiples por USB o SCSI y algunos otros pueden presentar
un problema cuando el servidor anfitrión tenga que distribuir peticiones similares a
múltiples huéspedes.

Si somos cuidadosos, observaremos que la mayoría de estos puntos pueden ser previstos
en buena medida durante la planeación, por lo que si bien son predecibles, seguramente
requieren de una inversión en tiempo y esfuerzo, a veces importante; incluso se debe
considerar el crecimiento de necesidades a un período de tres años aproximadamente,
pero por lo mismo es posible que no debamos de dar un paso apresurado en montar los
sistemas en producción en ambientes virtuales, ya que además debemos contemplar un
período de estabilización y puesta a punto antes de liberarlo.

Ahora bien, en un rubro que por lo general pasamos por alto, consideremos los retos que
se enfrenta el área de TI al implementar y administrar sistemas virtuales. Estos son
algunos de los más destacados.

* Esquemas de alta disponibilidad. Algunos de los administradores más
experimentados posiblemente han utilizado alguna forma de clusterización, pero al
entrar en sistemas virtuales encontramos que el manejo es diferente, ya que estos
sistemas, de acuerdo a la solución implementada, puede generar comunicaciones
directas (de máquina virtual a máqina virtual), lo que ofrece una velocidad de
comunicación muy superior, pero que posiblemente requiera de adecuar múltiples
parámetros para no entorpecer el servicio al usuario.

* Almacenamiento masivo. La comunicación para la transferencia de información a
sistemas NAS, SAN o iSCSI puede ser una excelente forma de centralizar los
repositorios de información pero se necesita implementar flujos, preferentemente a
través de una tarjeta de fibra en el equipo anfitrión, hacia los huéspedes, con la
consideración que es posible generar cuellos de botella en sistemas de ata demanda.

* Administración del servidor anfitrión. Adicionalmente a administrar los sistemas
virtuales, es necesario poner especial atención al host, ya que diversos factores pueden
entorpecer la operación de los huéspedes sin que necesariamente se detengan los
servicios, como el que algun esté usando gran cantidad de memoria, que los sistemas
operativos estén descargando/actualizando programas al mismo tiempo, etc. En este
punto es especialmente útil cuando la solución que usemos tiene una consola de
administración y monitoreo.

* Planeación de respuestas a contingencias. Anteriormente ya se había mencionado el
aspecto de las imágenes que podemos generar de una instancia de MV, sin embargo este
sólo es un aspecto cuando se trata de planear una contingencia, ya que si bien un
snapshot ofrece la facilidad de implementar en casi nada de tiempo un huésped, es
necesario considerar la movilidad de un archivo que pese al menos 20 GB, la
parametrización del sistema, características del equipo anfitrón, etc.

* Procesos críticos en medios virtuales. No es lo mismo pensar en un página Web
informativa que en mantener nuestras bases de datos o aplicaciones corporativas en
estos ambientes, ya que por lo general estos son el sustento de nuestra organización pero
si analizamos las ventajas que ofrecen, el esfuerzo de generar las comunicaciones de
nuestros usuarios internos y externos con estos bien vale la pena.

La virtualización más que una moda es una tecnología cuya planeación a mediano y
largo plazo puede rendir frutos muy importantes pero que necesita de preparativos y
monitoreo para asegurar el cumplimiento de sus objetivos. En la siguiente entrega
veremos las tendencias y tecnologías detrás de la virtualización, de manera que
podamos tomar decisiones respecto al esquema que necesitamos