You are on page 1of 50

Materia: Introducción Computacional

EL ORDENADOR

Es un dispositivo electrónico capaz de procesar la información recibida, a través de unos


dispositivos de entrada (input), y obtener resultados que serán mostrados haciendo uso de unos
dispositivos de salida (output), gracias a la dirección de un programa escrito en el lenguaje de
programación adecuado.
Los ordenadores necesitan para su funcionamiento programas. Sin un programa un ordenador es
completamente inútil. Para escribir estos programas necesitamos usar un determinado lenguaje
de programación. Los lenguajes de programación permiten escribir programas y comunicarnos
correctamente con el ordenador.
Hardware: componentes físicos que constituyen el PC junto con los dispositivos que realizan las
tareas de E/S.
Programa: conjunto de instrucciones, escritas en un determinado lenguaje de programación, que
controlan el funcionamiento de un ordenador.
Software: conjunto de programas escritos para un ordenador.

Componentes de un Ordenador

Componentes básicos:
➢ Unidades de almacenamiento (memoria)
➢ Unidad Central de Proceso (CPU) o procesador
➢ Unidad de entrada/salida (E/S)
➢ Buses

Unidades de almacenamiento: memoria principal, central o interna, y almacenamiento externo


(memoria masiva auxiliar, secundaria o externa). Almacenamiento Interno (memoria principal,
central o interna):

Memoria RAM (Random Access Memory):


Zona de memoria de lectura/escritura.
Es volátil. Almacena el S.O. y los programas que están en ejecución junto con sus datos.
Costosa, capacidad limitada, tiempo de recuperación casi inmediato.
Memoria ROM (Read Only Memory):
Zona de la memoria de sólo lectura.
Es permanente. Almacena la BIOS (Basic Input-Output System): Conjunto de programas que se
ejecutan al encender el PC (chequean el sistema y cargan el S.O. en RAM)
Características de la Memoria Principal:
El acceso a la memoria principal es muy rápido, sin embargo al ser
costosa, es un recurso escaso.
Está ligada a las unidades más rápidas del ordenador (UC y ALU).
Está dividida en una serie de celdas (posiciones de memoria o palabras), numeradas con una
dirección unívoca a través de la cual se accede a cada una de ellas. La longitud de las palabras
se mide en número de bits (unidad mínima de información que se puede almacenar: 0 ó 1).

Características de los ordenadores.- Los ordenadores son máquinas automáticas que realizan
un tratamiento de la información (cálculo, copia, ordenación) siguiendo las instrucciones de
unos programas y sin necesidad de una continua intervención humana.
Son programables. Ejecutan las instrucciones que reciben a través de un programa.
Versatilidad.- Podemos realizar diversos trabajos: escribir cartas, controlar otras máquinas.
Interactividad.- Mantienen diálogos con los usuarios y actúan en función de sus ordenes y
acciones.
Materia: Introducción Computacional

Capacidad de almacenar.- Almacenan grandes cantidades de información en discos muy


pequeños.
Rapidez.- Hacen los trabajos con más rapidez que las personas y no suelen equivocarse.
Tipos de ordenadores. Según su capacidad de memoria y la velocidad con la que procesan la
información los ordenadores se clasifican en tres grupos:
➢ GRANDES ORDENADORES (main frames). Ordenadores de grandes dimensiones
que gestionan grandes volúmenes de información a alta velocidad y pueden servir
simultáneamente a muchos usuarios. Los usan las grandes empresas y centros de
búsqueda.
➢ MINI ORDENADORES. Tienen una capacidad y una velocidad de trabajo alta pero
menor que los main frames. Su volumen y el número de posibles usuarios también es
menor.
➢ MICROORDENADORES. Pequeños ordenadores generalmente utilizados por un único
usuario, pero con buena capacidad de trabajo y velocidad de proceso. Dentro de este
grupo están los ordenadores personales.

HISTORIA DEL ORDENADOR

Evolución histórica de los ordenadores. Los últimos 50 años, y debido al vertiginoso desarrollo
de la microelectrónica, el tamaño y el precio de los ordenadores no ha dejado de bajar, mientras
aumentan continuamente su fiabilidad, su rapidez y sus prestaciones en general.
Precursores de los ordenadores. La aparición de los ordenadores no ha sido un hecho que se
halla producido de repente; a lo largo del tiempo encontramos diversas máquinas mecánicas que
intentan facilitar la realización de los cálculos y automatizar algunos trabajos: la sumadora de
Pascal (XV), la calculadora de Leibniz (XVII), la máquina analítica de Babbage (XIX), la
clasificadora de fichas perforadas de Hollerit (XIX).

Ordenadores electromecánicos. En el año 1944, Howard Aiken (EE.UU) construyó MARK-1,


el primer calculador programable. Se programaba mediante la conexión de clavijas externas, era
enorme y poco fiable pero inicia la era de los ordenadores.

Ordenadores de válvulas electrónicas (1946).- Enormes ordenadores que usaban fichas


perforadas para la toma de los datos y de los programas. El primer de estos ordenadores fue el
ENIAC (Eckert y Mauchly, EE.UU), un prototipo con finalidad científica y militar, a partir del
cual se construyeron otros modelos con un planteamiento más comercial.

Ordenadores transistorizados (1956).- Grandes ordenadores con muchos terminales que


usaban fichas perforadas y cintas magnéticas para entrar datos y archivar los resultados.

Ordenadores a base de circuitos integrados (1965).- Eran ya miniordenadores que solían


utilizar teclado y pantalla y almacenaban la información en discos magnéticos como el IBM 360
y el UNIVAC 90.

Ordenadores a base de un microprocesador (1971).- Permitieron reducir más el tamaño de


todos los ordenadores y especialmente en la producción de pequeños y potentes
microordenadores como los ordenadores personales.

INFORMÀTICA
Materia: Introducción Computacional

El Tratamiento de la Información.-La informática es la ciencia aplicada que abarca el estudio


y aplicación del tratamiento automático de la información utilizando dispositivos electrónicos y
sistemas computacionales. También está definida como el procesamiento automático de la
información.
Datos: Entendemos por datos la información que introducimos en el ordenador para ser
procesada. Por ejemplo los nombres y las direcciones de los socios de un club, con las que
elaboramos un fichero informatizado que nos facilitará la gestión de las cuotas anuales y la
emisión de listados.
Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:
➢ Entrada: Captación de la información digital.
➢ Proceso: Tratamiento de la información.
➢ Salida: Transmisión de resultados binarios.
En los inicios del procesado de información, con la informática sólo se facilitaba los trabajos
repetitivos y monótonos del área administrativa, gracias a la automatización de esos procesos,
ello trajo como consecuencia directa una disminución de los costes y un incremento en la
producción.
En la informática convergen los fundamentos de las ciencias de la computación, la
programación y metodologías para el desarrollo de software, la arquitectura de computadores,
las redes de datos (como Internet), la inteligencia artificial y ciertas cuestiones relacionadas con
la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de
disciplinas.
Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana,
como por ejemplo: gestión de negocios, almacenamiento y consulta de información,
monitorización y control de procesos, industria, robótica, comunicaciones, control de
transportes, investigación, desarrollo de juegos, diseño computarizado, etc. Una de la
aplicaciones más importantes de la informática es facilitar información en forma oportuna y
veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial (en una
empresa) como permitir el control de procesos críticos.
Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática.
Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones
domésticas, hasta cálculos científicos complejos.
Entre las funciones principales de la informática se cuentan las siguientes:
➢ Creación de nuevas especificaciones de trabajo.
➢ Desarrollo e implementación de sistemas informáticos.
➢ Sistematización de procesos.
➢ Optimización de los métodos y sistemas informáticos existentes.
El término TIC (Tecnologías de Comunicación e Información), por lo general abreviado como
IT, usando las siglas inglesas), se usa ampliamente en los campos políticos, administrativos,
universitarios y académicos para hacer referencia a las tecnologías de la información,
telecomunicación y audiovisual.
HISTORIA DE LA INFORMÁTICA
El origen de las máquinas de calcular está dado por el ábaco chino, éste era una tablilla dividida
en columnas en la cual la primera, contando desde la derecha, correspondía a las unidades, la
siguiente a la de las decenas, y así sucesivamente. A través de sus movimientos se podía realizar
operaciones de adición y sustracción.

Con los logaritmos funciones matemáticas llega el primer calculador mecánico en 1642
construido por Blaise Pascal. Se trataba de una serie de ruedas con números del 0 al 9 tales que
Materia: Introducción Computacional

cada una de las cuales hacía avanzar un paso a la siguiente al completar una vuelta. Estas ruedas
se movían mediante una manivela en sentido positivo o negativo.

Leibnitz fue el inventor del cálculo. Con una máquina de calcular que podía multiplicar dividir
y obtener la raíz cuadrada trabajaba en sistema binario que es la base de numeración empleada
por los modernos ordenadores actuales.

Joseph Jacquard utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado
por los hilos de las telas confeccionadas por una máquina de tejer que se utilizaron para
mediante unas fichas perforadas controlar la máquina de tejer.
Jacquard fue el primero en emplear tarjetas perforadas para almacenar la información. En 1822
diseñó su máquina para el cálculo de polinomios.

Utilizada para el cálculo de tablas de navegación y artillería. es considerado el padre de la


informática actual. Su máquina tenía un mecanismo de entrada y salida por tarjetas perforadas
una memoria una unidad de control y una unidad aritmético-lógica.
Disponia de tarjetas separadas según los programas y datos y podía alterar su secuencia de
operaciones en base al resultado de cálculos anteriores algo fundamental.

Herman Hollerith utilizó tarjetas perforadas en las que mediante agujeros se volcaban los datos
personales de la población para realizar el censo. Estas perforaciones activaban un contador y
un mecanismo de selección de tarjetas que eran leidas en la entonces increible velocidad de 80
por minuto.

Hollerith fusionó su compañía y formo la Internacional Bussines Machines que actualmente es


la internacional IBM.

James Powers diseñó nuevas máquinas para el censo. Aficionado a la electrónica, empezó a
considerar la posibilidad de construir un calculador digital en sistema binario para hacer los
cálculos de modo totalmente distinto a como los realizaban las calculadoras mecánicas y un
dispositivo de memoria mediante almacenamiento de carga eléctrica. En colaboracion con
Clifford Berry crearon el conocido como ABC Atanasoff Berry-Computer.
A pesar de la lentitud e esos calculo, se habia conseguido ya ser 50 veces más rápido que un
hombre con una sumadora.

El proyecto ENIAC (Electronic Numerical integrator and Computer) pesaba unas 30 toneladas y
ocupaba unos 1.600 metros cuadrados y era capaz de sumar restar multiplicar y dividir, disponia
de tablas de funciones.
Entre 1939 y 1944 Howard Aiken en colaboración con IBM desarrolló el Mark 1 o Calculador
Automático de Secuencia Controlada que realizaba las cuatro operaciones básicas y trabajaba
con información almacenada en forma de tablas.
Operaba con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en 1
segundo. El Mark 1 y las versiones que posteriormente se realizaron del mismo tenían el mérito
de asemejarse considerablemente al tipo de máquina ideado por Babbage aunque trabajaban en
código decimal y no binario.
El avance que estas máquinas electromecánicas supuso fue rápidamente ensombrecido por el
Eniac con sus circuitos electrónicos.
John Von Neumann en 1.946 realizó una mejora del Eniac; el Edvac (Electronic Discrete
Variable Automatic Computer) que se construyó en 1952.

Empleaba aritmética binaria lo que simplificaba enormemente los circuitos electrónicos de


cálculo y permitía trabajar con un programa almacenamiento, pudiendo procesar instrucciones
tan deprisa como los datos.
Materia: Introducción Computacional

Eckert y Mauchly fundaron su propia compañía, fue absorbida por Remington Rand y el 14 de
junio de 1951 son desarrollados el Univac I y el Univac II (se puede decir que es el punto de
partida en el surgimiento de los verdaderos ordenadores, que serán de acceso común a la gente)
IBM fabricó en 1953 su primer computador para aplicaciones científicas el 701 y
posteriormente el primer ordenador que empleaba memorias de núcleos de ferrita IBM superó
rápidamente a Sperry en volumen de ventas.

Generaciones

Primera Generación: Se desarrolla entre 1940 y 1952. Es la época de los ordenadores que
funcionaban a válvulas y el uso era exclusivo para el ámbito científico/militar. Para poder
programarlos había que modificar directamente los valores de los circuitos de las máquinas.
Segunda Generación: Va desde 1952 a 1964. Ésta surge cuando se sustituye la válvula por el
transistor. En esta generación aparecen los primeros ordenadores comerciales, los cuales ya
tenían una programación previa que serían los sistemas operativos. Éstos interpretaban
instrucciones en lenguaje de programación (Cobol, Fortran), de esta manera, el programador
escribía sus programas en esos lenguajes y el ordenador era capaz de traducirlo al lenguaje
máquina.
Tercera Generación: Se dio entre 1964 y 1971. Es la generación en la cual se comienzan a
utilizar los circuitos integrados; esto permitió por un lado abaratar costos y por el otro aumentar
la capacidad de procesamiento reduciendo el tamaño físico de las máquinas. Por otra parte, esta
generación es importante porque se da un notable mejoramiento en los lenguajes de
programación y, además, surgen los programas utilitarios.
Cuarta Generación: Se desarrolla entre los años 1971 y 1981. Esta fase de evolución se
caracterizó por la integración de los componentes electrónicos, y esto dio lugar a la aparición
del microprocesador, que es la integración de todos los elementos básicos del ordenador en un
sólo circuito integrado.
Quinta Generación: Va desde 1981 hasta nuestros días (aunque ciertos expertos consideran
finalizada esta generación con la aparición de los procesadores Pentium, consideraremos que
aun no ha finalizado). Esta quinta generación se caracteriza por el surgimiento de la PC, tal
como se la conoce actualmente.

DISPOSITIVOS DE ENTRADA SALIDA Y ALMACENAMIENTO


Dispositivos de entrada
Son los que envían información a la unidad de procesamiento, en código binario.
Teclado: Un teclado se compone de una serie de teclas agrupadas en funciones que podremos
describir:
Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las letras,
números y símbolos ortográficos.
Materia: Introducción Computacional

Teclado de Función: es un conjunto de 13 teclas entre las que se encuentran el ESC, tan
utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser
configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.
Teclado Numérico: se suele encontrar a la derecha del teclado alfanumérico y consta de los
números así como de un Enter y los operadores numéricos de suma, resta..
Teclado Especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos:
uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas.
Recomendaciones: En este apartado es conveniente distinguir entre dos tipos de teclado:
De Membrana: Fueron los primeros que salieron y como su propio nombre indica presentan una
membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura.
Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos
traumática y más suave para el usuario.
Mouse: A este periférico se le llamó así por su parecido con este roedor. Suelen estar
constituidos por una caja con una forma más o menos anatómica en la que se encuentran dos
botones que harán los famosos clicks de ratón siendo transmitidos por el cable al puerto PS/II o
al puerto de serie (COM1 normalmente). Dentro de esta caja se encuentra una bola que
sobresale de la caja a la que se pegan 4 rodillos ortogonalmente dispuestos que serán los que
definan la dirección de movimiento del ratón. El ratón se mueve por una alfombrilla
ocasionando el movimiento de la bola que a su vez origina el movimiento de uno o varios de
estos rodillos que se transforma en señales eléctricas y producen el efecto de desplazamiento del
ratón por la pantalla del ordenador.
Existen modelos modernos en los que la transmisión se hace por infrarrojos eliminando por
tanto la necesidad de cableado. Otros presentan la bola en la parte superior de la caja no estando
por tanto en contacto con la alfombrilla y teniendo que ser movida por los dedos del usuario
aunque se origina el mismo efecto.
Micrófono: Periférico por el cual transmite sonidos que el ordenador capta y los reproduce, los
salva, etc. Se conecta a la tarjeta de sonido.
Escáner: Es un dispositivo utiliza un haz luminoso para detectar los patrones de luz y oscuridad
(o los colores) de la superficie del papel, convirtiendo la imagen en señales digitales que se
pueden manipular por medio de un software de tratamiento de imágenes o con reconocimiento
óptico.
Un tipo de escáner utilizado con frecuencia es el flatbed, que significa que el dispositivo de
barrido se desplaza a lo largo de un documento fijo. En este tipo de escáneres, como las
fotocopiadoras de oficina, los objetos se colocan boca abajo sobre una superficie lisa de cristal y
son barridos por un mecanismo que pasa por debajo de ellos. Otro tipo de escáner flatbed utiliza
un elemento de barrido instalado en una carcasa fija encima del documento.
Un tipo muy popular de escáner es el escáner de mano, también llamado hand-held, porque el
usuario sujeta el escáner con la mano y lo desplaza sobre el documento. Estos escáneres tienen
la ventaja de ser relativamente baratos, pero resultan algo limitados porque no pueden leer
documentos con una anchura mayor a 12 o 15 centímetros.
Lector de código de barras: dispositivo que mediante un haz de láser lee dibujos formados por
barras y espacios paralelos, que codifica información mediante anchuras relativas de estos
elementos. Los códigos de barras representan datos en una forma legible por el ordenador, y son
uno de los medios más eficientes para la captación automática de datos.
Materia: Introducción Computacional

Cámara digital: Cámara que se conecta al ordenador y le transmite las imágenes que capta,
pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber
varios tipos:
Cámara de fotos digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD
(Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña
memoria donde almacena fotos para después transmitirlas a un ordenador.
Cámara de video: Graba videos como si de una cámara normal se tratara, pero las ventajas que
ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la
que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que
has grabado, para poder retocarlo posteriormente con el software adecuado.
Webcam: Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD. Tiene que
estar conectada al PC para poder funcionar, y esta transmite las imágenes al ordenador. Su uso
es generalmente para videoconferencias por internet, pero mediante el software adecuado, se
pueden grabar videos como una cámara normal y tomar fotos estáticas.
Lápiz Óptico: dispositivo señalador que permite sostener sobre la pantalla un lápiz que está
conectado al ordenador y con el que es posible seleccionar elementos u opciones (el equivalente
a un clic de mouse o ratón), bien presionando un botón en un lateral del lápiz óptico o
presionando éste contra la superficie de la pantalla.
El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra
una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la
punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la
computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que
ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo.
Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el
ordenador puede determinar la posición del lápiz en la pantalla.

El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso
de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante
periodos largos de tiempo llega a cansar al usuario.

Joystick: dispositivo señalador muy conocido, utilizado mayoritariamente para juegos de


ordenador o computadora, pero que también se emplea para otras tareas. Un joystick o palanca
de juegos tiene normalmente una base de plástico redonda o rectangular, a la que está acoplada
una palanca vertical. Los botones de control se localizan sobre la base y algunas veces en la
parte superior de la palanca, que puede moverse en todas direcciones para controlar el
movimiento de un objeto en la pantalla. Los botones activan diversos elementos de software,
generalmente produciendo un efecto en la pantalla. Un joystick es normalmente un dispositivo
señalador relativo, que mueve un objeto en la pantalla cuando la palanca se mueve con respecto
al centro y que detiene el movimiento cuando se suelta. En aplicaciones industriales de control,
el joystick puede ser también un dispositivo señalador absoluto, en el que con cada posición de
la palanca se marca una localización específica en la pantalla.
Tarjetas perforadas: ficha de papel manila de 80 columnas, de unos 7,5 cm (3 pulgadas) de
ancho por 18 cm (7 pulgadas) de largo, en la que podían introducirse 80 columnas de datos en
forma de orificios practicados por una máquina perforadora. Estos orificios correspondían a
números, letras y otros caracteres que podía leer un ordenador equipada con lector de tarjetas
perforadas.
Materia: Introducción Computacional

Pantalla Táctil: pantalla diseñada o modificada para reconocer la situación de una presión en su
superficie. Al tocar la pantalla, el usuario puede hacer una selección o mover el cursor. El tipo
de pantalla táctil más sencillo está compuesto de una red de líneas sensibles, que determinan la
situación de una presión mediante la unión de los contactos verticales y horizontales.
Otros tipos de pantallas más precisas utilizan una superficie cargada eléctricamente y sensores
alrededor de los bordes externos de la pantalla, para detectar la cantidad de cambio eléctrico y
señalar exactamente donde se ha realizado el contacto. Un tercer tipo fija diodos emisores de
rayos infrarrojos (LEDs, acrónimo de Light-Emitting Diodes) y sensores alrededor de los bordes
externos de la pantalla. Estos LEDs y sensores crean una red invisible de infrarrojos en la parte
delantera de la pantalla que interrumpe el usuario con sus dedos.
Las pantallas táctiles de infrarrojos se usan a menudo en entornos sucios, donde la suciedad
podría interferir en el modo de operación de otros tipos de pantallas táctiles. La popularidad de
las pantallas táctiles entre los usuarios se ha visto limitada porque es necesario mantener las
manos en el aire para señalar la pantalla, lo que sería demasiado incómodo en largos periodos de
tiempo. Además no ofrece gran precisión al tener que señalar ciertos elementos en programas de
alta resolución. Las pantallas táctiles, sin embargo, son enormemente populares en aplicaciones
como los puestos de información porque ofrecen una forma de señalar que no requiere ningún
hardware móvil y porque presionar la pantalla es algo intuitivo.

Dispositivos de salida
Son los dispositivos que reciben información que es procesada por la CPU y la reproducen para
que sea perceptible para la persona.
Monitor: es la pantalla en la que se ve la información suministrada por el ordenador. En el caso
más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los
televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD).
Puntos a tratar en un monitor:
Resolución (RESOLUTION): Se trata del número de puntos que puede representar el monitor
por pantalla, en horizontal x vertical. Así, un monitor cuya resolución máxima sea 1024x 768
puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada una, probablemente
además de otras resoluciones inferiores, como 640x480 u 800x600.
Refresco de Pantalla: Se puede comparar al número de fotogramas por segundo de una película
de cine, por lo que deberá ser lo mayor posible. Se mide en HZ (hertzios) y debe estar por
encima de los 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es
sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos.
Materia: Introducción Computacional

Tamaño de punto (DOT PITCH): Es un parámetro que mide la nitidez de la imagen, midiendo
la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. En
ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo
de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla
empleada para dirigir los haces de electrones.
Lo mínimo, exigible en este momento es que sea de 0,25 mm, no debiéndose admitir nada
superior como no sea en monitores de gran formato para presentaciones, donde la resolución no
es tan importante como el tamaño de la imagen.
Controles y conexiones: Aunque se va cada vez más el uso de monitores con controles digitales,
en principio no debe ser algo determinante a la hora de elegir un monitor, si bien se tiende a que
los monitores con dichos controles sean los más avanzados de la gama.
Multimedia: Algunos monitores llevan acoplados altavoces, e incluso micrófono y/o cámaras de
video. Esto resulta interesante cuando se trata de un monitor de 15'' ó 17'' cuyo uso vaya a ser
doméstico, para juegos o videoconferencias.
Pantalla táctil: véase en dispositivos de entrada.
Impresoras: Dispositivo que sirve para captar la información que le envía la CPU y imprimirla
en papel, plástico, etc. Hay varios tipos:
Matriciales: Ofrecen mayor rapidez pero una calidad muy baja.
Inyección: La tecnología de inyección a tinta es la que ha alcanzado un mayor éxito en las
impresoras de uso doméstico o para pequeñas empresas, gracias a su relativa velocidad, calidad
y sobre todo precio reducidos, que suele ser la décima parte de una impresora de las mismas
características.
Claro está que hay razones de peso que justifican éstas características, pero para imprimir
algunas cartas, facturas y pequeños trabajos, el rendimiento es similar y el coste muy inferior.
Hablamos de impresoras de color porque la tendencia del mercado es que la informática en
conjunto sea en color. Esta tendencia empezó hace una década con la implantación de tarjetas
gráficas y monitores en color. Todavía podemos encontrar algunos modelos en blanco y negro
pero ya no son recomendables.
Las impresoras de inyección cuentan a favor con elementos como el coste, tanto de adquisición
como de mantenimiento, la sencillez de manejo y el tamaño. En contra tenemos su escasa
velocidad y calidad frente a otras tecnologías.
Láser: Ofrecen rapidez y una mayor calidad que cualquiera, pero tienen un alto coste y solo se
suelen utilizar en la mediana y grande empresa. Por medio de un haz de láser imprimen sobre el
material que le pongamos las imágenes que le haya enviado la CPU.
Altavoces: Dispositivos por los cuales se emiten sonidos procedentes de la tarjeta de sonido.
Actualmente existen bastantes ejemplares que cubren la oferta más común que existe en el
mercado. Se trata de modelos que van desde lo más sencillo (una pareja de altavoces estéreo),
hasta el más complicado sistema de Dolby Digital, con nada menos que seis altavoces, pasando
por productos intermedios de 4 o 5 altavoces. Sin duda alguna, se nota perfectamente el
esfuerzo que todos los fabricantes han realizado para ponerse al día en esta tecnología, ya que
en poco tiempo han incorporado a su tecnología desarrollos basados en Dolby Surround o
Dolby Digital.
Los más avanzados constan de 4 altavoces (2 delanteros y 2 traseros) de reducido tamaño, otro
más central para los diálogos y un último altavoz mucho más voluminoso que se encarga de
Materia: Introducción Computacional

realzar las fuerzas de los graves. Hasta aquí todo parece indicar que se trata de otros juegos de
altavoces cuadrafónicos. Pero la diferencia principal de estos sistemas es que incorporan un
descodificador Dolby Digital, mediante el cual, podremos ajustar los volúmenes de cada juego
de altavoces, así como aplicar diferentes filtros de sonido en función del tipo de sonido que
estemos reproduciendo en cada momento (música, película). Para sacar partido de estos
altavoces es necesario que nuestra tarjeta de sonido cuente con una salida S/PDIF de Dolby
Digital ya que a través de ésta es desde donde los conjuntos de altavoces toman el sonido.
La desventaja de este tipo de unidades suele ser la calidad de las mismas. Teniendo en cuenta el
precio de este tipo de conjuntos, en el que se incluye un aparato decodificador, la calidad de los
6s altavoces no puede ser especialmente buena, aunque para un uso casero resulta más que
válida. Otra cuestión es la potencia. Tratándose de altavoces pequeños y baratos no conseguirán
una fidelidad de sonido muy grande a poco que la habitación tenga un tamaño medio.
En cualquier caso los equipos basados en Dolby Digital son muy escasos por el momento y
debemos recurrir a equipos grandes si deseamos una calidad de sonido suficiente y por tanto
será inevitable gastar una cantidad de dinero bastante importante.
Auriculares: son dispositivos colocados en el oído para poder escuchar los sonidos que la tarjeta
de sonido envía. Presentan la ventaja de que no pueden ser escuchados por otra persona, solo la
que los utiliza.
Fax: Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía
teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la
impresión se corta.
Dispositivos de almacenamiento
Son dispositivos que sirven para almacenar el software del ordenador. Se basa en dos tipos de
tecnologías: la óptica y la magnética. La magnética se basa en la histéresis magnética de
algunos materiales y otros fenómenos magnéticos, mientras que la óptica utiliza las propiedades
del láser y su alta precisión para leer o escribir datos.
Disco duro: Un disco duro es un soporte de almacenamiento más o menos perdurable. Tiene
tecnología magnética. Son habituales desde que salió el 286. Un disco duro está compuesto de
numeroso discos de material sensible a los campos magnéticos, apilados unos sobre otros; en
realidad se parece mucho a una pila de disquetes sin fundas y con el mecanismo de giro y el
brazo lector incluido en la carcasa. Su giro posee una velocidad tan alta (unas 4.000 rpm), que
es recomendable instalarle un ventilador para su refrigeración.
Disquetera: Por malo y anticuado que sea un ordenador, siempre dispone de al menos uno de
estos aparatos. Su capacidad es totalmente insuficiente para las necesidades actuales, pero
cuentan con la ventaja que les dan los muchos años que llevan como estándar absoluto para
almacenamiento portátil.
Originariamente los disquetes eran flexibles y bastante grandes, unas 5,25 pulgadas de ancho.
La capacidad primera de 160 Kb se reveló enseguida como insuficiente, por lo que empezó a
crecer y no paró hasta los 1,44 Mb, ya con los disquetes actuales, más pequeños (3,5'') más
rígidos y protegidos por una pestaña metálica.
Las disqueteras son compatibles "hacia atrás"; es decir, que en una disquetera de 3,5'' de alta
densidad (de 1,44 Mb) podemos usar discos de 720 Kb o de 1,44 MB, pero en una de doble
densidad, más antigua, sólo podemos usarlos de 720 Kb.
CD-ROM: La palabra CD-ROM viene de Compact Disc-Read Only Memory. Disco compacto
de solo lectura. Es un soporte óptico. Sistema de almacenamiento de información en el que la
Materia: Introducción Computacional

superficie del disco está recubierta de un material que refleja la luz. La grabación de los datos se
realiza creando agujeros microscópicos que dispersan la luz (pits) alternándolos con zonas que
sí la reflejan (lands). Se utiliza un rayo láser y un fotodiodo para leer esta información. Su
capacidad de almacenamiento es de unos 650 Mb de información (equivalente a unos 74
minutos de sonido grabado).
DVD: Es lo mismo que un CD-ROM pero posee mayor capacidad (410 minutos, frente a los 74
de un CD). Este tan solo ha cambiado la longitud del láser, reducido el tamaño de los agujeros y
apretado los surcos para que quepa más información en el mismo espacio.
Otros dispositivos de almacenamiento:
Zip (Iomega): Caben 100 Mb y utiliza tecnología magnética.

EZFlyer (SyQuest): Caben 230 Mb y tiene una velocidad de lectura muy alta

SuperDisk LS-120: Caben 200 Mb y utilizan tecnología magneto-óptica.

Magneto-ópticos de 3,5'': Caben de 128 Mb a 640 Mb

Jaz (Iomega): Es como el Zip y caben de 1 GB a 2 GB.

Cintas Magnéticas: Caben hasta más de 4 GB.


Dispositivos de memoria

Discos Flexibles: Dispositivo de entrada-salida. Se diferencian dos tipos según su diámetro, los
de 51/4 y los de 31/2, estas medidas están expresadas en pulgadas (13,3 y 8,8 centímetros). En
los dos tipos hay, segundos de capacidad de almacenamiento, dos grupos: los de doble cara-
doble densidad (DD) y los de doble cara-alta densidad (HD), las capacidades de
almacenamiento son las siguientes:
Discos Duros: Dispositivos de entrada-salida. Difiere de los flexibles en la capacidad, la
velocidad de acceso en el hecho de que no es transportable (removible), sino que está conectado
(en la mayoría de los casos) al interior del ordenador. Las capacidades de los tiempos de acceso
de los discos duros son diversos, en cuanto a la capacidad varían entre 20 Mb (actualmente
desfasados), 40 Mb, 60 Mb, 80 Mb, 120 Mb, 170 Mb hasta los 550, 720, 1 GigaByte o más
(actualmente se ofertan discos de hasta 18 Gb.). Los tiempos de acceso también varían y se
miden en milisegundos.
Discos Ópticos: Dispositivo de entrada-salida. Estos dispositivos utilizan tecnología láser para
grabar los datos. Tienen una gran capacidad de almacenamiento de la orden de Gigabytes (1
Gigabyte=1024Mb- unos mil millones de bytes).

Tipos de Memoria

Tipos de Memoria RAM


DRAM (Dynamic Random Access Memory): Es la memoria de trabajo, también llamada RAM,
está organizada en direcciones que son reemplazadas muchas veces por segundo. Esta memoria
llegó a alcanzar velocidades de 80 y 70 nanosegundos (ns), esto es el tiempo que tarda en vaciar
una dirección para poder dar entrada a la siguiente, entre menor sea el número, mayor la
velocidad, y fué utilizada hasta la época de los equipos 386.
Materia: Introducción Computacional

FPM (Fast Page Mode): El nombre de esta memoria procede del modo en el que hace la
transferencia de datos, que también es llamado paginamiento rápido. Hasta hace
aproximadamente un año ésta memoria era la más popular, era el tipo de memoria normal para
las computadores 386, 486 y los primeros Pentium®, llegó a fabricarse en velocidades de 60ns
y la forma que presentaban era en módulos SIMM de 30 pines y para los equipos Pentium® era
en SIMM de 72 pines.
EDO (Extended Data Output): Esta memoria fue una innovación en cuestión de transmisión de
datos pudiendo alcanzar velocidades de hasta 45ns, dejando satisfechos a los usuarios.
SDRAM (Synchronous DRAM): Esta memoria funciona como su nombre lo indica, se
sincroniza con el reloj del procesador obteniendo información en cada ciclo de reloj, sin tener
que esperar como en los casos anteriores. La memoria SDRAM puede aceptar velocidades de
BUS de hasta 100Mhz, lo que nos refleja una muy buena estabilidad y alcanzar velocidades de
10ns. Se presentan en módulos DIMM, y debido a su transferencia de 64 bits, no es necesario
instalarlo en pares.
RDRAM (Rambus DRAM): Esta memoria tiene una transferencia de datos de 64 bits que se
pueden producir en ráfagas de 2ns, además puede alcanzar taza de transferencia de 533 Mhz con
picos de 1.6Gb/s. Muy pronto alcanzará dominio en el mercado, ya que se estará utilizando en
equipos con el nuevo procesador Pentium 4®.
Es ideal ya que evita los cuellos de botella entre la tarjeta gráfica AGP y la memoria del
sistema, hoy en día se pueden encontrar éste tipo de memorias en las consolas NINTENDO
64®. Será lanzada al mercado por SAMSUNG® e HITACHI®.
Tipos de Memoria ROM

EPROM (Erasable Programmable Read-Only Memory):


Se utiliza para corregir errores de última hora en la ROM, el usuario no la puede modificar y
puede ser borrada exponiendo la ROM a una luz ultravioleta.

EEPROM (Electrically Erasable Programmable Read-Only Memory): Esta memoria puede ser
borrada y volver a ser programada por medio de una carga eléctrica, pero sólo se puede cambiar
un byte de información a la vez.
MEMORIA FLASH: Es un tipo de memoria EEPROM que es reprogramable, su utilización por
lo regular es en BIOS de ahí su nombre.
Otros tipos de memoria RAM
BEDO (Burst Extended Data Output): Fue diseñada para alcanzar mayores velocidades de BUS.
Trabaja de igual forma que la SDRAM, ó sea, la transferencia de datos se hace en cada ciclo de
reloj, pero esta memoria lo hace en ráfagas (burst), haciendo que los tiempos de entrega
desaparezcan casi totalmente.
DDR SDRAM (Double Data Rate SDRAM ó SDRAM-II): Esta memoria tendrá el mismo
aspecto que un DIMM, pero la diferencia estará en que tendrá más pines, pasando de 168 pines
del actual DIMM a 184 pines, además de tener sólo una muesca en la tableta. Viendo un poco
de voltaje, la DDR trabajará con tan sólo 2.5V, siendo ésta una reducción del 30% respecto a los
actuales 3.3V de la SDRAM. Trabajará a velocidades de 200Mhz.
VRAM: Es como la memoria RAM normal, pero la diferencia reditúa en que podrá ser accedida
al mismo tiempo por el monitor y el procesador de la tarjeta de video, se podrá leer y escribir en
ella al mismo tiempo.
Materia: Introducción Computacional

SGRAM (Synchronous Graphic RAM): Ofrece las mismas capacidades de la memoria SDRAM
pero para las tarjetas gráficas, se utiliza en las nuevas tarjetas gráficas aceleradoras 3D.

MAINBOARD
El mainboard también conocido como motherboard, placa madre o base es uno de los
componentes básicos por no decir el más relevante en una PC. Su función es vital y gran parte
de la calidad del funcionamiento general está determinada por este componente. Su función es
administrar el cpu e interconectar los distintos periféricos.
Así como el CPU es el cerebro, la placa madre es el sistema nervioso.
Componentes básicos:
Zócalo para Microprocesador
Memoria ROM (BIOS)
Bancos de memoria
Chips de soporte o Chipset: Puente norte y sur, Placas onboard.
Buses internos: de control, de direcciones, de datos
Buses externos: los denominados bancos, zócalos o slots
Conexión con una fuente de alimentación y estándares de fabricación (factor de forma).
Microprocesador:
A partir de la 486 en adelante las placas madre ofrecían una posibilidad más de expansión que
era la de colocar distintas unidades de CPU ofreciendo capacidades de procesamiento
diferentes.
Obviamente existen ciertos límites, es así que es común tener una placa base y que ambas
tengan una CPU de frecuencias bastantes dispares pero siempre conservando las misma
características (socket, FSB) con la única excepción del clock y multiplicador del CPU. El
chipset va a determinar automáticamente el clock y multiplicador del CPU (en algunos casos se
puede hacer en forma manual permitiendo el overclocking).
Una placa base de Pentium 3 no es compatible con un Pentium 2, pero una placa base de
Pentium 3 puede soportar tanto uno de 500 MHz como otro de 800 MHz por ejemplo.
Actualmente por razones de costo alguna placas madre económicas ofrecen los procesadores
ensamblados en la misma placa pero en realidad es el cpu soldado al zócalo de expansión.
Zócalos de CPU posibles:
PGA: son el modelo clásico, usado en el 386 y muchos 486; consiste en un cuadrado de
conectores en forma de agujero donde se insertan las patitas del chip por pura presión. Según el
chip, tiene más o menos agujeritos.
Socket, con mecanismo ZIF (Zero Insertion Force). En ellas el procesador se inserta y se retire
sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se
libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos
aseguran la actualización del microprocesador.
Materia: Introducción Computacional

Hay de diferentes tipos:


Socket 423 y 478. En ellos se insertan los nuevos Pentium 4 de Intel. El primero hace
referencia al modelo de 0,18 micras (Willamete) y el segundo al construido según la tecnología
de 0,13 micras (Northwood). También hay algunos de 478 con núcleo Willamete.
Socket 462/Socket A. Ambos son el mismo tipo.
Se trata donde se insertan los procesadores.
Athlon en sus versiones más nuevas:
Athlon Duron

Athlon Thunderbird

Athlon XP

Athlon MP

Socket 370 o PPGA.


Es el zócalo que utilizan los últimos modelos del Pentium III y Celeron de Intel.

Socket 8: Utilizado por los procesadores Pentium Pro.

Socket 7: Lo usan los micros Pentium/Pentium MMX/K6/K6-2 o K6-3 y muchos otros.

Otros socket, como el zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium
Overdrive.

Socket 754: Utilizado por el Athlon 64

Socket 940: AMD Athlon 64 FX

Slot A / Slot 1 /Slot 2: Es donde se conectan respectivamente los procesadores Athlon antiguos
de AMD / los procesadores Pentium II y antiguos Pentium III / los procesadores Xeon de Intel
dedicados a servidores de red. Todos ellos son cada vez más obsoletos. El modo de insertarlos
es a similar a una tarjeta gráfica o de sonido, ayudándonos de dos guías de plástico insertadas en
la placa base.
Memoria ROM:
Los motherboards poseen una pequeña porción de memoria ROM donde se aloja el BIOS
(Basic Input / Output System). Antes eran memorias ROM estándar donde no permitían ser
rescritas, pero actualmente se usan EPROM del tipo flash que permite ser rescrita varias veces
(proceso delicado y lento).
Por medio de este BIOS se definen ciertas características que va a tener el sistema, entre ellas
los clocks que van a tener los diferentes buses y además sería un pequeño sistema operativo
básico. Los Sistemas Operativos se comunican con el sistema a través de la BIOS.
Por diversas razones o por simples errores en la programación, los fabricantes suelen ofrecer
actualizaciones de la BIOS que son rescritas por medio un software.
No existen muchos fabricantes de BIOS, podemos limitarnos casi a 3 que son Ami, Award y
Phoenix.
Materia: Introducción Computacional

Zócalos: ISA (8 bits XT): El bus ISA maneja un bus de direcciones de 20 bits y un bus de datos
de 8 bits. El flujo de datos viaja igual que la XT 4.77Mhz.
ISA (16 bits AT): La extensión AT maneja un bus de direcciones de 24 bits y un bus de datos de
16 bits. Este bus físicamente tiene una parte idéntica y una extensión. El flujo de datos fue
duplicado (8.33 Mhz)
Microchannel®: Permite una ruta de datos de 32 bits, más ancha, y una velocidad de reloj
ligeramente más elevada de 10 Mhz, con una velocidad de transferencia máxima de 20 Mbps
frente a los 8 Mbps del bus ISA. Su inconveniente fue que era patentado. IBM intentó poner
freno a la competencia que fabricaba clones.
EISA: Fue la respuesta de la industria a IBM por su Micro Canal. Pretendía funcionar a 32 bits
manteniendo la compatibilidad con el tipo de bus isa, por lo que funcionaba a 8.33mhz.
MCA y EISA no fueron adoptadas (muy poco) porque aumentaba su costo en más de un 50% y
en el momento que fueron creadas su aumento de rendimiento no resultaba necesario.
VESA Local Bus: Se creó con fines de procesamiento de video, para aumentar su rendimiento.
Su bus de datos es de 32 Bits y funcionaba sincrónicamente con el CPU (de ahí el Local Bus).
Irónicamente su buen rendimiento hizo que no sea adoptado masivamente y perdiera terreno con
el PCI, pues al ser sincrónico, a medida que los CPU aumentaban su velocidad el VLB iba a ser
más caro así como sus placas fabricadas, además de una falta de compatibilidad entre
generaciones de CPU.
PCI: Se lo denominó CPU independiente ya que su velocidad no dependía de la frecuencia del
CPU como el VESA. Soporta 32 ó 64 bits en el bus de datos y de direccionamiento. Puede
funcionar a 33, 66 o inclusive 100 Mhz. Actualmente está funcionando a 32 bits y a 33 mhz por
lo que debería contar todavía de futuro, de toda forma va a ser mejorado antes que se use en 64
bits. Esta arquitectura es capaz de auto-configurar las interrupciones, canales de DMA y puertos
que utilizan los periféricos conectados en este tipo de bus.
AGP: Se creó en base al PCI con el único fin que para las placas de video (Accelarated Graphics
Port). La idea es que no comparta el bus con otros dispositivos y además es más rápido.
Por no tener tráfico y ser más veloz se logra mayor velocidad en las imágenes (especialmente en
gráficos 3D). El AGP es administrado completamente por separado del resto de los bus de
datos. Actualmente hay varias especificaciones distintas (1x, 2x, 4x y 8x) que duplica su
velocidad nominal de transmisión.
Este puerto soporta un modo llamado Fast Writes que la memoria de la placa de video puede ser
escrita directamente sin pasar los datos por la memoria principal.
Buses de reciente aparición o por aparecer:
AMR: Audio/Modem Riser. Es un bus de un único zócalo. Fue creado para que se puedan
fabricar módems o placas de audio (o ambas) en una única placa en forma más económica.
CNR: Communication and Network Riser. Parecido al AMR, soporta Audio, Módem y
Ethernet. Se suele usarlo en chips onboard.
Materia: Introducción Computacional

PCI Express: Es el bus que va a reemplazar al PCI, si bien el PCI soporta mayor ancho y
velocidad de lo que se está usando actualmente prefirieron reemplazarlo. Tiene un diseño para
ser utilizado en todo tipo de PC, sea estación de trabajo, de escritorio, portátil o servidor, no es
únicamente para la PC de escritorio como fue diseñado el PCI.
Como viene acostumbrando la industria, el PCI Express a nivel software es compatible
completamente con el PCI por lo que los sistemas operativos no tendrán problemas en
reconocer este tipo de zócalo y utilizarlo. El cambio es idéntico del ISA-8 hacia ISA-16, se le
agrega un pequeño modulo al zócalo ya existente.
Sus ventajas es que las placas de este tipo de bus pueden ser insertadas y removidas en
funcionamiento, su frecuencia es muy superior al PCI estándar y su costo beneficio es muy bajo.
También existen buses de comunicación entre periféricos externos a la PC, estos buses o puertos
pueden ser USB, paralelo, serial, PS/2 y FireWire entre otros. Si bien estos puertos no son
propios del mainboard (como lo es el PCI), sino que son placas que suelen conectarse al
mismísimo PCI, resultan casi imprescindibles y vienen en la mayoría de los casos ya
incorporados (en placas onboard).
Serial:
Es de 1 BIT. Se utiliza básicamente para el Mouse, módem u algún otro periférico de muy baja
velocidad.
Paralelo:
Es de 8 bits, es frecuente su uso en impresoras y lectores escáner. Soportan varios modos
(Normal, EPP y/o ECP) que básicamente cambia la velocidad de lectura escritura (en realidad la
cantidad de operaciones disminuye por transacción).

PS/2:
Su idea era la de liberar un puerto serial para el Mouse y mejorar otros aspectos como el modo
vi direccional. Actualmente los mainboard tienen 2 puertos PS/2 se utilizan para Mouse y
teclado.
USB:
Universal Serial Bus. Como su nombre lo indica, no fue diseñado para ningún periférico en
específico pudiendo utilizar desde escáner, impresoras, teclados, Mouse, grabadoras de CD y un
sin fin de posibilidades.
FireWire:
Algo similar al USB pero mucho más veloz, su idea es la utilizar discos duros, video-filmadoras
digitales. Este tipo de puerto usa el bus PCI 2.1.
Bancos de memoria:
La forma y tipos de memoria son un capítulo aparte por su complejidad. En los mainboards
podremos encontrar básicamente (pero no únicamente) tres tipos de bancos posibles.
Bancos SIMM: Pueden ser de 30 pines (16 bits) o 72 (32 bits).
Materia: Introducción Computacional

Bancos DIMM: Son de 168 contactos (64 bits).


Bancos RIMM: Son memoria de arquitectura y diseño propietaria de Rambus, se usan en
muchos Pentium 4.
Chipset
Es conjunto de varios chips ensamblados en la placa madre. Se denominan puente norte y
puente sur a los 2 más importantes. El puente sur suele venir acompañado de otros chips que
reemplazan a placas genuinas, a este tipo se los denomina placas onboard.
Estos dos chips son vitales, son parte del sistema elemental de la PC.
Su concepto original es que el puente norte administre la memoria y el puente sur el bus de
datos (zócalos, serial y paralelo), el puente sur se comunica con el CPU por medio del puente
norte. Sus funciones con el tiempo sufrieron algunas modificaciones que iremos viendo.
En la actualidad el puente norte se encarga de administrar la memoria y el puerto AGP. Se
conecta con el CPU por medio de un bus de datos llamado FSB (Front Side Bus).
Este chipset el encargado de mantener la sincronización entre los distintos buses del sistema y el
FSB.
El puente norte se conecta por medio de otro bus de datos (su nombre depende del fabricante)
con el chip denominado puente sur.
El puente sur se va a encargar de administrar básicamente a todo el bus de datos restante. Todo
el tráfico entrante y saliente es administrado por este chip.
Su función es algo básica, simplemente determina que placa hace solicitud del bus (por medio
de una IRQ) e informa al CPU.
No solo están estos 2 únicos chips, también se ofrecen algunos chips adicionales que se
encargan de gestionar otros servicios de la PC, tales como audio, video, controladora IDE,
serial, PS/2, USB, entre otros.
Estos chips, no son más que "placas", a excepción que están montadas sobre la misma tarjeta
madre. Su ventaja es la economía y comodidad de tener todo en una sola unidad. Su desventaja
es el rendimiento que no es comparable a los de una placa genuina. Aunque en la mayoría de los
casos (puertos de periféricos e IDE) no hay diferencias vs. a una placa PCI, en otros como
placas de video la diferencia puede ser gigantesca.
Otro tipo de chipset más económico son los puentes norte y sur juntos. Por ejemplo es el caso
del chip SiS 735 que logró un aumento de rendimiento con respecto a su competencia y un
ahorro en el costo de fabricación.
Materia: Introducción Computacional

Recientemente salió al mercado una arquitectura nueva denominada AMD-x64, corresponde a


AMD siendo el procesador de nombre Athlon 64. Este tipo de procesadores trae incorporado un
administrador de memoria, por lo que el puente norte quede relegado únicamente a administrar
el puerto AGP y de interfase con el puente sur.

Factores de Forma:
Los nuevos requerimientos de alimentación, además de solucionar varios problemas de
cableado interno y de mantener una norma estándar con los gabinetes produjeron algunos
cambios en la forma en que estas placas van a ser fabricadas así como cambiaron sus
respectivos gabinetes.
A los distintos tipos de alimentación y de organización del mainboard se lo denomina Factor de
forma.
Existen varios, tales como Sistemas de plano posterior (LPX), AT de tamaño natural, Baby-AT,
NLX y el más usado actualmente el ATX y sus variantes, mini ATX, flex ATX y algunas
especificas de fabricantes. El ATX está llegando a su fin, pues va a ser reemplazado por una
nueva norma denominada BTX.
ATX
La versión actual del estándar ATX es la 2.1. con alrededor de 10 años de desarrollo, puesta en
práctica y corrección de errores y mejoras han hecho del ATX un formato absolutamente
extendido. Para dar forma a todo el PC lo que se hace es definir un formato de placa base y de
esta dependerá todo el resto de la distribución de componentes.
Cuando hace 10 años se comenzó a trabajar sobre el formato ATX se pensó en mejorar la
situación del procesador, que en el formato Baby AT, quedaba situado entre los slots de
ampliación, para poder dar cabida a tarjetas de expansión de mayores dimensiones, se mejoró
también el conector de corriente simplificándolo y se englobaron todos los conectores
integrados de la placa en la situación que ahora todos conocemos.
Anteriormente la mayoría de los puertos quedaban situados en slots como ocurre ahora en
algunas placas con muchos conectores Firewire o USB. Esta nueva colocación de los conectores
Materia: Introducción Computacional

también dejaba sitio para aumentar el número de slots PCI que por aquel entonces también
estaba ya en funcionamiento.
Por el estándar ATX han pasado diferentes revisiones que han afectado no solo a la forma del
PC sino también a su forma de alimentarse. Por ejemplo, muchos recordarán que con el
lanzamiento del Pentium 4 muchas fuentes de alimentación debieron ser sustituidas por modelos
con conector auxiliar y de 12v para cumplir los estándares de Intel y el tamaño de las cajas
también se vio afectado en longitud para dar cabida a placas base más anchas.
El estándar ATX verá su fin en poco tiempo ya que a principios de año que viene comenzará a
comercializarse un nuevo formato denominado BTX.
Dentro de las especificaciones de ATX encontraremos en la actualidad placas base estándar
ATX, MicroATX y FlexATX. El resto de placas fuera de estas tres grandes ramas son
aplicaciones específicas para entornos específicos.

Si bien puede existir gabinetes de distintos tamaños el ATX define un mínimo y una ubicación
específica de cada componente ensamblado en la placa base.

Gabinete ATX
Micro ATX
MicroATX nace con la intención de reducir el tamaño del PC a la vez que se mantienen el
mayor número de posibilidades de ampliación y de integración del componentes. Se diferencia
básicamente en que el máximo de tarjetas de implicación se reduce a cuatro incluido el AGP.
Flex ATX
Este tipo de placa es lo más reducido que hallaremos dentro de los parámetros marcados por
Intel dentro del estándar ATX. Suele tratarse de placas base muy pensadas en la integración
total de todo lo necesario para conseguir PCs baratos, reducidos y para aplicaciones muy
Materia: Introducción Computacional

especificas como son las de hacer de ordenador de oficina. Normalmente este nivel de
integración hace que opciones como el AGP no se conciban para este tipo de PCs.

SOFTWARE
La palabra software se refiere al equipamiento lógico o soporte lógico de una computadora digital, y
comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea
específica, en contraposición a los componentes físicos del sistema (hardware).

Clasificación del software


Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se
puede clasificar al software en tres grandes tipos:
Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de
los detalles de la computadora en particular que se use, aislándolo especialmente del
procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos
de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al
usuario y programador adecuadas interfaces de alto nivel, herramientas y utilidades de apoyo
que permiten su mantenimiento. Incluye entre otros:

Sistemas operativos
Controladores de dispositivos
Herramientas de diagnóstico
Herramientas de Corrección y Optimización
Servidores
Utilidades

Software de programación: Es el conjunto de herramientas que permiten al programador


desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación,
de una manera práctica. Incluye entre otros:
Editores de texto
Compiladores
Intérpretes
Enlazadores
Depuradores
Materia: Introducción Computacional

Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en


un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos
para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz
gráfica de usuario (GUI).

Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas
específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con
especial énfasis en los negocios. Incluye entre otros:

Aplicaciones para Control de sistemas y automatización industrial


Software educativo
Software empresarial
Bases de datos
Software médico
Software de Cálculo Numérico y simbólico.
Software de Diseño Asistido (CAD)
Software de Control Numérico (CAM)

SISTEMAS OPERATIVOS
El sistema operativo es el programa (o software) más importante de un ordenador.
Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema
operativo. Los sistemas operativos sirven para realizar tareas básicas, tales como
reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de
vista archivos y directorios en el disco, y controlan los dispositivos periféricos tales como
impresoras, escáner.
En sistemas grandes, el sistema operativo tiene incluso mayor responsabilidad y poder, es como
un policía de tráfico, se asegura de que los programas y usuarios que están funcionando al
mismo tiempo no interfieran entre ellos. El sistema operativo también es responsable de la
seguridad, asegurándose de que los usuarios no autorizados no tengan acceso al sistema.
Clasificación de los Sistemas Operativos
Los sistemas operativos pueden ser clasificados de la siguiente forma:
Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo.
Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo.
Multiprocesador: soporta el abrir un mismo programa en más de una CPU.
Multitarea: Permite que varios programas se ejecuten al mismo tiempo.
Multitramo: Permite que diversas partes de un solo programa funcionen al mismo tiempo.
Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos como Dos y
Unix, no funcionan en tiempo real.
EJEMPLOS DE SISTEMAS OPERATIVOS

Familia Macintosh

Mac OS 7
Mac OS 8
Mac OS 9
Mac OS X

Familia UNIX
Materia: Introducción Computacional

AIX
AMIX
GNU/Linux

HISTORIA DE LOS SISTEMAS OPERATIVOS

Los Sistemas Operativos, al igual que el Hardware de los computadores, han sufrido una serie
de cambios revolucionarios llamados generaciones. En el caso del Hardware, las generaciones
han sido marcadas por grandes avances en los componentes utilizados, pasando de válvulas
( primera generación ) a transistores ( segunda generación ), a circuitos integrados ( tercera
generación), a circuitos integrados de gran y muy gran escala (cuarta generación). Cada
generación Sucesiva de hardware ha ido acompañada de reducciones substanciales en los
costos, tamaño, emisión de calor y consumo de energía, y por incrementos notables en
velocidad y capacidad.
Generación Cero (década de 1940)
Los primeros sistemas computacionales no poseían sistemas operativos. Los usuarios tenían
completo acceso al lenguaje de la maquina. Todas las instrucciones eran codificadas a mano.
Primera Generación (década de 1950)
Los sistemas operativos de los años cincuenta fueron diseñados para hacer más fluida la
transición entre trabajos. Antes de que los sistemas fueran diseñados, se perdía un tiempo
considerable entre la terminación de un trabajo y el inicio del siguiente. Este fue el comienzo de
los sistemas de procesamiento por lotes, donde los trabajos se reunían por grupos o lotes.
Cuando el trabajo estaba en ejecución, este tenía control total de la maquina. Al terminar cada
trabajo, el control era devuelto al sistema operativo, el cual limpiaba y leía e iniciaba el trabajo
siguiente.
Al inicio de los 50's esto había mejorado un poco con la introducción de tarjetas perforadas (las
cuales servían para introducir los programas de lenguajes de máquina), puesto que ya no había
necesidad de utilizar los tableros enchufables.
Además el laboratorio de investigación General Motors implementó el primer sistema operativo
para la IBM 701. Los sistemas de los 50's generalmente ejecutaban una sola tarea, y la
transición entre tareas se suavizaba para lograr la máxima utilización del sistema. Esto se
conoce como sistemas de procesamiento por lotes de un sólo flujo, ya que los programas y los
datos eran sometidos en grupos o lotes.
La introducción del transistor a mediados de los 50's cambió la imagen radicalmente.
Se crearon máquinas suficientemente confiables las cuales se instalaban en lugares
especialmente acondicionados, aunque sólo las grandes universidades y las grandes
corporaciones o bien las oficinas del gobiernose podían dar el lujo de tenerlas.
Para poder correr un trabajo (programa), tenían que escribirlo en papel (en Fortran o en lenguaje
ensamblador) y después se perforaría en tarjetas. Enseguida se llevaría la pila de tarjetas al
cuarto de introducción al sistema y la entregaría a uno de los operadores. Cuando la
Materia: Introducción Computacional

computadora terminara el trabajo, un operador se dirigiría a la impresora y desprendería la


salida y la llevaría al cuarto de salida, para que la recogiera el programador.
Segunda Generacion (a mitad de la década de 1960)
La característica de los sistemas operativos fue el desarrollo de los sistemas compartidos con
multiprogramación, y los principios del multiprocesamiento. En los sistemas de
multiprogramación, varios programas de usuario se encuentran al mismo tiempo en el
almacenamiento principal, y el procesador se cambia rápidamente de un trabajo a otro. En los
sistemas de multiprocesamiento se utilizan varios procesadores en un solo sistema
computacional, con la finalidad de incrementar el poder de procesamiento de la maquina.
La independencia de dispositivos aparece después. Un usuario que desea escribir datos en una
cinta en sistemas de la primera generación tenía que hacer referencia específica a una unidad de
cinta particular. En la segunda generación, el programa del usuario especificaba tan solo que un
archivo iba a ser escrito en una unidad de cinta con cierto número de pistas y cierta densidad.
Se desarrollo sistemas compartidos, en la que los usuarios podían acoplarse directamente con el
computadora través de terminales. Surgieron sistemas de tiempo real, en que los computadores
fueron utilizados en el control de procesos industriales. Los sistemas de tiempo real se
caracterizan por proveer una respuesta inmediata.
Tercera Generación (mitad de década 1960 a mitad década de 1970)
Se inicia en 1964, con la introducción de la familia de computadores Sistema/360 de IBM. Los
computadores de esta generación fueron diseñados como sistemas para usos generales . Casi
siempre eran sistemas grandes, voluminosos, con el propósito de serlo todo para toda la gente.
Eran sistemas de modos múltiples, algunos de ellos soportaban simultáneamente procesospor
lotes, tiempo compartido, procesamiento de tiempo real y multiprocesamiento. Eran grandes y
costosos, nunca antes se había construido algo similar, y muchos de los esfuerzos de desarrollo
terminaron muy por arriba del presupuestoy mucho después de lo que el planificador marcaba
como fecha de terminación.
Estos sistemas introdujeron mayor complejidad a los ambientes computacionales; una
complejidad a la cual, en un principio, no estaban acostumbrados los usuarios.
Cuarta Generación (mitad de década de 1970 en adelante)
Los sistemas de la cuarta generación constituyen el estado actual de la tecnología. Muchos
diseñadores y usuarios se sienten aun incómodos, después de sus experiencias con los sistemas
operativos de la tercera generación.
Con la ampliación del uso de redes de computadores y del procesamiento en línea los usuarios
obtienen acceso a computadores alejados geográficamente a través de varios tipos de terminales.
Los sistemas de seguridad se ha incrementado mucho ahora que la información pasa a través de
varios tipos vulnerables de líneas de comunicación. La clave de cifrado esta recibiendo mucha
atención; han sido necesario codificar los datos personales o de gran intimidad para que; aun si
los datos son expuestos, no sean de utilidad a nadie mas que a los receptores adecuados.
El porcentaje de la población que tiene acceso a un computador en la década de los ochenta es
mucho mayor que nunca y aumenta rápidamente.
El concepto de maquinas virtuales es utilizado. El usuario ya no se encuentra interesado en los
detalles físicos de; sistema de computación que esta siendo accedida. En su lugar, el usuario ve
un panorama llamado maquina virtual creado por el sistema operativo.
Materia: Introducción Computacional

Los sistemas de bases de datos han adquirido gran importancia. Nuestro mundo es una sociedad
orientada hacia la información, y el trabajo de las bases de datos es hacer que esta información
sea conveniente accesible de una manera controlada para aquellos que tienen derechos de
acceso.

HISTORIA DE WINDOWS

Windows 1.0
En 1985 Microsoft publicó la primera versión de Windows, una interfaz gráfica de usuario
(GUI) para su propio sistema operativo (MS-DOS) que había sido incluido en el IBM PC y
ordenadores compatibles desde 1981.
La primera versión de Microsoft Windows Premium nunca fue demasiado potente ni tampoco
se hizo popular. Estaba severamente limitada debido a los recursos legales de Apple, que no
permitía imitaciones de sus interfaces de usuario. Por ejemplo, las ventanas sólo podían
disponerse en mosaico sobre la pantalla; esto es, nunca podían solaparse u ocultarse unas a
otras. Tampoco había "papelera de reciclaje" debido a que Apple creía que ellos tenían la
patente de este paradigma o concepto. Ambas limitaciones fueron eliminadas cuando el recurso
de Apple fue rechazado en los tribunales. Por otro lado, los programas incluidos en la primera
versión eran aplicaciones "de juguete" con poco atractivo para los usuarios profesionales.
Windows 2.0
Apareció en 1987, y fue un poco más popular que la versión inicial. Gran parte de esta
popularidad la obtuvo de la inclusión en forma de versión "run-time" de nuevas aplicaciones
gráficas de Microsoft, Microsoft Excel y Microsoft Word para Windows. Éstas podían cargarse
desde MS-DOS, ejecutando Windows a la vez que el programa, y cerrando Windows al salir de
ellas. Windows 2 todavía usaba el modelo de memoria 8088 y por ello estaba limitado a 1
megabyte de memoria; sin embargo, mucha gente consiguió hacerlo funcionar bajo sistemas
multitareas como DesqView.
Windows 3.0
La primera versión realmente popular de Windows fue la versión 3.0, publicada en 1990. Ésta
se benefició de las mejoradas capacidades gráficas para PC de esta época, y también del
microprocesador 80386, que permitía mejoras en las capacidades multitarea de las aplicaciones
Windows. Esto permitiría ejecutar en modo multitarea viejas aplicaciones basadas en MS-DOS.
Windows 3 convirtió al IBM PC en un serio competidor para el Apple Macintosh.
OS/2
OS/2 es un sistema operativo de IBM que intentó suceder a DOS como sistema operativo de los
PC. Se desarrolló inicialmente de manera conjunta entre Microsoft e IBM, hasta que la primera
decidió seguir su camino con su Windows 3.0 e IBM se ocupó en solitario de OS/2.

OS/2.1
Durante la segunda mitad de los 80, Microsoft e IBM habían estado desarrollando
conjuntamente OS/2 como sucesor del DOS, para sacar el máximo provecho a las capacidades
del procesador Intel 80286. OS/2 utilizaba el direccionamiento hardware de memoria disponible
en el Intel 80286 para poder utilizar hasta 16 MB de memoria. La mayoría de los programas de
DOS estaban por el contrario limitados a 640 KB de memoria. OS/2 1.x también soportaba
memoria virtual y multitarea.
Más adelante IBM añadió, en la versión 1.1 de OS/2, un sistema gráfico llamado Presentation
Manager (PM). Aunque en muchos aspectos era superior a Windows, su API (Programa de
Materia: Introducción Computacional

Interfaz de Aplicaciones) era incompatible con la que usaban los programas de este último.
(Entre otras cosas, Presentation Manager localizaba el eje de coordenadas X, Y en la parte
inferior izquierda de la pantalla como las coordenadas cartesianas, mientras que Windows
situaba el punto 0,0 en la esquina superior izquierda de la pantalla como otros sistemas
informáticos basados en ventanas).
A principio de los 90, crecieron las tensiones en la relación entre IBM y Microsoft. Cooperaban
entre sí en el desarrollo de sus sistemas operativos para PC y cada uno tenía acceso al código
del otro. Microsoft quería desarrollar Windows aún más, mientras IBM deseaba que el futuro
trabajo estuviera basado en OS/2. En un intento de resolver estas diferencias, IBM y Microsoft
acordaron que IBM desarrollaría OS/2 2.0 para reemplazar a OS/2 1.3 y Windows 3.0, mientras
Microsoft desarrollaría un nuevo sistema operativo, OS/2 3.0, para suceder más adelante al
OS/2 2.0.
Este acuerdo pronto fue dejado de lado y la relación entre IBM y Microsoft terminó. IBM
continuó desarrollando IBM OS/2 2.0 mientras que Microsoft cambió el nombre de su (todavía
no publicado) OS/2 3.0 a Windows NT.
(Microsoft promocionó Windows NT con tanto éxito que la mayoría de la gente no se dio
cuenta de que se trataba de un OS/2 remozado.) Ambos retuvieron los derechos para usar la
tecnología de OS/2 y Windows desarrollada hasta la fecha de terminación del acuerdo.

OS/2 2.0
IBM publicó OS/2 versión 2.0 en 1992. Esta versión suponía un gran avance frente a OS/2 1.3.
Incorporaba un nuevo sistema de ventanas orientado a objetos llamado Workplace Shell como
sustituto del Presentation Manager, un nuevo sistema de ficheros, HPFS, para reemplazar al
sistema de ficheros FAT de DOS usado también en Windows y aprovechaba todas las ventajas
de las capacidades de 32 bit del procesador Intel 80386. También podía ejecutar programas
DOS y Windows, ya que IBM había retenido los derechos para usar el código de DOS y
Windows como resultado de la ruptura.

OS/2 3.0 y 4.0


IBM continuó vendiendo OS/2, produciendo versiones posteriores como OS/2 3.0 (también
llamado Warp) y 4.0 (Merlin). Pero con la llegada de Windows 95, OS/2 comenzó a perder
cuota de mercado. Aunque OS/2 seguía corriendo aplicaciones de Windows 3.0, carecía de
soporte para las nuevas aplicaciones que requerían Windows 95. Al contrario que con Windows
3.0, IBM no tenía acceso al código fuente de Windows 95; y tampoco tenía el tiempo ni los
recursos necesarios para emular el trabajo de los programadores de Microsoft con Windows 95;
no obstante, OS/2 3.0 (Warp) apareció en el mercado antes que Windows 95 (que se retrasaba
respecto a la fecha inicial de lanzamiento); como mejoras incorporaba una reducción en los
requisitos de hardware (pasaba de pedir 8 Mb de memoria RAM de su antedecesor OS/2 2.1 a
pedir sólo 4 Mb), y como gran añadido, incorporaba el llamado BonusPack, un conjunto de
aplicaciones de oficina, comunicaciones, etc que ahorraban el tener que comprar software
adicional como en el caso de Windows. Todo esto unido a una gran campaña publicitaria y a un
muy reducido precio (el equivalente a unos 59.40 € frente a los 100 € de Windows) provocaron
que mucha gente se animase a probarlo en lugar de esperar la llegada de Windows 95.
Lamentablemente, el posterior abandono por parte de IBM hizo que fuese quedando relegado
(aunque sigue siendo utilizado -cada vez menos- en sectores bancarios por su alta estabilidad).
Windows 3.1 y Windows 3.11

En respuesta a la aparición de OS/2 2.0 , Microsoft desarrolló Windows 3.1, que incluía
diversas pequeñas mejoras a Windows 3.0 (como las fuentes escalables TrueType), pero que
consistía principalmente en soporte multimedia. Más tarde Microsoft publicó el Windows 3.11
(denominado Windows para trabajo en grupo), que incluía controladores y protocolos
mejorados para las comunicaciones en red y soporte para redes punto a punto.
Materia: Introducción Computacional

Windows NT
Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave
Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de
Compaq, que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo.
Cutler había estado desarrollando un sucesor del VMS en DEC (Digital Equipment
Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y
algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a
Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó
dar soporte al microprocesador Alpha de DEC en NT.
Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de
compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de
recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto
muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba
basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2

Windows NT 3.1
Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una
continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la
Conferencia de Desarrolladores Profesionales de julio de 1992 en San Francisco. Microsoft
anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago
(que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y
su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que
Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición
de Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y
requerían unos elevados recursos de hardware (además de soportar relativamente poco
hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo
a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS.

Windows NT 3.5/3.51
Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la
de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por
otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell
Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva
interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT
3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico,
que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a
Windows NT 3.5x la nueva interfaz gráfica.

Windows NT 4.0
Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para
diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como
Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias
necesidades. El uso de componentes como tarjetas de sonido, módems, etc, tenían que ser
diseñados específicamente para este sistema operativo.
Windows 95
Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado
en agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que
compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con
MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea
preemptive, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago
comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16
Materia: Introducción Computacional

bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación
de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue
denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como
Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, otra para Chicago y
otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con
Windows 3.1.; de este modo Microsoft intentó asegurar algún grado de compatibilidad entre
Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes
Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz
todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un
solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima).
Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a
procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran
el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más
a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones
podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de
aplicaciones de Win16.
Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se
convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y
la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y
Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a
volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con
algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto.
Más adelante fue lanzada una versión con compatibilidad para USB (1.0) que permitía
ejecutarse en computadores (ordenadores) con pocas prestaciones en Hardware. Esta versión
salió al mercado en octubre de 1998
Windows 98
El 25 de junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el
sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que
soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a
las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración
del explorador de Internet en todos los ámbitos del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido
modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa.
Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98, aunque
éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción
de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi
idénticos controladores.
Windows 98 Second Edition (SE)
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998,
cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable
era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola
línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer
en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando
en muchos equipos, mejorando en sí dos cosas importantes:
1) El grave error de solicitud de licencia que simplemente se puede dejar pasar por alto en la
instalación cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de
disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema
operativo
Materia: Introducción Computacional

2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor


administración de memoria virtual, reduciendo así los famosos mensajes de error en pantalla
azul.

Windows Millenium Edition (ME)


En 2000 Microsoft introdujo Windows ME, que era una copia de Windows 98 con más
aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco
entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta
versión. En teoría, Windows 2000 iba a ser la unificación entre las dos familias de Windows, la
empresarial y la de hogar, pero por retrasos se lanzó este pequeño avance. En esta versión se
aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el
entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en
versiones anteriores).
Esta versión no traía unidad de proceso de 16 bits y se centró únicamente en la compatibilidad
con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los
equipos nuevos que lo tenían instalado, ya que si se instalaba sobre un equipo antiguo (mediante
una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no
funcionaba en absoluto.
Cabe destacar que este sistema operativo fue muy poco popular por sus continuos errores y
muchas desventajas de uso. Estos inconvenientes hicieron que, salvo en contadas ocasiones, sus
usuarios retornaran rápidamente al uso de Windows 98, o bien que dieran el salto a Windows
2000.

Windows 2000
En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para
los administradores de sistemas y con una gran cantidad de servicios de red y lo más
importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT.
La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las
estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000
Server, Advanced Server, Datacenter Server).
Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft,
tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que
posee son:
Almacenamiento:
Soporte para FAT16, FAT32 y NTFS.
Cifrado de ficheros (EFS).
Servicio de indexación.
Sistema de archivos distribuido (DFS).
Nuevo sistema de backup (ASR).
Sistema de tolerancia a fallos (RAID) con discos dinámicos (software).
Comunicaciones:
Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento).
Nueva versión de IIS con soporte para HTTP/1.1.
Active Directory.
Balanceo de carga (clustering)
Servicios de instalación desatendida por red (RIS).
Servicios nativos de Terminal Server.
Estos avances marcan un antes y un después en la historia de Microsoft.

Windows XP (Experience)
Materia: Introducción Computacional

La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP


puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de
Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia.
Además dispone de otras novedades como la multitarea mejorada, soporte para redes
inalámbricas y asistencia remota. Se puede agregar que inmediatamente después de haber
lanzado el último Service Pack (SP2), Microsoft diseñó un sistema orientado a empresas y
corporaciones, llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP
Profesional, solo que diseñado especialmente para empresas. En el apartado multimedia, XP da
un avance con la versión Media Center(2002-2005). Esta versión ofrece una interfaz de acceso
fácil con todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...).
Windows Server 2003
Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de
Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de
Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de
sus características (para mejorar el rendimiento, o simplemente porque no serán usadas).
Windows Vista
Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos
retrasos en las fechas de entrega del sistema operativo. Inicialmente se anunció su salida al
mercado a inicios-mediados de 2006; posteriormente y debido a problemas durante el proceso
de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso trasladó la fecha hasta
finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas
medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina,
se podrá comprar Windows Vista con un "ticket" que la persona adquiere al momento de
comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrán canjear el "ticket"
por una copia original de Windows Vista y así actualizar su sistema. También cabe destacar que
Windows Vista trae una nueva interfaz gráfica llamada Aero, que es una evolución de la
interfaz gráfica denominada Luna de Windows XP.
Este sistema operativo, como el Windows ME, ha sido criticado por su falta de compatibilidad,
entre otras cosas, haciendo que la mayoría de los usuarios regresen a su antecesor Windows XP
o que migren a Mac OS X o GNU/Linux.
Windows Server 2008
Al igual que su sucesor, Windows Server 2003 se basaba en la última versión del SO doméstica
publicada. Éste se basa en Windows Vista en cuanto a su interfaz Aero, mucho más amigable y
sencilla, y en Windows Server 2003 SP2
Materia: Introducción Computacional

REDES
¿Qué es una red?

Una red informática está formada por un conjunto de ordenadores intercomunicados entre sí que
utilizan distintas tecnologías de hardware/software. Las tecnologías que utilizan (tipos de
cables, de tarjetas, dispositivos...) y los programas (protocolos) varían según la dimensión y
función de la propia red. De hecho, una red puede estar formada por sólo dos ordenadores,
aunque también por un número casi infinito; muy a menudo, algunas redes se conectan entre sí
creando, por ejemplo, un conjunto de múltiples redes interconectadas, es decir, lo que
conocemos por Internet

Historia de la Red
En realidad, la historia de la red se puede remontar al principio del siglo XIX. El primer intento
de establecer una red amplia estable de comunicaciones, que abarcara al menos un territorio
nacional, se produjo en Suecia y Francia a principios del siglo XIX. Estos primeros sistemas se
denominaban de telégrafo óptico y consistian en torres, similares a los molinos, con una serie de
brazos o bien persianas. Estos brazos o persianas codificaban la información por sus distintas
posiciones. Estas redes permanecieron hasta mediados del siglo XIX, cuando fueron sustituidas
por el telégrafo. Cada torre, evidentemente, debia de estar a distancia visual de las siguientes;
cada torre repetía la información hasta llegar a su destino. Un sistema similar aparece, y tiene un
protagonismo especial, en la novela Pavana, de Keith Roberts, una ucronía en la cual Inglaterra
ha sido conquistada por la Armada Invencible.
Estos telégrafos ópticos fueron pioneros de algunas técnicas que luego se utilizaron en
transmisiones digitales y analógicas: recuperación de errores, compresión de información y
encriptación, por ejemplo. Se ha calculado que la velocidad efectiva de estos artilugios sería
unos 0.5 bits por segundo, es decir, aproximadamente unos 20 caracteres por minuto.
Supongo que los métodos de señales de humo utilizados por los indios también se podrían
considerar algo así, con la diferencia de que no consistían en un establecimiento permanente, y
que además no funcionaba a nivel nacional.
Posteriormente, la red telegráfica y la red telefónica fueron los principales medios de
transmisión de datos a nivel mundial.
Alexander Graham Bell fue el descubridor del teléfono. En realidad, él hubiera querido que
fuera algo así como una ``radio por cable'', de forma que una central sirviera a los interesados
informaciones habladas a cierta hora del dia, por ejemplo. Evidentemente, pronto se descubrió
que era mucho mejor para la comunicación interpersonal, aunque en Hungría estuvo
funcionando durante cierto tiempo un servicio como el indicado, denominado Telefon Hirmond,
que era una fuente centralizada de noticias, entretenimiento y cultura. A ciertas horas del día,
sonaba el teléfono, se enchufaba un altavoz, y se empezaba a oír, por ejemplo, la saga de los
porretas (en húngaro, claro está).
La primera red telefónica se estableció en los alrededores de Boston, y su primer éxito fue
cuando, tras un choque de trenes, se utilizó el teléfono para llamar a algunos doctores de los
alrededores, que llegaron inmediatamente.
Materia: Introducción Computacional

Los primeros intentos de transmitir información digital se remontan a principios de los 60, con
los sistemas de tiempo compartido ofrecidos por empresas como General Electric y Tymeshare.
Estas redes solamente ofrecían una conexión de tipo cliente-servidor, es decir, el ordenador-
cliente estaba conectado a un solo ordenador-servidor; los ordenadores-clientes a su vez no se
conectaban entre sí.
Pero la verdadera historia de la red comienza en los 60 con el establecimiento de las redes de
conmutación de paquetes. Conmutación de paquetes es un método de fragmentar mensajes en
partes llamadas paquetes, encaminarlos hacia su destino, y ensamblarlos una vez llegados alli.
La conmutación de paquetes se contrapone a la conmutación de circuitos, el método de telefonía
más habitual, donde se establece un circuito físico entre los hablantes. Inicialmente se hacía
mediante interruptores físicos, y hoy en día se hace la mayoría de los casos mediante
interruptores digitales.
El transmitir la información en paquetes tiene bastantes ventajas:
Permite que varios usuarios compartan la misma conexión.
Sólo hace falta reenviar los paquetes que se hayan corrompido, y no toda la información desde
el principio.
Los paquetes pueden llevar información de encaminado: por donde han pasado, de donde
vienen y hacia donde van.
Ademas, dado que se trata de información digital, se puede comprimir o encriptar.
La primera red experimental de conmutación de paquetes se usó en el Reino Unido, en los
National Physics Laboratories; otro experimento similar lo llevó a cabo en Francia la Societè
Internationale de Telecommunications Aeronautiques. Hasta el año 69 esta tecnología no llego a
los USA, donde comenzó a utilizarla el ARPA, o agencia de proyectos avanzados de
investigación para la defensa.
Esta agencia estaba evidentemente interesada en esta tecnología desde el punto de vista de la
defensa nacional. Se trataba de crear un sistema de comunicaciones donde no hubiera ningun
punto central de mando y control, sino que, aunque cualquier punto de la red fuera destruido,
podría ser restituida la comunicación encaminándola por otra ruta. La corporación Rand
aconsejo la creación de tal tipo de red en un informe de 1962.
El ancestro de la InterNet , pues, fue creado por la ARPA y se denominó ARPANET. El plan
inicial se distribuyó en 1967. Los dispositivos necesarios para conectar ordenadores entre si se
llamaron IMP (lo cual, entre otras cosas, significa ``duende'' o ``trasgo''), es decir, Information
Message Processor, y eran un potente miniordenador fabricado por Honeywell con 12 Ks de
memoria principal. El primero se instaló en la UCLA, y posteriormente se instalaron otros en
Santa Barbara, Stanford y Utah. Curiosamente, estos nodos iniciales de la InterNet todavía
siguen activos, aunque sus nombres han cambiado. Los demás nodos que se fueron añadiendo a
la red correspondían principalmente a empresas y universidades que trabajaban con contratos de
Defensa.
Pero InterNet viene de interconexión de redes, y el origen real de la InterNet se situa en 1972,
cuando, en una conferencia internacional, representantes de Francia, Reino Unido, Canada,
Noruega, Japón, Suecia discutieron la necesidad de empezar a ponerse de acuerdo sobre
protocolos, es decir, sobre la forma de enviar información por la red, de forma que todo el
mundo la entendiera.
Un esfuerzo similar había sido llevado a cabo por la CCITT, o Comité Consultivo Internacional
sobre Telefonía y Telegrafía, que fue capaz de poner de acuerdo a todos los países para que cada
uno tuviera un prefijo telefónico, se repartieran los costes de las llamadas entre diferentes
compañías nacionales, y básicamente, cualquier usuario en el mundo pudiera descolgar el
auricular y marcar un número y llamar a su tía en Pernambuco.
Materia: Introducción Computacional

Se trató entonces de conectar esas redes muy diversas a través de pórticos o gateways, que
tradujeran la información del formato comprensible por una red al formato comprensible por
otras redes.
Estos protocolos se referían principalmente a como tenía que estar codificada la información y
cómo se envolvía en los paquetes. Hay muchas maneras posibles de codificar la información
(aunque actualmente se esté llegando a una serie de estándares, por ejemplo, el texto suele estar
codificado utilizando el código ASCII ), y muchas más maneras posibles de indicar errores entre
dos nodos de la red, de incluir en el paquete información sobre rutado, etc. El formato y la
forma de esta información es lo que se denomina protocolo.
Más adelante, de la ARPANET se disgregó la MILNET, red puramente militar, aunque tiene
pórticos que la unen a la InterNet . ARPANET se convirtió en la columna vertebral de la red,
por donde tarde o temprano pasaban todos los mensajes que van por la red.
España fue, paradójicamente, uno de los primeros países de Europa que instaló una red de
conmutación de paquetes, la IBERPAC, que todavía está en servicio. Esta red la utilizan
principalmente empresas con múltiples sucursales, como los bancos, oficinas del gobierno, y,
evidentemente, como soporte para la rama de Internet en España. España se conectó por primera
vez a la Internet en 1985
Tipos de Red
Existen varios tipos de redes, los cuales se clasifican de acuerdo a su tamaño y distribución
lógica.
Clasificación según su tamaño
Las redes PAN (red de administración personal) son redes pequeñas, las cuales están
conformadas por no más de 8 equipos, por ejemplo: café Internet.
CAN: Campus Area Network, Red de Area Campus. Una CAN es una colección de LANs
dispersadas geográficamente dentro de un campus (universitario, oficinas de gobierno, maquilas
o industrias) pertenecientes a una misma entidad en una área delimitada en kilometros. Una
CAN utiliza comúnmente tecnologías tales como FDDI y Gigabit Ethernet para conectividad a
través de medios de comunicación tales como fibra óptica y espectro disperso.
Las redes LAN (Local Area Network, redes de área local) son las redes que todos conocemos,
es decir, aquellas que se utilizan en nuestra empresa. Son redes pequeñas, entendiendo como
pequeñas las redes de una oficina, de un edificio. Debido a sus limitadas dimensiones, son redes
muy rápidas en las cuales cada estación se puede comunicar con el resto. Están restringidas en
tamaño, lo cual significa que el tiempo de transmisión, en el peor de los casos, se conoce.
Además, simplifica la administración de la red.
Suelen emplear tecnología de difusión mediante un cable sencillo (coaxial o UTP) al que están
conectadas todas las máquinas. Operan a velocidades entre 10 y 100 Mbps.

Características preponderantes:
Los canales son propios de los usuarios o empresas.
Los enlaces son líneas de alta velocidad.
Las estaciones están cercas entre sí.
Incrementan la eficiencia y productividad de los trabajos de oficinas al poder compartir
información.
Las tasas de error son menores que en las redes WAN.
Materia: Introducción Computacional

La arquitectura permite compartir recursos.


LAN mucha veces usa una tecnología de transmisión, dada por un simple cable, donde todas las
computadoras están conectadas. Existen varias topologías posibles en la comunicación sobre
LANs, las cuales se verán mas adelante.
Las redes WAN (Wide Area Network, redes de área extensa) son redes punto a punto que
interconectan países y continentes. Al tener que recorrer una gran distancia sus velocidades son
menores que en las LAN aunque son capaces de transportar una mayor cantidad de datos. El
alcance es una gran área geográfica, como por ejemplo: una ciudad o un continente. Está
formada por una vasta cantidad de computadoras interconectadas (llamadas hosts), por medio de
subredes de comunicación o subredes pequeñas, con el fin de ejecutar aplicaciones, programas,
etc.
Una red de área extensa WAN es un sistema de interconexión de equipos informáticos
geográficamente dispersos, incluso en continentes distintos. Las líneas utilizadas para realizar
esta interconexión suelen ser parte de las redes públicas de transmisión de datos.
Las redes LAN comúnmente, se conectan a redes WAN, con el objetivo de tener acceso a
mejores servicios, como por ejemplo a Internet. Las redes WAN son mucho más complejas,
porque deben enrutar correctamente toda la información proveniente de las redes conectadas a
ésta.
Una subred está formada por dos componentes:
Líneas de transmisión: quienes son las encargadas de llevar los bits entre los hosts.
Elementos interruptores (routers): son computadoras especializadas usadas por dos o más líneas
de transmisión. Para que un paquete llegue de un router a otro, generalmente debe pasar por
routers intermedios, cada uno de estos lo recibe por una línea de entrada, lo almacena y cuando
una línea de salida está libre, lo retransmite.
INTERNET WORKS: Es una colección de redes interconectadas, cada una de ellas puede estar
desallorrada sobre diferentes software y hardware. Una forma típica de Internet Works es un
grupo de redes LANs conectadas con WANs. Si una subred le sumamos los host obtenemos una
red.
El conjunto de redes mundiales es lo que conocemos como Internet.
Las redes MAN (Metropolitan Area Network, redes de área metropolitana) , comprenden una
ubicación geográfica determinada "ciudad, municipio", y su distancia de cobertura es mayor de
4 Kmts.
Son redes con dos buses unidireccionales, cada uno de ellos es independiente del otro en cuanto
a la transferencia de datos.
Es básicamente una gran versión de LAN y usa una tecnología similar. Puede cubrir un grupo
de oficinas de una misma corporación o ciudad, esta puede ser pública o privada. El mecanismo
para la resolución de conflictos en la transmisión de datos que usan las MANs, es DQDB.
DQDB consiste en dos buses unidireccionales, en los cuales todas las estaciones están
conectadas, cada bus tiene una cabecera y un fin. Cuando una computadora quiere transmitir a
otra, si esta está ubicada a la izquierda usa el bus de arriba, caso contrario el de abajo.
Redes Punto a Punto. En una red punto a punto cada computadora puede actuar como cliente y
como servidor. Las redes punto a punto hacen que el compartir datos y periféricos sea fácil para
Materia: Introducción Computacional

un pequeño grupo de gente. En una ambiente punto a punto, la seguridad es difícil, porque la
administración no está centralizada.
Redes Basadas en servidor. Las redes basadas en servidor son mejores para compartir gran
cantidad de recursos y datos. Un administrador supervisa la operación de la red, y vela que la
seguridad sea mantenida. Este tipo de red puede tener uno o mas servidores, dependiendo del
volumen de tráfico, número de periféricos etc. Por ejemplo, puede haber un servidor de
impresión, un servidor de comunicaciones, y un servidor de base de datos, todos en una misma
red.
Clasificación según su distribución lógica
Todos los ordenadores tienen un lado cliente y otro servidor: una máquina puede ser servidora
de un determinado servicio pero cliente de otro servicio.
Servidor.
Máquina que ofrece información o servicios al resto de los puestos de la red. La clase de
información o servicios que ofrezca determina el tipo de servidor que es: servidor de impresión,
de archivos, de páginas web, de correo, de usuarios, de IRC (charlas en Internet), de base de
datos.
Cliente.
Máquina que accede a la información de los servidores o utiliza sus servicios. Ejemplos: Cada
vez que estamos viendo una página web (almacenada en un servidor remoto) nos estamos
comportando como clientes. También seremos clientes si utilizamos el servicio de impresión de
un ordenador remoto en la red (el servidor que tiene la impresora conectada).
Todas estas redes deben de cumplir con las siguientes características:
Confiabilidad transportar datos.
Transportabilidad dispositivos.
Gran procesamiento de información.
De acuerdo estas, tienen diferentes usos, dependiendo de la necesidad del usuario, como son:
Compañías - centralizar datos.
Compartir recursos periféricos, archivos.
Confiabilidad transporte de datos.
Aumentar la disponibilidad de la información.
Comunicación entre personal de las mismas áreas.
Ahorro de dinero.
Home Banking.
Aportes a la investigación vídeo demanda, line T.V, Game Interactive.

Elementos de una red


Una red de computadoras consta tanto de hardware como de software. En el hardware se
incluyen: estaciones de trabajo, servidores, tarjeta de interfaz de red, cableado y equipo de
conectividad. En el software se encuentra el sistema operativo de red (Network Operating
System, NOS).

Estaciones de trabajo
Cada computadora conectada a la red conserva la capacidad de funcionar de manera
independiente, realizando sus propios procesos. Asimismo, las computadoras se convierten en
estaciones de trabajo en red, con acceso a la información y recursos contenidos en el servidor de
archivos de la misma. Una estación de trabajo no comparte sus propios recursos con otras
computadoras. Esta puede ser desde una PC XT hasta una Pentium, equipada según las
Materia: Introducción Computacional

necesidades del usuario; o también de otra arquitectura diferente como Macintosh, Silicon
Graphics, Sun, etc.

Servidores
Son aquellas computadoras capaces de compartir sus recursos con otras. Los recursos
compartidos pueden incluir impresoras, unidades de disco, CD-ROM, directorios en disco duro
e incluso archivos individuales. Los tipos de servidores obtienen el nombre dependiendo del
recurso que comparten. Algunos de ellos son: servidor de discos, servidor de archivos, servidor
de archivos distribuido, servidores de archivos dedicados y no dedicados, servidor de
terminales, servidor de impresoras, servidor de discos compactos, servidor web y servidor de
correo.

Tarjeta de Interfaz de Red


Para comunicarse con el resto de la red, cada computadora debe tener instalada una tarjeta de
interfaz de red (Network Interface Card, NIC). Se les llama también adaptadores de red o sólo
tarjetas de red. En la mayoría de los casos, la tarjeta se adapta en la ranura de expansión de la
computadora, aunque algunas son unidades externas que se conectan a ésta a través de un puerto
serial o paralelo. Las tarjetas internas casi siempre se utilizan para las PC's, PS/2 y estaciones de
trabajo como las SUN's. Las tarjetas de interfaz también pueden utilizarse en minicomputadoras
y mainframes. A menudo se usan cajas externas para Mac's y para algunas computadoras
portátiles.
La tarjeta de interfaz obtiene la información de la PC, la convierte al formato adecuado y la
envía a través del cable a otra tarjeta de interfaz de la red local. Esta tarjeta recibe la
información, la traduce para que la PC pueda entender y la envía a la PC. Son ocho las
funciones de la NIC:
Comunicaciones de host a tarjeta
Buffering
Formación de paquetes
Conversión serial a paralelo
Codificación y decodificacián
Acceso al cable
Saludo
Transmisión y recepción
Estos pasos hacen que los datos de la memoria de una computadora pasen a la memoria de otra.
Cableado
La LAN debe tener un sistema de cableado que conecte las estaciones de trabajo individuales
con los servidores de archivos y otros periféricos. Si sólo hubiera un tipo de cableado
disponible, la decisión sería sencilla. Lo cierto es que hay muchos tipos de cableado, cada uno
con sus propios defensores y como existe una gran variedad en cuanto al costo y capacidad, la
selección no debe ser un asunto trivial.
Cable de par trenzado: Es con mucho, el tipo menos caro y más común de medio de red.
Cable coaxial: Es tan fácil de instalar y mantener como el cable de par trenzado, y es el medio
que se prefiere para las LAN grandes.
Cable de fibra óptica: Tiene mayor velocidad de transmisión que los anteriores, es inmune a la
interferencia de frecuencias de radio y capaz de enviar señales a distancias considerables sin
perder su fuerza. Tiene un costo mayor.

Equipo de conectividad
Por lo general, para redes pequeñas, la longitud del cable no es limitante para su desempeño;
pero si la red crece, tal vez llegue a necesitarse una mayor extensión de la longitud de cable o
exceder la cantidad de nodos especificada. Existen varios dispositivos que extienden la longitud
Materia: Introducción Computacional

de la red, donde cada uno tiene un propósito específico. Sin embargo, muchos dispositivos
incorporan las características de otro tipo de dispositivo para aumentar la flexibilidad y el valor.
Hubs o concentradores: Son un punto central de conexión para nodos de red que están
dispuestos de acuerdo a una topología física de estrella.
Repetidores: Un repetidor es un dispositivo que permite extender la longitud de la red; amplifica
y retransmite la señal de red.
Puentes: Un puente es un dispositivo que conecta dos LAN separadas para crear lo que aparenta
ser una sola LAN.
Ruteadores: Los ruteadores son similares a los puentes, sólo que operan a un nivel diferente.
Requieren por lo general que cada red tenga el mismo sistema operativo de red, para poder
conectar redes basadas en topologías lógicas completamente diferentes como Ethernet y Token
Ring.
Compuertas: Una compuerta permite que los nodos de una red se comuniquen con tipos
diferentes de red o con otros dispositivos. Podr´a tenerse, por ejemplo, una LAN que consista en
computadoras compatibles con IBM y otra con Macintosh.

Sistema operativo de red


Después de cumplir todos los requerimientos de hardware para instalar una LAN, se necesita
instalar un sistema operativo de red (Network Operating System, NOS), que administre y
coordine todas las operaciones de dicha red. Los sistemas operativos de red tienen una gran
variedad de formas y tamaños, debido a que cada organización que los emplea tiene diferentes
necesidades. Algunos sistemas operativos se comportan excelentemente en redes pequeñas, así
como otros se especializan en conectar muchas redes pequeñas en áreas bastante amplias.

Los servicios que el NOS realiza son:


Soporte para archivos: Esto es, crear, compartir, almacenar y recuperar archivos, actividades
esenciales en que el NOS se especializa proporcionando un método rápido y seguro.
Comunicaciones: Se refiere a todo lo que se envía a través del cable. La comunicación se realiza
cuando por ejemplo, alguien entra a la red, copia un archivo, envía correo electrónico, o
imprime.
Servicios para el soporte de equipo: Aquí se incluyen todos los servicios especiales como
impresiones, respaldos en cinta, detección de virus en la red.
Medios de Transmisión
El medio de transmisión constituye el canal que permite la transmisión de información entre dos
terminales en un sistema de transmisión.
Las transmisiones se realizan habitualmente empleando ondas electromagnéticas que se
propagan a través del canal.
A veces el canal es un medio físico y otras veces no, ya que las ondas electromagnéticas son
susceptibles de ser transmitidas por el vacio
Características
Entre las características más importantes dentro de los medios de transmisión se encuentra la velocidad de
transmisión, la distorsión que introduce en el mensaje, y el ancho de banda.
En función de la naturaleza del medio, las características y la calidad de la transmisión se verán
afectadas.
Clasificación
Materia: Introducción Computacional

Dependiendo de la forma de conducir la señal a través del medio, los medios de transmisión se
pueden clasificar en dos grandes grupos, medios de transmisión guiados y medios de
transmisión no guiados.
Según el sentido de la transmisión podemos encontrarnos con 3 tipos diferentes: Simplex, Half-
Duplex y Full-Duplex.
También los medios de transmisión se caracterizan por utilizarse en rangos de frecuencia de
trabajo diferentes.

Protocolos De Red
Los conjuntos de protocolos son colecciones de protocolos que posibilitan la comunicación de
red desde un host, a través de la red, hacia otro host. Un protocolo es una descripción formal de
un conjunto de reglas y convenciones que rigen un aspecto particular de cómo los dispositivos
de una red se comunican entre sí. Los protocolos determinan el formato, la sincronización, la
secuenciación y el control de errores en la comunicación de datos. Sin protocolos, el
computador no puede armar o reconstruir el formato original del flujo de bits entrantes desde
otro computador.
Los protocolos controlan todos los aspectos de la comunicación de datos, que incluye lo
siguiente:
• Cómo se construye la red física
• Cómo los computadores se conectan a la red
• Cómo se formatean los datos para su transmisión
• Cómo se envían los datos
• Cómo se manejan los errores
Estas normas de red son creadas y administradas por una serie de diferentes organizaciones y
comités. Entre ellos se incluyen el Instituto de Ingeniería Eléctrica y Electrónica (IEEE), el
Instituto Nacional Americano de Normalización (ANSI), la Asociación de la Industria de las
Telecomunicaciones (TIA), la Asociación de Industrias Electrónicas (EIA) y la Unión
Internacional de Telecomunicaciones (UIT), antiguamente conocida como el Comité Consultivo
Internacional Telegráfico y Telefónico (CCITT).
Un escenario típico consiste de un número de principales, tales como individuos, compañías,
computadoras, lectores de tarjetas magnéticas, los cuales se comunican usando una variedad de
canales (teléfono, correo electrónico, radio ) o dispositivos físicos (tarjetas bancarias, pasajes,
cédulas ).

Un protocolo de seguridad define las reglas que gobiernan estas comunicaciones, diseñadas para
que el sistema pueda soportar ataques de carácter malicioso.
Protegerse contra todos los ataques posibles es generalmente muy costoso, por lo cual los
protocolos son diseñados bajo ciertas premisas con respecto a los riesgos a los cuales el sistema
está expuesto.

Existen varios protocolos posibles. Las distintas compañías que instalan y administran este tipo
de redes elige unos u otros protocolos. En todos los casos se cran túneles entre origen y destino.
Dentro de estos túneles viaja la información, bien por una conexión normal (en este caso no se
encriptan los datos) o bien por una conexión VPN. El protocolo IP Sec es uno de los más
Materia: Introducción Computacional

empleados. Este se basa en GRE que es un protocolo de tunneling. Este protocolo también se
utiliza de forma conjunta con otros protocolos como PPTP.

Generic Routing Encapsulation (GRE 47)

Point-to-Point Tunneling Protocol (PPTP)


IP Sec
Protocolo de tunelado nivel 2 (L2TP)
Secure shell (SSH)

Generic Routing Encapsulation (GRE 47)


Es el protocolo de Encapsulación de Enrutamiento Genérico. Se emplea en combinación con
otros protocolos de túnel para crear redes virtuales privadas.

El GRE está documentado en el RFC 1701 y el RFC 1702. Fue diseñado para proporcionar
mecanismos de propósito general, ligeros y simples, para encapsular datos sobre redes IP. El
GRE es un protocolo cliente de IP que usa el protocolo IP 47.
Este protocolo es normalmente usado con VPN de Microsoft entre servidores con acceso remoto
(RRAS) configurados para el enrutamiento entre redes de área local.

Esquema:
GRE se encarga del encapsulamiento de los datos para enviarlos por un túnel, pero él no crea no
los túneles, de eso de encarga el protocolo PPTP u otro que estemos empleando.
El proceso de encapsulamiento tienen los siguientes pasos:
El paquete IP con los datos se transmite desde el Ecliente al servidor E-RRAS.

Se le añade la cabecera del PPP y se cifra todo junto obteniendo un ‘fragmento PPP’.
Los datos cifrados se colocan dentro de un paquete GRE con su correspondiente cabecera.
Se envía el paquete GRE del servidor E-RRAS al servidor R-RRAS a través de Internet.
Este envía se realiza por una conexión VPN creada anteriormente.
El servidor R-RRAS elimina el encabezado GRE, descifra, elimina el encabezado PPP y
transmite los datos (paquete IP) a el Rcliente.

Los datos cifrados se colocan dentro de un paquete GRE con su correspondiente cabecera.
Esquema:
Formato de un paquete GRE
Point-to-Point Tunneling Protocol
El Protocolo de Túnel Punto a Punto (PPTP) encapsula los paquetes (frames) del Protocolo
Punto a Punto (Point-to-Point Protocol, PPP) con datagramas IP para transmitirlos por una red
IP como Internet o una intranet privada.

El PPTP utiliza una conexión TCP conocida como la conexión de control de PPTP para crear,
mantener y terminar el túnel, y una versión modificada de GRE, para encapsular los paquetes
(frames) PPP como datos para el túnel. Las cargas de los paquetes encapsulados pueden estar
encriptadas o comprimidas o ambas cosas.

El PPTP supone la disponibilidad de una red IP entre un cliente PPTP (un cliente de túnel que
utiliza el protocolo PPTP) y un servidor PPTP (un servidor de túnel que utiliza el protocolo
PPTP). El cliente PPTP podría estar ya conectado a una red IP por la que puede tener acceso al
servidor PPTP, o podría tener que llamar telefónicamente a un servidor de acceso de red
(Network Access Server, NAS) para establecer la conectividad IP como en el caso de los
usuarios de accesos telefónicos para Internet.
Materia: Introducción Computacional

La autentificación que ocurre durante la creación de una conexión VPN con PPTP utiliza los
mismos mecanismos de autentificación que las conexiones PPP, tales como el Protocolo de
Autentificación Extendible (Extensible Authentication Protocol, EAP), el Protocolo de
Autentificación con Reto/Negociación de Microsoft (Microsoft Challenge-Handshake
Authentication Protocol, MS-CHAP), el CHAP, el Protocolo de Autentificación de Claves
Shiva (Shiva Password Authentication Protocol, SPAP) y el Protocolo de Autentificación de
Claves (Password Authentication Protocol, PAP). El PPTP hereda la encriptación, la
compresión o ambas de las cargas PPP del PPP. Para servidores PPTP sobre Internet, el servidor
PPTP es un servidor VPN con PPTP con una interface con Internet y una segunda interface con
la intranet.

IP Sec

IP Sec es un grupo de extesiones de la familia del protocolo IP pensado para proveer servicios
de seguridad a nivel de red, de un modo transparente a las aplicaciones superiores.

IP Sec está ya explicado en su trabajo correspondiente: I Pv 6 e IP Sec

Protocolo de tunelado de nivel 2 (L2TP)

Es un componente de creación importante para las VPN de acceso. Es una extensión del
protocolo Punto a Punto, fundamental para la creación de VPNs. L2TP combina las mejores
funciones de los otros dos protocolos tunneling. Layer 2 Forwarding (L2F) de Cisco Systems y
Point-to-Point Tunneling (PPTP) de Microsoft. L2TP es un estándar emergente, que se
encuentra actualmente en codesarrollo y que cuenta con el respaldo de Cisco Systems,
Microsoft, Ascend, 3Com y otros líderes en la industria de la conectividad.
A continuación una serie de términos relacionados con este protocolo:

L2TP Access Concentrator (LAC): Se añade un dispositivo LAC a los componentes físicos de
la red conmutada; como la red telefónica convencional o RDSI, o se coloca con un sistema de
terminación PPP capaz de gestionar el protocolo L2TP. Un LAC sólo necesita implementar el
medio sobre el cual opera el L2TP para admitir el tráfico de una o más LNS. Puede “tunelizar”
cualquier protocolo que incluya el PPP. LAC es el iniciador de las llamadas entrantes y el
receptor de las llamadas salientes.

L2TP Network Server (LNS): Un LNS opera sobre cualquier plataforma con capacidad de
terminación PPP. LNS gestiona el lado del servidor del protocolo L2TP. Ya que L2TP se apoya
sobre el medio al que llegan los túneles L2TP, LNS sólo puede tener un único interfaz LAN o
WAN, aunque es capaz de terminar las llamadas entrantes en cualquiera de la amplia gama de
los interfaces PPP LAC (asíncronos, RDSI, PPP sobre ATM, PPP sobre Frame Relay).
Network Access Server (Servidor de acceso a la red): NAS es un dispositivo que proporciona a
los usuarios acceso temporal a la red bajo demanda. Este acceso es punto a punto, de uso típico
en líneas de la red telefónica convencional o RDSI. En la implementación Cisco, un NAS sirve
como LAC.

Secure shell (SSH)


Tradicionalmente en sistemas Unix en el momento de entrar en el sistema, tanto el login como
el password, así como el resto de la sesión, se transmiten a través de nuestra LAN o incluso a
través de routers y nodos ajenos al nuestro en texto claro. Esto quiere decir que cualquiera que
tenga activado un sniffer puede capturar nuestras sesiones con el potencial peligro que ello
conlleva. La manera de evitar que alguien pueda espiar nuestras claves y sesiones, es utilizar
una herramienta muy potente, fácil de instalar y muy cómoda para el usuario.
Materia: Introducción Computacional

Uso de capas para describir la comunicación de datos

Para que los paquetes de datos puedan viajar desde el origen hasta su destino a través de una
red, es importante que todos los dispositivos de la red hablen el mismo lenguaje o protocolo. Un
protocolo es un conjunto de reglas que hacen que la comunicación en una red sea más eficiente.
Por ejemplo, al pilotar un avión, los pilotos obedecen reglas muy específicas para poder
comunicarse con otros aviones y con el control de tráfico aéreo.
Un protocolo de comunicaciones de datos es un conjunto de normas, o un acuerdo, que
determina el formato y la transmisión de datos.
La Capa 4 del computador de origen se comunica con la Capa 4 del computador de destino. Las
normas y convenciones utilizadas para esta capa reciben el nombre de protocolos de la Capa 4.
Es importante recordar que los protocolos preparan datos en forma lineal.
El protocolo en una capa realiza un conjunto determinado de operaciones sobre los datos al
prepararlos para ser enviados a través de la red. Los datos luego pasan a la siguiente capa, donde
otro protocolo realiza otro conjunto diferente de operaciones.
Una vez que el paquete llega a su destino, los protocolos deshacen la construcción del paquete
que se armó en el extremo de origen. Esto se hace en orden inverso. Los protocolos para cada
capa en el destino devuelven la información a su forma original, para que la aplicación pueda
leer los datos correctamente.

Fig 4: Comunicación entre Capas


Modelo OSI
En sus inicios, el desarrollo de redes sucedió con desorden en muchos sentidos. A principios de
la década de 1980 se produjo un enorme crecimiento en la cantidad y el tamaño de las redes. A
medida que las empresas tomaron conciencia de las ventajas de usar tecnología de networking,
las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas
tecnologías de red.

Para mediados de la década de 1980, estas empresas comenzaron a sufrir las consecuencias de
la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma
tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e
implementaciones tenían dificultades para intercambiar información.

El mismo problema surgía con las empresas que desarrollaban tecnologías de networking
privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de
empresas controla todo uso de la tecnología. Las tecnologías de networking que respetaban
reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas
propietarias diferentes.
Materia: Introducción Computacional

Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional de


Normalización (ISO) investigó modelos de networking como la red de Digital Equipment
Corporation (DECnet), la Arquitectura de Sistemas de Red (SNA) y TCP/IP a fin de encontrar
un conjunto de reglas aplicables de forma general a todas las redes. En base a esta investigación,
la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean
compatibles con otras redes.
El modelo de referencia de Interconexión de Sistemas Abiertos (OSI) lanzado en 1984 fue el
modelo de red descriptivo creado por ISO. Proporcionó a los fabricantes un conjunto de
estándares que aseguraron una mayor compatibilidad e interoperabilidad entre los distintos tipos
de tecnología de red producidos por las empresas a nivel mundial.
El modelo de referencia OSI se ha convertido en el modelo principal para las comunicaciones
por red. Aunque existen otros modelos, la mayoría de los fabricantes de redes relacionan sus
productos con el modelo de referencia de OSI. Esto es en particular así cuando lo que buscan es
enseñar a los usuarios a utilizar sus productos. Se considera la mejor herramienta disponible
para enseñar cómo enviar y recibir datos a través de una red.

Fig 5: Modelo OSI

Capas del Modelo OSI


El modelo de referencia OSI es un marco que se puede utilizar para comprender cómo viaja la
información a través de una red. El modelo de referencia OSI explica de qué manera los
paquetes de datos viajan a través de varias capas a otro dispositivo de una red, aun cuando el
remitente y el destinatario poseen diferentes tipos de medios de red.

En el modelo de referencia OSI, hay siete capas numeradas, cada una de las cuales ilustra una
función de red específica. - La división de la red en siete capas permite obtener las siguientes
ventajas:
• Divide la comunicación de red en partes más pequeñas y fáciles de manejar.
• Normaliza los componentes de red para permitir el desarrollo y el soporte de los
productos por diferentes fabricantes
• Permite a los distintos tipos de hardware y software de red comunicarse entre sí.
• Evita que los cambios en una capa afecten las otras capas.
• Divide la comunicación de red en partes más pequeñas para simplificar el aprendizaje.

Comunicaciones par a par (PDU)

Para que los datos puedan viajar desde el origen hasta su destino, cada capa del modelo OSI en
el origen debe comunicarse con su capa par en el lugar destino. Esta forma de comunicación se
conoce como de par-a-par. Durante este proceso, los protocolos de cada capa intercambian
información, denominada unidades de datos de protocolo (PDU). Cada capa de comunicación
en el computador origen se comunica con un PDU específico de capa, y con su capa par en el
computador destino, como lo ilustra la figura 6 .

Los paquetes de datos de una red parten de un origen y se envían a un destino. Cada capa
depende de la función de servicio de la capa OSI que se encuentra debajo de ella. Para brindar
este servicio, la capa inferior utiliza el encapsulamiento para colocar la PDU de la capa superior
en su campo de datos, luego le puede agregar cualquier encabezado e información final que la
capa necesite para ejecutar su función.
Posteriormente, a medida que los datos se desplazan hacia abajo a través de las capas del
modelo OSI, se agregan encabezados e información final adicionales. Después de que las Capas
7, 6 y 5 han agregado su información, la Capa 4 agrega más información. Este agrupamiento de
datos, la PDU de la Capa 4, se denomina segmento.
Materia: Introducción Computacional

La capa de red presta un servicio a la capa de transporte y la capa de transporte presenta datos al
subsistema de internetwork. La tarea de la capa de red consiste en trasladar esos datos a través
de la internetwork. Ejecuta esta tarea encapsulando los datos y agregando un encabezado, con lo
que crea un paquete (la PDU de la Capa 3). Este encabezado contiene la información necesaria
para completar la transferencia, como, por ejemplo, las direcciones lógicas origen y destino.

La capa de enlace de datos suministra un servicio a la capa de red. Encapsula la información de


la capa de red en una trama (la PDU de la Capa 2). El encabezado de trama contiene la
información (por ejemplo, las direcciones físicas) que se requiere para completar las funciones
de enlace de datos. La capa de enlace de datos suministra un servicio a la capa de red
encapsulando la información de la capa de red en una trama.

La capa física también suministra un servicio a la capa de enlace de datos. La capa física
codifica los datos de la trama de enlace de datos en un patrón de unos y ceros (bits) para su
transmisión a través del medio (generalmente un cable) en la Capa 1

Fig 6: PDU Modelo OSI

Modelo TCP/IP

El estándar histórico y técnico de la Internet es el modelo TCP/IP. El Departamento de Defensa


de EE.UU. (DoD) creó el modelo de referencia TCP/IP porque necesitaba diseñar una red que
pudiera sobrevivir ante cualquier circunstancia, incluso una guerra nuclear. En un mundo
conectado por diferentes tipos de medios de comunicación, como alambres de cobre,
microondas, fibras ópticas y enlaces satelitales, el DoD quería que la transmisión de paquetes se
realizara cada vez que se iniciaba y bajo cualquier circunstancia. Este difícil problema de diseño
dio origen a la creación del modelo TCP/IP.
A diferencia de las tecnologías de networking propietarias mencionadas anteriormente, el
TCP/IP se desarrolló como un estándar abierto. Esto significaba que cualquier persona podía
usar el TCP/IP. Esto contribuyó a acelerar el desarrollo de TCP/IP como un estándar.

El modelo TCP/IP tiene las siguientes cuatro capas:


• Capa de aplicación
• Capa de transporte
Materia: Introducción Computacional

• Capa de Internet
• Capa de acceso a la red

Fig 7: Modelo TCP/IP

Aunque algunas de las capas del modelo TCP/IP tienen el mismo nombre que las capas del
modelo OSI, las capas de ambos modelos no se corresponden de manera exacta. Lo más notable
es que la capa de aplicación posee funciones diferentes en cada modelo.
Los diseñadores de TCP/IP sintieron que la capa de aplicación debía incluir los detalles de las
capas de sesión y presentación OSI. Crearon una capa de aplicación que maneja aspectos de
representación, codificación y control de diálogo.

La capa de transporte se encarga de los aspectos de calidad del servicio con respecto a la
confiabilidad, el control de flujo y la corrección de errores. Uno de sus protocolos, el protocolo
para el control de la transmisión (TCP), ofrece maneras flexibles y de alta calidad para crear
comunicaciones de red confiables, sin problemas de flujo y con un nivel de error bajo.

TCP es un protocolo orientado a conexión. Mantiene un diálogo entre el origen y el destino


mientras empaqueta la información de la capa de aplicación en unidades denominadas
segmentos. Orientado a conexión no significa que existe un circuito entre los computadores que
se comunican. Significa que segmentos de la Capa 4 viajan de un lado a otro entre dos hosts
para comprobar que la conexión exista lógicamente para un determinado período.

El propósito de la capa Internet es dividir los segmentos TCP en paquetes y enviarlos desde
cualquier red. Los paquetes llegan a la red de destino independientemente de la ruta que
utilizaron para llegar allí. El protocolo específico que rige esta capa se denomina Protocolo
Internet (IP). En esta capa se produce la determinación de la mejor ruta y la conmutación de
paquetes.

La relación entre IP y TCP es importante. Se puede pensar en el IP como el que indica el


camino a los paquetes, en tanto que el TCP brinda un transporte seguro.
El nombre de la capa de acceso de red es muy amplio y se presta a confusión. También se
conoce como la capa de host a red. Esta capa guarda relación con todos los componentes, tanto
físicos como lógicos, necesarios para lograr un enlace físico. Incluye los detalles de tecnología
de networking, y todos los detalles de las capas física y de enlace de datos del modelo OSI.
La figura 8 ilustra algunos de los protocolos comunes especificados por las capas del modelo de
referencia TCP/IP. Algunos de los protocolos de capa de aplicación más comúnmente usados
incluyen los siguientes:

• Protocolo de Transferencia de Archivos (FTP)


• Protocolo de Transferencia de Hipertexto (HTTP)
• Protocolo simple de transferencia de correo (SMTP)
• Sistema de denominación de dominios (DNS)
• Protocolo Trivial de Transferencia de Archivos (TFTP)
Materia: Introducción Computacional

Los protocolos de capa de transporte comunes incluyen:


• Protocolo para el Control del Transporte (TCP)
• Protocolo de Datagrama de Usuario (UDP)

El protocolo principal de la capa Internet es:

• Protocolo Internet (IP)


La capa de acceso de red se refiere a cualquier tecnología en particular utilizada en una red
específica.

Independientemente de los servicios de aplicación de red que se brinden y del protocolo de


transferencia que se utilice, existe un solo protocolo de Internet, IP. Esta es una decisión de
diseño deliberada.

IP sirve como protocolo universal que permite que cualquier computador en cualquier parte del
mundo pueda comunicarse en cualquier momento.

Fig 8: Protocolos TCP/IP Comunes

Comparando el modelo OSI con los modelos TCP/IP, surgen algunas similitudes y diferencias.

Las similitudes incluyen:


• Ambos se dividen en capas.
• Ambos tienen capas de aplicación, aunque incluyen servicios muy distintos.
• Ambos tienen capas de transporte y de red similares.
• Ambos modelos deben ser conocidos por los profesionales de networking.
• Ambos suponen que se conmutan paquetes. Esto significa que los paquetes individuales
pueden usar rutas diferentes para llegar al mismo destino. Esto se contrasta con las
redes conmutadas por circuito, en las que todos los paquetes toman la misma ruta.

Las diferencias incluyen:


• TCP/IP combina las funciones de la capa de presentación y de sesión en la capa de
aplicación.
• TCP/IP combina la capa de enlace de datos y la capa física del modelo OSI en la capa
de acceso de red.
• TCP/IP parece ser más simple porque tiene menos capas.
• Los protocolos TCP/IP son los estándares en torno a los cuales se desarrolló la Internet,
de modo que la credibilidad del modelo TCP/IP se debe en gran parte a sus protocolos.
En comparación, por lo general las redes no se desarrollan a partir del protocolo OSI,
aunque el modelo OSI se usa como guía.
Materia: Introducción Computacional

Aunque los protocolos TCP/IP representan los estándares en base a los cuales se ha desarrollado
la Internet, este currículum utiliza el modelo OSI por los siguientes motivos:
• Es un estándar genérico, independiente de los protocolos.
• Es más detallado, lo que hace que sea más útil para la enseñanza y el aprendizaje.
• Al ser más detallado, resulta de mayor utilidad para el diagnóstico de fallas.

Los profesionales de networking tienen distintas opiniones con respecto al modelo que se debe
usar. Dada la naturaleza de esta industria, es necesario familiarizarse con ambos. A lo largo de
todo el currículum se hará referencia a ambos modelos, el OSI y el TCP/IP. Se hará énfasis en
lo siguiente:
• TCP como un protocolo de Capa 4 OSI
• IP como un protocolo de Capa 3 OSI
• Ethernet como una tecnología de Capa 2 y Capa 1
Recuerden que hay una diferencia entre un modelo y un protocolo que realmente se utiliza en
networking.
Se utilizará el modelo OSI para describir protocolos TCP/IP

Fig 9: Protocolos Para Cada Capa


Proceso detallado de encapsulamiento
Todas las comunicaciones de una red parten de un origen y se envían a un destino. La
información que se envía a través de una red se denomina datos o paquetes de datos. Si un
computador (host A) desea enviar datos a otro (host B), en primer término los datos deben
empaquetarse a través de un proceso denominado encapsulamiento.

Redes de área local (LAN).


En esta categoría se encuentran tipos básicos de red. Su alcance es de tan sólo unos cientos de
metros, los suficientes como para conectar el equipo de cómputo de un mismo edificio o de un
mismo campus universitario. Éstas son mantenidas y administradas por el mismo propietario de
la red.
También utilizan las topologías antes estudiadas. Debido a su corto alcance también suelen
tener la velocidades más elevadas llegando inclusive a los 100 Mbps.
Materia: Introducción Computacional

Habría que señalar un tipo muy particular de red de área local, son las denominadas intranets,
éstas redes se utilizan para conectar pequeñas subredes entre si que pudiera tener incluso
diferentes topologías, y lo hacen al estilo de una red amplia.
Redes de área metropolitana (MAN).
Tenemos que si el alcance de la red es a nivel, municipal entonces se tiene una red tipo MAN
(Metropolitan Area Network). La idea de una red de área amplia es conectar equipos de
cómputo a través de líneas privadas o públicas que son propiedad de alguna empresa privada o
gubernamental como compañías telefónicas o de TV por cable. Utilizan protocolos para redes
de área local y son administradas y mantenidas por la compañía dueña de las líneas.
Redes de área amplia (WAN).
Las redes de área amplia conectan equipos distantes entre sí, su alcance es de kilómetros,
típicamente de alcance global. A diferencia de las redes LAN y MAN, este tipo de redes no
tienen un administrador en particular, más bien son mantenidas por los mismos usuarios quienes
prestan sus recursos ( que pueden ser dispositivos de interconexión como ruteadores, puentes,
etc.) para conectar redes privadas con el resto del mundo.
El Cable Par Trenzado
Es de los más antiguos en el mercado y en algunos tipos de aplicaciones es el más común.
Consiste en dos alambres de cobre o a veces de aluminio, aislados con un grosor de 1 mm
aproximadamente. Los alambres se trenzan con el propósito de reducir la interferencia eléctrica
de pares similares cercanos. Los pares trenzados se agrupan bajo una cubierta común de PVC
(Poli cloruro de Vinilo) en cables multipares de pares trenzados (de 2, 4, 8, hasta 300 pares).

Un ejemplo de par trenzado es el sistema de telefonía, ya que la mayoría de aparatos se


conectan a la central telefónica por medio de un par trenzado. Actualmente, se han convertido
en un estándar en el ámbito de las redes LAN (Local Área Network) como medio de
transmisión en las redes de acceso a usuarios (típicamente cables de 2 ó 4 pares trenzados). A
pesar que las propiedades de transmisión de cables de par trenzado son inferiores, y en especial
la sensibilidad ante perturbaciones extremas, a las del cable coaxial, su gran adopción se
debe al costo, su flexibilidad y facilidad de instalación, así como las mejoras tecnológicas
constantes introducidas en enlaces de mayor velocidad, longitud, etc.

Estructura del Cable par Trenzado:


Por lo general, la estructura de todos los cables par trenzado no difieren significativamente,
aunque es cierto que cada fabricante introduce algunas tecnologías adicionales mientras los
estándares de fabricación se lo permitan.
El cable está compuesto, por un conductor interno que es de alambre electrolítico recocido, de
tipo circular, aislado por una capa de polietileno coloreado.
Debajo de la aislación coloreada existe otra capa de aislación también de polietileno, que
contiene en su composición una sustancia antioxidante para evitar la corrosión del cable. El
conducto sólo tiene un diámetro de aproximadamente medio milímetro, y más la aislación el
diámetro puede superar el milímetro.

Sin embargo es importante aclarar que habitualmente este tipo de cable no se maneja por
unidades, sino por pares y grupos de pares, paquete conocido como cable multipar. Todos los
cables del multipar están trenzados entre sí con el objeto de mejorar la resistencia de todo el
grupo hacia diferentes tipos de interferencia electromagnética externa. Por esta razón surge la
necesidad de poder definir colores para los mismos que permitan al final de cada grupo de
cables conocer qué cable va con cual otro.
Los colores del aislante están normalizados a fin de su manipulación por grandes cantidades.
Para Redes Locales los colores estandarizados son:
• Naranja / Blanco – Naranja.
• Verde / Blanco – Verde.
• Blanco / Azul – Azul
Materia: Introducción Computacional

• Blanco / Marrón – Marrón

En telefonía, es común encontrar dentro de las conexiones grandes cables telefónicos


compuestos por cantidades de pares trenzados, aunque perfectamente identificables unos de
otros a partir de la normalización de los mismos. Los cables una vez fabricados
unitariamente y aislados, se trenzan de a pares de acuerdo al color de cada uno de ellos; aún
así, estos se vuelven a unir a otros formando estructuras mayores: los pares se agrupan en
subgrupos, los subgrupos de agrupan en grupos, los grupos se agrupan en superunidades, y las
superunidades se agrupan en el denominado cable.
De esta forma se van uniendo los cables hasta llegar a capacidades de 2200 pares; un cable
normalmente está compuesto por 22 superunidades; cada sub-unidad está compuesta por 12
pares aproximadamente; este valor es el mismo para las unidades menores. Los cables
telefónicos pueden ser armados de 6, 10, 18, 20, 30, 50, 80, 100, 150, 200, 300, 400, 600, 900,
1200, 1500, 1800 ó 2200 pares.

Tipos de Cable par Trenzado:

Cable de par trenzado apantallado (STP):


En este tipo de cable, cada par va recubierto por una malla conductora que actúa de apantalla
frente a interferencias y ruido eléctrico. Su impedancia es de 150 Ohm.
El nivel de protección del STP ante perturbaciones externas es mayor al ofrecido por UTP. Sin
embargo es más costoso y requiere más instalación. La pantalla del STP, para que sea más
eficaz, requiere una configuración de interconexión con tierra (dotada de continuidad hasta el
terminal), con el STP se suele utilizar conectores RJ49.
Es utilizado generalmente en las instalaciones de procesos de datos por su capacidad y sus
buenas características contra las radiaciones electromagnéticas, pero el inconveniente es que es
un cable robusto, caro y difícil de instalar.

Cable de par Trenzado con Pantalla Global (FTP):


En este tipo de cable como en el UTP, sus pares no están apantallados, pero sí dispone de una
pantalla global para mejorar su nivel de protección ante interferencias externas.
Su impedancia característica típica es de 120 OHMIOS y sus propiedades de transmisión son
más parecidas a las del UTP. Además, puede utilizar los mismos conectores RJ45.
Tiene un precio intermedio entre el UTP y STP.

Cable par Trenzado no Apantallado (UTP):


El cable par trenzado más simple y empleado, sin ningún tipo de pantalla adicional y con una
impedancia característica de 100 Ohmios. El conector más frecuente con el UTP es el RJ45,
aunque también puede usarse otro (RJ11, DB25, DB11, etc), dependiendo del adaptador de
red.
Es sin duda el que hasta ahora ha sido mejor aceptado, por su costo accesibilidad y fácil
instalación. Sus dos alambres de cobre torcidos aislados con plástico PVC han demostrado un
buen desempeño en las aplicaciones de hoy. Sin embargo, a altas velocidades puede resultar
vulnerable a las interferencias electromagnéticas del medio ambiente.

El cable UTP es el más utilizado en telefonía.

Categorías del Cable UTP:


Cada categoría especifica unas características eléctricas para el cable: atenuación, capacidad de
la línea e impedancia.

Existen varias categorías dentro del cable UTP:


Materia: Introducción Computacional

Categoría 1: Este tipo de cable esta especialmente diseñado para redes telefónicas, es el típico
cable empleado para teléfonos por las compañías telefónicas. Alcanzan como máximo
velocidades de hasta 4 Mbps.

Categoría 2: De características idénticas al cable de categoría 1.

Categoría 3: Es utilizado en redes de ordenadores de hasta 16 Mbps. de velocidad y con un


ancho de banda de hasta 16 Mhz.

Categoría 4: Esta definido para redes de ordenadores tipo anillo como Token Ring con un ancho
de banda de hasta 20 Mhz y con una velocidad de 20 Mbps.

Categoría 5: Es un estándar dentro de las comunicaciones en redes LAN. Es capaz de soportar


comunicaciones de hasta 100 Mbps. con un ancho de banda de hasta 100 Mhz. Este tipo de
cable es de 8 hilos, es decir cuatro pares trenzados. La atenuación del cable de esta categoría
viene dado por esta tabla referida a una distancia estándar de 100 metros:

Categoría 5e: Es una categoría 5 mejorada. Minimiza la atenuación y las interferencias. Esta
categoría no tiene estandarizadas las normas aunque si esta diferenciada por los diferentes
organismos.

Categoría 6: No esta estandarizada aunque ya se está utilizando. Se definirán sus características


para un ancho de banda de 250 Mhz.

Categoría 7: No esta definida y mucho menos estandarizada. Se definirá para un ancho de banda
de 600 Mhz. El gran inconveniente de esta categoría es el tipo de conector seleccionado que es
un RJ-45 de 1 pines.

El Cable Coaxial.

El cable coaxial tenía una gran utilidad en sus inicios por su propiedad idónea de
transmisión de voz, audio y video, además de textos e imágenes.
Se usa normalmente en la conexión de redes con topología de Bus como Ethernet y
ArcNet, se llama así porque su construcción es de forma coaxial. La construcción del cable
debe de ser firme y uniforme, por que si no es así, no se tiene un funcionamiento adecuado.
Este conexionado está estructurado por los siguientes componentes de adentro hacia fuera de la
siguiente manera:

• Un núcleo de cobre sólido, o de acero con capa de cobre, o bien de una serie de fibras de
alambre de cobre entrelazadas dependiendo del fabricante.
• Una capa de aislante que recubre el núcleo o conductor, generalmente de material de
polivinilo, este aislante tiene la función de guardar una distancia uniforme del conductor
con el exterior.
• Una capa de blindaje metálico, generalmente cobre o aleación de aluminio entretejido (a
veces solo consta de un papel metálico) cuya función es la de mantenerse lo mas apretado
posible para eliminar las interferencias, además de que evita de que el eje común se rompa o
se tuerza demasiado, ya que si el eje común no se mantiene en buenas condiciones, trae
como consecuencia que la señal se va perdiendo, y esto afectaría la calidad de la señal.
• Por último, tiene una capa final de recubrimiento, de color negro en el caso del cable coaxial
delgado o amarillo en el caso del cable coaxial grueso, este recubrimiento normalmente
suele ser de vinilo, xelón ó polietileno uniforme para mantener la calidad de las señales.

Una breve comparación entre el cable coaxial y el cable par trenzado:


El cable coaxial es más inmune a las interferencias o al ruido que el par trenzado.
Materia: Introducción Computacional

El cable coaxial es mucho más rígido que el par trenzado, por lo que al realizar las conexiones
entre redes la labor será más dificultosa.
La velocidad de transmisión que podemos alcanzar con el cable coaxial llega solo hasta
10Mbps, en cambio con el par trenzado se consiguen 100Mbps.
Algunos tipos de Cable Coaxial:
El RG-75 se usa principalmente para televisión
Cada cable tiene su uso. Por ejemplo, los cables RG-8, RG-11 y RG-58 se usan para redes de
datos con topología de Bus como Ethernet y ArcNet.

Dependiendo del Grosor Tenemos:

• Cable coaxial delgado (Thin coaxial):


El RG-58 es un cable coaxial delgado: a este tipo de cable se le denomina delgado porque es
menos grueso que el otro tipo de cable coaxial, debido a esto es menos rígido que el otro tipo, y
es más fácil de instalar.
• Cable Coaxial Grueso (Thick Coaxial):
Los RG8 y RG11 son cables coaxiales gruesos: estos cables coaxiales permiten una transmisión
de datos de mucha distancia sin debilitarse la señal, pero el problema es que, un metro de cable
coaxial grueso pesa hasta medio kilogramo, y no puede doblarse fácilmente. Un enlace de
coaxial grueso puede ser hasta 3 veces mas largo que un coaxial delgado.
Dependiendo de su Banda Tenemos:

• Banda Base:
Existen básicamente dos tipos de cable coaxial. El de Banda Base, que es el normalmente
empleado en redes de ordenadores, con una resistencia de 50Ohm, por el que fluyen señales
digitales.

• Banda Ancha:
El cable coaxial de banda ancha normalmente mueve señales analógicas, posibilitando la
transmisión de gran cantidad de información por varias frecuencias, y su uso más común es la
televisión por cable.
Los factores a tener en cuenta a la hora de elegir un cable coaxial son su ancho de banda, su
resistencia o impedancia característica, su capacidad y su velocidad de propagación.
El ancho de banda del cable coaxial está entre los 500Mhz, esto hace que el cable coaxial sea
ideal para transmisión de televisión por cable por múltiples canales.
La resistencia o la impedancia característica depende del grosor del conductor central o malla, si
varía éste, también varía la impedancia característica.

Conexión fibra óptica.- Esta conexión es cara, permite transmitir la información a gran
velocidad e impide la intervención de las líneas. Como la señal es transmitida a través de luz,
existen muy pocas posibilidades de interferencias eléctrica o emisión de señal. El cable consta
de dos núcleos ópticos, uno interno y otro externo, que refractan la luz de forma distinta. La
fibra está encapsulada en un cable protector .

Tipos de Fibra

Fibra Monomodo:

Potencialmente, esta es la fibra que ofrece la mayor capacidad de transporte de información.


Tiene una banda de paso del orden de los 100 GHz/km. Los mayores flujos se consiguen con
esta fibra, pero también es la más compleja de implantar. El dibujo muestra que sólo pueden
ser transmitidos los rayos que tienen una trayectoria que sigue el eje de la fibra, por lo que se ha
ganado el nombre de "monomodo" (modo de propagación, o camino del haz luminoso, único).
Materia: Introducción Computacional

Son fibras que tienen el diámetro del núcleo en el mismo orden de magnitud que la longitud de
onda de las señales ópticas que transmiten, es decir, de unos 5 a 8 m m. Si el núcleo está
constituido de un material cuyo índice de refracción es muy diferente al de la cubierta, entonces
se habla de fibras monomodo de índice escalonado. Los elevados flujos que se pueden alcanzar
constituyen la principal ventaja de las fibras monomodo, ya que sus pequeñas dimensiones
implican un manejo delicado y entrañan dificultades de conexión que aún se dominan mal.

Fibra Multimodo de Índice Gradiante Gradual:

Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que llega hasta
los 500MHz por kilómetro. Su principio se basa en que el índice de refracción en el interior del
núcleo no es único y decrece cuando se desplaza del núcleo hacia la cubierta. Los rayos
luminosos se encuentran enfocados hacia el eje de la fibra, como se puede ver en el dibujo.

Estas fibras permiten reducir la dispersión entre los diferentes modos de propagación a través
del núcleo de la fibra.

La fibra multimodo de índice de gradiente gradual de tamaño 62,5/125 m (diámetro del


núcleo/diámetro de la cubierta) está normalizado, pero se pueden encontrar otros tipos de fibras:
Multimodo de índice escalonado 100/140 mm.
Multimodo de índice de gradiente gradual 50/125 m m.

Fibra Multimodo de índice escalonado:

Las fibras multimodo de índice escalonado están fabricadas a base de vidrio, con una atenuación
de 30 dB/km, o plástico, con una atenuación de 100 dB/km. Tienen una banda de paso que llega
hasta los 40 MHz por kilómetro. En estas fibras, el núcleo está constituido por un material
uniforme cuyo índice de refracción es claramente superior al de la cubierta que lo rodea. El paso
desde el núcleo hasta la cubierta conlleva por tanto una variación brutal del índice, de ahí su
nombre de índice escalonado.

You might also like