Professional Documents
Culture Documents
EL ORDENADOR
Componentes de un Ordenador
Componentes básicos:
➢ Unidades de almacenamiento (memoria)
➢ Unidad Central de Proceso (CPU) o procesador
➢ Unidad de entrada/salida (E/S)
➢ Buses
Características de los ordenadores.- Los ordenadores son máquinas automáticas que realizan
un tratamiento de la información (cálculo, copia, ordenación) siguiendo las instrucciones de
unos programas y sin necesidad de una continua intervención humana.
Son programables. Ejecutan las instrucciones que reciben a través de un programa.
Versatilidad.- Podemos realizar diversos trabajos: escribir cartas, controlar otras máquinas.
Interactividad.- Mantienen diálogos con los usuarios y actúan en función de sus ordenes y
acciones.
Materia: Introducción Computacional
Evolución histórica de los ordenadores. Los últimos 50 años, y debido al vertiginoso desarrollo
de la microelectrónica, el tamaño y el precio de los ordenadores no ha dejado de bajar, mientras
aumentan continuamente su fiabilidad, su rapidez y sus prestaciones en general.
Precursores de los ordenadores. La aparición de los ordenadores no ha sido un hecho que se
halla producido de repente; a lo largo del tiempo encontramos diversas máquinas mecánicas que
intentan facilitar la realización de los cálculos y automatizar algunos trabajos: la sumadora de
Pascal (XV), la calculadora de Leibniz (XVII), la máquina analítica de Babbage (XIX), la
clasificadora de fichas perforadas de Hollerit (XIX).
INFORMÀTICA
Materia: Introducción Computacional
Con los logaritmos funciones matemáticas llega el primer calculador mecánico en 1642
construido por Blaise Pascal. Se trataba de una serie de ruedas con números del 0 al 9 tales que
Materia: Introducción Computacional
cada una de las cuales hacía avanzar un paso a la siguiente al completar una vuelta. Estas ruedas
se movían mediante una manivela en sentido positivo o negativo.
Leibnitz fue el inventor del cálculo. Con una máquina de calcular que podía multiplicar dividir
y obtener la raíz cuadrada trabajaba en sistema binario que es la base de numeración empleada
por los modernos ordenadores actuales.
Joseph Jacquard utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado
por los hilos de las telas confeccionadas por una máquina de tejer que se utilizaron para
mediante unas fichas perforadas controlar la máquina de tejer.
Jacquard fue el primero en emplear tarjetas perforadas para almacenar la información. En 1822
diseñó su máquina para el cálculo de polinomios.
Herman Hollerith utilizó tarjetas perforadas en las que mediante agujeros se volcaban los datos
personales de la población para realizar el censo. Estas perforaciones activaban un contador y
un mecanismo de selección de tarjetas que eran leidas en la entonces increible velocidad de 80
por minuto.
James Powers diseñó nuevas máquinas para el censo. Aficionado a la electrónica, empezó a
considerar la posibilidad de construir un calculador digital en sistema binario para hacer los
cálculos de modo totalmente distinto a como los realizaban las calculadoras mecánicas y un
dispositivo de memoria mediante almacenamiento de carga eléctrica. En colaboracion con
Clifford Berry crearon el conocido como ABC Atanasoff Berry-Computer.
A pesar de la lentitud e esos calculo, se habia conseguido ya ser 50 veces más rápido que un
hombre con una sumadora.
El proyecto ENIAC (Electronic Numerical integrator and Computer) pesaba unas 30 toneladas y
ocupaba unos 1.600 metros cuadrados y era capaz de sumar restar multiplicar y dividir, disponia
de tablas de funciones.
Entre 1939 y 1944 Howard Aiken en colaboración con IBM desarrolló el Mark 1 o Calculador
Automático de Secuencia Controlada que realizaba las cuatro operaciones básicas y trabajaba
con información almacenada en forma de tablas.
Operaba con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en 1
segundo. El Mark 1 y las versiones que posteriormente se realizaron del mismo tenían el mérito
de asemejarse considerablemente al tipo de máquina ideado por Babbage aunque trabajaban en
código decimal y no binario.
El avance que estas máquinas electromecánicas supuso fue rápidamente ensombrecido por el
Eniac con sus circuitos electrónicos.
John Von Neumann en 1.946 realizó una mejora del Eniac; el Edvac (Electronic Discrete
Variable Automatic Computer) que se construyó en 1952.
Eckert y Mauchly fundaron su propia compañía, fue absorbida por Remington Rand y el 14 de
junio de 1951 son desarrollados el Univac I y el Univac II (se puede decir que es el punto de
partida en el surgimiento de los verdaderos ordenadores, que serán de acceso común a la gente)
IBM fabricó en 1953 su primer computador para aplicaciones científicas el 701 y
posteriormente el primer ordenador que empleaba memorias de núcleos de ferrita IBM superó
rápidamente a Sperry en volumen de ventas.
Generaciones
Primera Generación: Se desarrolla entre 1940 y 1952. Es la época de los ordenadores que
funcionaban a válvulas y el uso era exclusivo para el ámbito científico/militar. Para poder
programarlos había que modificar directamente los valores de los circuitos de las máquinas.
Segunda Generación: Va desde 1952 a 1964. Ésta surge cuando se sustituye la válvula por el
transistor. En esta generación aparecen los primeros ordenadores comerciales, los cuales ya
tenían una programación previa que serían los sistemas operativos. Éstos interpretaban
instrucciones en lenguaje de programación (Cobol, Fortran), de esta manera, el programador
escribía sus programas en esos lenguajes y el ordenador era capaz de traducirlo al lenguaje
máquina.
Tercera Generación: Se dio entre 1964 y 1971. Es la generación en la cual se comienzan a
utilizar los circuitos integrados; esto permitió por un lado abaratar costos y por el otro aumentar
la capacidad de procesamiento reduciendo el tamaño físico de las máquinas. Por otra parte, esta
generación es importante porque se da un notable mejoramiento en los lenguajes de
programación y, además, surgen los programas utilitarios.
Cuarta Generación: Se desarrolla entre los años 1971 y 1981. Esta fase de evolución se
caracterizó por la integración de los componentes electrónicos, y esto dio lugar a la aparición
del microprocesador, que es la integración de todos los elementos básicos del ordenador en un
sólo circuito integrado.
Quinta Generación: Va desde 1981 hasta nuestros días (aunque ciertos expertos consideran
finalizada esta generación con la aparición de los procesadores Pentium, consideraremos que
aun no ha finalizado). Esta quinta generación se caracteriza por el surgimiento de la PC, tal
como se la conoce actualmente.
Teclado de Función: es un conjunto de 13 teclas entre las que se encuentran el ESC, tan
utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser
configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.
Teclado Numérico: se suele encontrar a la derecha del teclado alfanumérico y consta de los
números así como de un Enter y los operadores numéricos de suma, resta..
Teclado Especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos:
uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas.
Recomendaciones: En este apartado es conveniente distinguir entre dos tipos de teclado:
De Membrana: Fueron los primeros que salieron y como su propio nombre indica presentan una
membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura.
Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos
traumática y más suave para el usuario.
Mouse: A este periférico se le llamó así por su parecido con este roedor. Suelen estar
constituidos por una caja con una forma más o menos anatómica en la que se encuentran dos
botones que harán los famosos clicks de ratón siendo transmitidos por el cable al puerto PS/II o
al puerto de serie (COM1 normalmente). Dentro de esta caja se encuentra una bola que
sobresale de la caja a la que se pegan 4 rodillos ortogonalmente dispuestos que serán los que
definan la dirección de movimiento del ratón. El ratón se mueve por una alfombrilla
ocasionando el movimiento de la bola que a su vez origina el movimiento de uno o varios de
estos rodillos que se transforma en señales eléctricas y producen el efecto de desplazamiento del
ratón por la pantalla del ordenador.
Existen modelos modernos en los que la transmisión se hace por infrarrojos eliminando por
tanto la necesidad de cableado. Otros presentan la bola en la parte superior de la caja no estando
por tanto en contacto con la alfombrilla y teniendo que ser movida por los dedos del usuario
aunque se origina el mismo efecto.
Micrófono: Periférico por el cual transmite sonidos que el ordenador capta y los reproduce, los
salva, etc. Se conecta a la tarjeta de sonido.
Escáner: Es un dispositivo utiliza un haz luminoso para detectar los patrones de luz y oscuridad
(o los colores) de la superficie del papel, convirtiendo la imagen en señales digitales que se
pueden manipular por medio de un software de tratamiento de imágenes o con reconocimiento
óptico.
Un tipo de escáner utilizado con frecuencia es el flatbed, que significa que el dispositivo de
barrido se desplaza a lo largo de un documento fijo. En este tipo de escáneres, como las
fotocopiadoras de oficina, los objetos se colocan boca abajo sobre una superficie lisa de cristal y
son barridos por un mecanismo que pasa por debajo de ellos. Otro tipo de escáner flatbed utiliza
un elemento de barrido instalado en una carcasa fija encima del documento.
Un tipo muy popular de escáner es el escáner de mano, también llamado hand-held, porque el
usuario sujeta el escáner con la mano y lo desplaza sobre el documento. Estos escáneres tienen
la ventaja de ser relativamente baratos, pero resultan algo limitados porque no pueden leer
documentos con una anchura mayor a 12 o 15 centímetros.
Lector de código de barras: dispositivo que mediante un haz de láser lee dibujos formados por
barras y espacios paralelos, que codifica información mediante anchuras relativas de estos
elementos. Los códigos de barras representan datos en una forma legible por el ordenador, y son
uno de los medios más eficientes para la captación automática de datos.
Materia: Introducción Computacional
Cámara digital: Cámara que se conecta al ordenador y le transmite las imágenes que capta,
pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber
varios tipos:
Cámara de fotos digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD
(Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña
memoria donde almacena fotos para después transmitirlas a un ordenador.
Cámara de video: Graba videos como si de una cámara normal se tratara, pero las ventajas que
ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la
que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que
has grabado, para poder retocarlo posteriormente con el software adecuado.
Webcam: Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD. Tiene que
estar conectada al PC para poder funcionar, y esta transmite las imágenes al ordenador. Su uso
es generalmente para videoconferencias por internet, pero mediante el software adecuado, se
pueden grabar videos como una cámara normal y tomar fotos estáticas.
Lápiz Óptico: dispositivo señalador que permite sostener sobre la pantalla un lápiz que está
conectado al ordenador y con el que es posible seleccionar elementos u opciones (el equivalente
a un clic de mouse o ratón), bien presionando un botón en un lateral del lápiz óptico o
presionando éste contra la superficie de la pantalla.
El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra
una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la
punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la
computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que
ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo.
Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el
ordenador puede determinar la posición del lápiz en la pantalla.
El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso
de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante
periodos largos de tiempo llega a cansar al usuario.
Pantalla Táctil: pantalla diseñada o modificada para reconocer la situación de una presión en su
superficie. Al tocar la pantalla, el usuario puede hacer una selección o mover el cursor. El tipo
de pantalla táctil más sencillo está compuesto de una red de líneas sensibles, que determinan la
situación de una presión mediante la unión de los contactos verticales y horizontales.
Otros tipos de pantallas más precisas utilizan una superficie cargada eléctricamente y sensores
alrededor de los bordes externos de la pantalla, para detectar la cantidad de cambio eléctrico y
señalar exactamente donde se ha realizado el contacto. Un tercer tipo fija diodos emisores de
rayos infrarrojos (LEDs, acrónimo de Light-Emitting Diodes) y sensores alrededor de los bordes
externos de la pantalla. Estos LEDs y sensores crean una red invisible de infrarrojos en la parte
delantera de la pantalla que interrumpe el usuario con sus dedos.
Las pantallas táctiles de infrarrojos se usan a menudo en entornos sucios, donde la suciedad
podría interferir en el modo de operación de otros tipos de pantallas táctiles. La popularidad de
las pantallas táctiles entre los usuarios se ha visto limitada porque es necesario mantener las
manos en el aire para señalar la pantalla, lo que sería demasiado incómodo en largos periodos de
tiempo. Además no ofrece gran precisión al tener que señalar ciertos elementos en programas de
alta resolución. Las pantallas táctiles, sin embargo, son enormemente populares en aplicaciones
como los puestos de información porque ofrecen una forma de señalar que no requiere ningún
hardware móvil y porque presionar la pantalla es algo intuitivo.
Dispositivos de salida
Son los dispositivos que reciben información que es procesada por la CPU y la reproducen para
que sea perceptible para la persona.
Monitor: es la pantalla en la que se ve la información suministrada por el ordenador. En el caso
más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los
televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD).
Puntos a tratar en un monitor:
Resolución (RESOLUTION): Se trata del número de puntos que puede representar el monitor
por pantalla, en horizontal x vertical. Así, un monitor cuya resolución máxima sea 1024x 768
puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada una, probablemente
además de otras resoluciones inferiores, como 640x480 u 800x600.
Refresco de Pantalla: Se puede comparar al número de fotogramas por segundo de una película
de cine, por lo que deberá ser lo mayor posible. Se mide en HZ (hertzios) y debe estar por
encima de los 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es
sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos.
Materia: Introducción Computacional
Tamaño de punto (DOT PITCH): Es un parámetro que mide la nitidez de la imagen, midiendo
la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. En
ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo
de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla
empleada para dirigir los haces de electrones.
Lo mínimo, exigible en este momento es que sea de 0,25 mm, no debiéndose admitir nada
superior como no sea en monitores de gran formato para presentaciones, donde la resolución no
es tan importante como el tamaño de la imagen.
Controles y conexiones: Aunque se va cada vez más el uso de monitores con controles digitales,
en principio no debe ser algo determinante a la hora de elegir un monitor, si bien se tiende a que
los monitores con dichos controles sean los más avanzados de la gama.
Multimedia: Algunos monitores llevan acoplados altavoces, e incluso micrófono y/o cámaras de
video. Esto resulta interesante cuando se trata de un monitor de 15'' ó 17'' cuyo uso vaya a ser
doméstico, para juegos o videoconferencias.
Pantalla táctil: véase en dispositivos de entrada.
Impresoras: Dispositivo que sirve para captar la información que le envía la CPU y imprimirla
en papel, plástico, etc. Hay varios tipos:
Matriciales: Ofrecen mayor rapidez pero una calidad muy baja.
Inyección: La tecnología de inyección a tinta es la que ha alcanzado un mayor éxito en las
impresoras de uso doméstico o para pequeñas empresas, gracias a su relativa velocidad, calidad
y sobre todo precio reducidos, que suele ser la décima parte de una impresora de las mismas
características.
Claro está que hay razones de peso que justifican éstas características, pero para imprimir
algunas cartas, facturas y pequeños trabajos, el rendimiento es similar y el coste muy inferior.
Hablamos de impresoras de color porque la tendencia del mercado es que la informática en
conjunto sea en color. Esta tendencia empezó hace una década con la implantación de tarjetas
gráficas y monitores en color. Todavía podemos encontrar algunos modelos en blanco y negro
pero ya no son recomendables.
Las impresoras de inyección cuentan a favor con elementos como el coste, tanto de adquisición
como de mantenimiento, la sencillez de manejo y el tamaño. En contra tenemos su escasa
velocidad y calidad frente a otras tecnologías.
Láser: Ofrecen rapidez y una mayor calidad que cualquiera, pero tienen un alto coste y solo se
suelen utilizar en la mediana y grande empresa. Por medio de un haz de láser imprimen sobre el
material que le pongamos las imágenes que le haya enviado la CPU.
Altavoces: Dispositivos por los cuales se emiten sonidos procedentes de la tarjeta de sonido.
Actualmente existen bastantes ejemplares que cubren la oferta más común que existe en el
mercado. Se trata de modelos que van desde lo más sencillo (una pareja de altavoces estéreo),
hasta el más complicado sistema de Dolby Digital, con nada menos que seis altavoces, pasando
por productos intermedios de 4 o 5 altavoces. Sin duda alguna, se nota perfectamente el
esfuerzo que todos los fabricantes han realizado para ponerse al día en esta tecnología, ya que
en poco tiempo han incorporado a su tecnología desarrollos basados en Dolby Surround o
Dolby Digital.
Los más avanzados constan de 4 altavoces (2 delanteros y 2 traseros) de reducido tamaño, otro
más central para los diálogos y un último altavoz mucho más voluminoso que se encarga de
Materia: Introducción Computacional
realzar las fuerzas de los graves. Hasta aquí todo parece indicar que se trata de otros juegos de
altavoces cuadrafónicos. Pero la diferencia principal de estos sistemas es que incorporan un
descodificador Dolby Digital, mediante el cual, podremos ajustar los volúmenes de cada juego
de altavoces, así como aplicar diferentes filtros de sonido en función del tipo de sonido que
estemos reproduciendo en cada momento (música, película). Para sacar partido de estos
altavoces es necesario que nuestra tarjeta de sonido cuente con una salida S/PDIF de Dolby
Digital ya que a través de ésta es desde donde los conjuntos de altavoces toman el sonido.
La desventaja de este tipo de unidades suele ser la calidad de las mismas. Teniendo en cuenta el
precio de este tipo de conjuntos, en el que se incluye un aparato decodificador, la calidad de los
6s altavoces no puede ser especialmente buena, aunque para un uso casero resulta más que
válida. Otra cuestión es la potencia. Tratándose de altavoces pequeños y baratos no conseguirán
una fidelidad de sonido muy grande a poco que la habitación tenga un tamaño medio.
En cualquier caso los equipos basados en Dolby Digital son muy escasos por el momento y
debemos recurrir a equipos grandes si deseamos una calidad de sonido suficiente y por tanto
será inevitable gastar una cantidad de dinero bastante importante.
Auriculares: son dispositivos colocados en el oído para poder escuchar los sonidos que la tarjeta
de sonido envía. Presentan la ventaja de que no pueden ser escuchados por otra persona, solo la
que los utiliza.
Fax: Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía
teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la
impresión se corta.
Dispositivos de almacenamiento
Son dispositivos que sirven para almacenar el software del ordenador. Se basa en dos tipos de
tecnologías: la óptica y la magnética. La magnética se basa en la histéresis magnética de
algunos materiales y otros fenómenos magnéticos, mientras que la óptica utiliza las propiedades
del láser y su alta precisión para leer o escribir datos.
Disco duro: Un disco duro es un soporte de almacenamiento más o menos perdurable. Tiene
tecnología magnética. Son habituales desde que salió el 286. Un disco duro está compuesto de
numeroso discos de material sensible a los campos magnéticos, apilados unos sobre otros; en
realidad se parece mucho a una pila de disquetes sin fundas y con el mecanismo de giro y el
brazo lector incluido en la carcasa. Su giro posee una velocidad tan alta (unas 4.000 rpm), que
es recomendable instalarle un ventilador para su refrigeración.
Disquetera: Por malo y anticuado que sea un ordenador, siempre dispone de al menos uno de
estos aparatos. Su capacidad es totalmente insuficiente para las necesidades actuales, pero
cuentan con la ventaja que les dan los muchos años que llevan como estándar absoluto para
almacenamiento portátil.
Originariamente los disquetes eran flexibles y bastante grandes, unas 5,25 pulgadas de ancho.
La capacidad primera de 160 Kb se reveló enseguida como insuficiente, por lo que empezó a
crecer y no paró hasta los 1,44 Mb, ya con los disquetes actuales, más pequeños (3,5'') más
rígidos y protegidos por una pestaña metálica.
Las disqueteras son compatibles "hacia atrás"; es decir, que en una disquetera de 3,5'' de alta
densidad (de 1,44 Mb) podemos usar discos de 720 Kb o de 1,44 MB, pero en una de doble
densidad, más antigua, sólo podemos usarlos de 720 Kb.
CD-ROM: La palabra CD-ROM viene de Compact Disc-Read Only Memory. Disco compacto
de solo lectura. Es un soporte óptico. Sistema de almacenamiento de información en el que la
Materia: Introducción Computacional
superficie del disco está recubierta de un material que refleja la luz. La grabación de los datos se
realiza creando agujeros microscópicos que dispersan la luz (pits) alternándolos con zonas que
sí la reflejan (lands). Se utiliza un rayo láser y un fotodiodo para leer esta información. Su
capacidad de almacenamiento es de unos 650 Mb de información (equivalente a unos 74
minutos de sonido grabado).
DVD: Es lo mismo que un CD-ROM pero posee mayor capacidad (410 minutos, frente a los 74
de un CD). Este tan solo ha cambiado la longitud del láser, reducido el tamaño de los agujeros y
apretado los surcos para que quepa más información en el mismo espacio.
Otros dispositivos de almacenamiento:
Zip (Iomega): Caben 100 Mb y utiliza tecnología magnética.
EZFlyer (SyQuest): Caben 230 Mb y tiene una velocidad de lectura muy alta
Discos Flexibles: Dispositivo de entrada-salida. Se diferencian dos tipos según su diámetro, los
de 51/4 y los de 31/2, estas medidas están expresadas en pulgadas (13,3 y 8,8 centímetros). En
los dos tipos hay, segundos de capacidad de almacenamiento, dos grupos: los de doble cara-
doble densidad (DD) y los de doble cara-alta densidad (HD), las capacidades de
almacenamiento son las siguientes:
Discos Duros: Dispositivos de entrada-salida. Difiere de los flexibles en la capacidad, la
velocidad de acceso en el hecho de que no es transportable (removible), sino que está conectado
(en la mayoría de los casos) al interior del ordenador. Las capacidades de los tiempos de acceso
de los discos duros son diversos, en cuanto a la capacidad varían entre 20 Mb (actualmente
desfasados), 40 Mb, 60 Mb, 80 Mb, 120 Mb, 170 Mb hasta los 550, 720, 1 GigaByte o más
(actualmente se ofertan discos de hasta 18 Gb.). Los tiempos de acceso también varían y se
miden en milisegundos.
Discos Ópticos: Dispositivo de entrada-salida. Estos dispositivos utilizan tecnología láser para
grabar los datos. Tienen una gran capacidad de almacenamiento de la orden de Gigabytes (1
Gigabyte=1024Mb- unos mil millones de bytes).
Tipos de Memoria
FPM (Fast Page Mode): El nombre de esta memoria procede del modo en el que hace la
transferencia de datos, que también es llamado paginamiento rápido. Hasta hace
aproximadamente un año ésta memoria era la más popular, era el tipo de memoria normal para
las computadores 386, 486 y los primeros Pentium®, llegó a fabricarse en velocidades de 60ns
y la forma que presentaban era en módulos SIMM de 30 pines y para los equipos Pentium® era
en SIMM de 72 pines.
EDO (Extended Data Output): Esta memoria fue una innovación en cuestión de transmisión de
datos pudiendo alcanzar velocidades de hasta 45ns, dejando satisfechos a los usuarios.
SDRAM (Synchronous DRAM): Esta memoria funciona como su nombre lo indica, se
sincroniza con el reloj del procesador obteniendo información en cada ciclo de reloj, sin tener
que esperar como en los casos anteriores. La memoria SDRAM puede aceptar velocidades de
BUS de hasta 100Mhz, lo que nos refleja una muy buena estabilidad y alcanzar velocidades de
10ns. Se presentan en módulos DIMM, y debido a su transferencia de 64 bits, no es necesario
instalarlo en pares.
RDRAM (Rambus DRAM): Esta memoria tiene una transferencia de datos de 64 bits que se
pueden producir en ráfagas de 2ns, además puede alcanzar taza de transferencia de 533 Mhz con
picos de 1.6Gb/s. Muy pronto alcanzará dominio en el mercado, ya que se estará utilizando en
equipos con el nuevo procesador Pentium 4®.
Es ideal ya que evita los cuellos de botella entre la tarjeta gráfica AGP y la memoria del
sistema, hoy en día se pueden encontrar éste tipo de memorias en las consolas NINTENDO
64®. Será lanzada al mercado por SAMSUNG® e HITACHI®.
Tipos de Memoria ROM
EEPROM (Electrically Erasable Programmable Read-Only Memory): Esta memoria puede ser
borrada y volver a ser programada por medio de una carga eléctrica, pero sólo se puede cambiar
un byte de información a la vez.
MEMORIA FLASH: Es un tipo de memoria EEPROM que es reprogramable, su utilización por
lo regular es en BIOS de ahí su nombre.
Otros tipos de memoria RAM
BEDO (Burst Extended Data Output): Fue diseñada para alcanzar mayores velocidades de BUS.
Trabaja de igual forma que la SDRAM, ó sea, la transferencia de datos se hace en cada ciclo de
reloj, pero esta memoria lo hace en ráfagas (burst), haciendo que los tiempos de entrega
desaparezcan casi totalmente.
DDR SDRAM (Double Data Rate SDRAM ó SDRAM-II): Esta memoria tendrá el mismo
aspecto que un DIMM, pero la diferencia estará en que tendrá más pines, pasando de 168 pines
del actual DIMM a 184 pines, además de tener sólo una muesca en la tableta. Viendo un poco
de voltaje, la DDR trabajará con tan sólo 2.5V, siendo ésta una reducción del 30% respecto a los
actuales 3.3V de la SDRAM. Trabajará a velocidades de 200Mhz.
VRAM: Es como la memoria RAM normal, pero la diferencia reditúa en que podrá ser accedida
al mismo tiempo por el monitor y el procesador de la tarjeta de video, se podrá leer y escribir en
ella al mismo tiempo.
Materia: Introducción Computacional
SGRAM (Synchronous Graphic RAM): Ofrece las mismas capacidades de la memoria SDRAM
pero para las tarjetas gráficas, se utiliza en las nuevas tarjetas gráficas aceleradoras 3D.
MAINBOARD
El mainboard también conocido como motherboard, placa madre o base es uno de los
componentes básicos por no decir el más relevante en una PC. Su función es vital y gran parte
de la calidad del funcionamiento general está determinada por este componente. Su función es
administrar el cpu e interconectar los distintos periféricos.
Así como el CPU es el cerebro, la placa madre es el sistema nervioso.
Componentes básicos:
Zócalo para Microprocesador
Memoria ROM (BIOS)
Bancos de memoria
Chips de soporte o Chipset: Puente norte y sur, Placas onboard.
Buses internos: de control, de direcciones, de datos
Buses externos: los denominados bancos, zócalos o slots
Conexión con una fuente de alimentación y estándares de fabricación (factor de forma).
Microprocesador:
A partir de la 486 en adelante las placas madre ofrecían una posibilidad más de expansión que
era la de colocar distintas unidades de CPU ofreciendo capacidades de procesamiento
diferentes.
Obviamente existen ciertos límites, es así que es común tener una placa base y que ambas
tengan una CPU de frecuencias bastantes dispares pero siempre conservando las misma
características (socket, FSB) con la única excepción del clock y multiplicador del CPU. El
chipset va a determinar automáticamente el clock y multiplicador del CPU (en algunos casos se
puede hacer en forma manual permitiendo el overclocking).
Una placa base de Pentium 3 no es compatible con un Pentium 2, pero una placa base de
Pentium 3 puede soportar tanto uno de 500 MHz como otro de 800 MHz por ejemplo.
Actualmente por razones de costo alguna placas madre económicas ofrecen los procesadores
ensamblados en la misma placa pero en realidad es el cpu soldado al zócalo de expansión.
Zócalos de CPU posibles:
PGA: son el modelo clásico, usado en el 386 y muchos 486; consiste en un cuadrado de
conectores en forma de agujero donde se insertan las patitas del chip por pura presión. Según el
chip, tiene más o menos agujeritos.
Socket, con mecanismo ZIF (Zero Insertion Force). En ellas el procesador se inserta y se retire
sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se
libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos
aseguran la actualización del microprocesador.
Materia: Introducción Computacional
Athlon Thunderbird
Athlon XP
Athlon MP
Otros socket, como el zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium
Overdrive.
Slot A / Slot 1 /Slot 2: Es donde se conectan respectivamente los procesadores Athlon antiguos
de AMD / los procesadores Pentium II y antiguos Pentium III / los procesadores Xeon de Intel
dedicados a servidores de red. Todos ellos son cada vez más obsoletos. El modo de insertarlos
es a similar a una tarjeta gráfica o de sonido, ayudándonos de dos guías de plástico insertadas en
la placa base.
Memoria ROM:
Los motherboards poseen una pequeña porción de memoria ROM donde se aloja el BIOS
(Basic Input / Output System). Antes eran memorias ROM estándar donde no permitían ser
rescritas, pero actualmente se usan EPROM del tipo flash que permite ser rescrita varias veces
(proceso delicado y lento).
Por medio de este BIOS se definen ciertas características que va a tener el sistema, entre ellas
los clocks que van a tener los diferentes buses y además sería un pequeño sistema operativo
básico. Los Sistemas Operativos se comunican con el sistema a través de la BIOS.
Por diversas razones o por simples errores en la programación, los fabricantes suelen ofrecer
actualizaciones de la BIOS que son rescritas por medio un software.
No existen muchos fabricantes de BIOS, podemos limitarnos casi a 3 que son Ami, Award y
Phoenix.
Materia: Introducción Computacional
Zócalos: ISA (8 bits XT): El bus ISA maneja un bus de direcciones de 20 bits y un bus de datos
de 8 bits. El flujo de datos viaja igual que la XT 4.77Mhz.
ISA (16 bits AT): La extensión AT maneja un bus de direcciones de 24 bits y un bus de datos de
16 bits. Este bus físicamente tiene una parte idéntica y una extensión. El flujo de datos fue
duplicado (8.33 Mhz)
Microchannel®: Permite una ruta de datos de 32 bits, más ancha, y una velocidad de reloj
ligeramente más elevada de 10 Mhz, con una velocidad de transferencia máxima de 20 Mbps
frente a los 8 Mbps del bus ISA. Su inconveniente fue que era patentado. IBM intentó poner
freno a la competencia que fabricaba clones.
EISA: Fue la respuesta de la industria a IBM por su Micro Canal. Pretendía funcionar a 32 bits
manteniendo la compatibilidad con el tipo de bus isa, por lo que funcionaba a 8.33mhz.
MCA y EISA no fueron adoptadas (muy poco) porque aumentaba su costo en más de un 50% y
en el momento que fueron creadas su aumento de rendimiento no resultaba necesario.
VESA Local Bus: Se creó con fines de procesamiento de video, para aumentar su rendimiento.
Su bus de datos es de 32 Bits y funcionaba sincrónicamente con el CPU (de ahí el Local Bus).
Irónicamente su buen rendimiento hizo que no sea adoptado masivamente y perdiera terreno con
el PCI, pues al ser sincrónico, a medida que los CPU aumentaban su velocidad el VLB iba a ser
más caro así como sus placas fabricadas, además de una falta de compatibilidad entre
generaciones de CPU.
PCI: Se lo denominó CPU independiente ya que su velocidad no dependía de la frecuencia del
CPU como el VESA. Soporta 32 ó 64 bits en el bus de datos y de direccionamiento. Puede
funcionar a 33, 66 o inclusive 100 Mhz. Actualmente está funcionando a 32 bits y a 33 mhz por
lo que debería contar todavía de futuro, de toda forma va a ser mejorado antes que se use en 64
bits. Esta arquitectura es capaz de auto-configurar las interrupciones, canales de DMA y puertos
que utilizan los periféricos conectados en este tipo de bus.
AGP: Se creó en base al PCI con el único fin que para las placas de video (Accelarated Graphics
Port). La idea es que no comparta el bus con otros dispositivos y además es más rápido.
Por no tener tráfico y ser más veloz se logra mayor velocidad en las imágenes (especialmente en
gráficos 3D). El AGP es administrado completamente por separado del resto de los bus de
datos. Actualmente hay varias especificaciones distintas (1x, 2x, 4x y 8x) que duplica su
velocidad nominal de transmisión.
Este puerto soporta un modo llamado Fast Writes que la memoria de la placa de video puede ser
escrita directamente sin pasar los datos por la memoria principal.
Buses de reciente aparición o por aparecer:
AMR: Audio/Modem Riser. Es un bus de un único zócalo. Fue creado para que se puedan
fabricar módems o placas de audio (o ambas) en una única placa en forma más económica.
CNR: Communication and Network Riser. Parecido al AMR, soporta Audio, Módem y
Ethernet. Se suele usarlo en chips onboard.
Materia: Introducción Computacional
PCI Express: Es el bus que va a reemplazar al PCI, si bien el PCI soporta mayor ancho y
velocidad de lo que se está usando actualmente prefirieron reemplazarlo. Tiene un diseño para
ser utilizado en todo tipo de PC, sea estación de trabajo, de escritorio, portátil o servidor, no es
únicamente para la PC de escritorio como fue diseñado el PCI.
Como viene acostumbrando la industria, el PCI Express a nivel software es compatible
completamente con el PCI por lo que los sistemas operativos no tendrán problemas en
reconocer este tipo de zócalo y utilizarlo. El cambio es idéntico del ISA-8 hacia ISA-16, se le
agrega un pequeño modulo al zócalo ya existente.
Sus ventajas es que las placas de este tipo de bus pueden ser insertadas y removidas en
funcionamiento, su frecuencia es muy superior al PCI estándar y su costo beneficio es muy bajo.
También existen buses de comunicación entre periféricos externos a la PC, estos buses o puertos
pueden ser USB, paralelo, serial, PS/2 y FireWire entre otros. Si bien estos puertos no son
propios del mainboard (como lo es el PCI), sino que son placas que suelen conectarse al
mismísimo PCI, resultan casi imprescindibles y vienen en la mayoría de los casos ya
incorporados (en placas onboard).
Serial:
Es de 1 BIT. Se utiliza básicamente para el Mouse, módem u algún otro periférico de muy baja
velocidad.
Paralelo:
Es de 8 bits, es frecuente su uso en impresoras y lectores escáner. Soportan varios modos
(Normal, EPP y/o ECP) que básicamente cambia la velocidad de lectura escritura (en realidad la
cantidad de operaciones disminuye por transacción).
PS/2:
Su idea era la de liberar un puerto serial para el Mouse y mejorar otros aspectos como el modo
vi direccional. Actualmente los mainboard tienen 2 puertos PS/2 se utilizan para Mouse y
teclado.
USB:
Universal Serial Bus. Como su nombre lo indica, no fue diseñado para ningún periférico en
específico pudiendo utilizar desde escáner, impresoras, teclados, Mouse, grabadoras de CD y un
sin fin de posibilidades.
FireWire:
Algo similar al USB pero mucho más veloz, su idea es la utilizar discos duros, video-filmadoras
digitales. Este tipo de puerto usa el bus PCI 2.1.
Bancos de memoria:
La forma y tipos de memoria son un capítulo aparte por su complejidad. En los mainboards
podremos encontrar básicamente (pero no únicamente) tres tipos de bancos posibles.
Bancos SIMM: Pueden ser de 30 pines (16 bits) o 72 (32 bits).
Materia: Introducción Computacional
Factores de Forma:
Los nuevos requerimientos de alimentación, además de solucionar varios problemas de
cableado interno y de mantener una norma estándar con los gabinetes produjeron algunos
cambios en la forma en que estas placas van a ser fabricadas así como cambiaron sus
respectivos gabinetes.
A los distintos tipos de alimentación y de organización del mainboard se lo denomina Factor de
forma.
Existen varios, tales como Sistemas de plano posterior (LPX), AT de tamaño natural, Baby-AT,
NLX y el más usado actualmente el ATX y sus variantes, mini ATX, flex ATX y algunas
especificas de fabricantes. El ATX está llegando a su fin, pues va a ser reemplazado por una
nueva norma denominada BTX.
ATX
La versión actual del estándar ATX es la 2.1. con alrededor de 10 años de desarrollo, puesta en
práctica y corrección de errores y mejoras han hecho del ATX un formato absolutamente
extendido. Para dar forma a todo el PC lo que se hace es definir un formato de placa base y de
esta dependerá todo el resto de la distribución de componentes.
Cuando hace 10 años se comenzó a trabajar sobre el formato ATX se pensó en mejorar la
situación del procesador, que en el formato Baby AT, quedaba situado entre los slots de
ampliación, para poder dar cabida a tarjetas de expansión de mayores dimensiones, se mejoró
también el conector de corriente simplificándolo y se englobaron todos los conectores
integrados de la placa en la situación que ahora todos conocemos.
Anteriormente la mayoría de los puertos quedaban situados en slots como ocurre ahora en
algunas placas con muchos conectores Firewire o USB. Esta nueva colocación de los conectores
Materia: Introducción Computacional
también dejaba sitio para aumentar el número de slots PCI que por aquel entonces también
estaba ya en funcionamiento.
Por el estándar ATX han pasado diferentes revisiones que han afectado no solo a la forma del
PC sino también a su forma de alimentarse. Por ejemplo, muchos recordarán que con el
lanzamiento del Pentium 4 muchas fuentes de alimentación debieron ser sustituidas por modelos
con conector auxiliar y de 12v para cumplir los estándares de Intel y el tamaño de las cajas
también se vio afectado en longitud para dar cabida a placas base más anchas.
El estándar ATX verá su fin en poco tiempo ya que a principios de año que viene comenzará a
comercializarse un nuevo formato denominado BTX.
Dentro de las especificaciones de ATX encontraremos en la actualidad placas base estándar
ATX, MicroATX y FlexATX. El resto de placas fuera de estas tres grandes ramas son
aplicaciones específicas para entornos específicos.
Si bien puede existir gabinetes de distintos tamaños el ATX define un mínimo y una ubicación
específica de cada componente ensamblado en la placa base.
Gabinete ATX
Micro ATX
MicroATX nace con la intención de reducir el tamaño del PC a la vez que se mantienen el
mayor número de posibilidades de ampliación y de integración del componentes. Se diferencia
básicamente en que el máximo de tarjetas de implicación se reduce a cuatro incluido el AGP.
Flex ATX
Este tipo de placa es lo más reducido que hallaremos dentro de los parámetros marcados por
Intel dentro del estándar ATX. Suele tratarse de placas base muy pensadas en la integración
total de todo lo necesario para conseguir PCs baratos, reducidos y para aplicaciones muy
Materia: Introducción Computacional
especificas como son las de hacer de ordenador de oficina. Normalmente este nivel de
integración hace que opciones como el AGP no se conciban para este tipo de PCs.
SOFTWARE
La palabra software se refiere al equipamiento lógico o soporte lógico de una computadora digital, y
comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea
específica, en contraposición a los componentes físicos del sistema (hardware).
Sistemas operativos
Controladores de dispositivos
Herramientas de diagnóstico
Herramientas de Corrección y Optimización
Servidores
Utilidades
Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas
específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con
especial énfasis en los negocios. Incluye entre otros:
SISTEMAS OPERATIVOS
El sistema operativo es el programa (o software) más importante de un ordenador.
Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema
operativo. Los sistemas operativos sirven para realizar tareas básicas, tales como
reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de
vista archivos y directorios en el disco, y controlan los dispositivos periféricos tales como
impresoras, escáner.
En sistemas grandes, el sistema operativo tiene incluso mayor responsabilidad y poder, es como
un policía de tráfico, se asegura de que los programas y usuarios que están funcionando al
mismo tiempo no interfieran entre ellos. El sistema operativo también es responsable de la
seguridad, asegurándose de que los usuarios no autorizados no tengan acceso al sistema.
Clasificación de los Sistemas Operativos
Los sistemas operativos pueden ser clasificados de la siguiente forma:
Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo.
Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo.
Multiprocesador: soporta el abrir un mismo programa en más de una CPU.
Multitarea: Permite que varios programas se ejecuten al mismo tiempo.
Multitramo: Permite que diversas partes de un solo programa funcionen al mismo tiempo.
Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos como Dos y
Unix, no funcionan en tiempo real.
EJEMPLOS DE SISTEMAS OPERATIVOS
Familia Macintosh
Mac OS 7
Mac OS 8
Mac OS 9
Mac OS X
Familia UNIX
Materia: Introducción Computacional
AIX
AMIX
GNU/Linux
Los Sistemas Operativos, al igual que el Hardware de los computadores, han sufrido una serie
de cambios revolucionarios llamados generaciones. En el caso del Hardware, las generaciones
han sido marcadas por grandes avances en los componentes utilizados, pasando de válvulas
( primera generación ) a transistores ( segunda generación ), a circuitos integrados ( tercera
generación), a circuitos integrados de gran y muy gran escala (cuarta generación). Cada
generación Sucesiva de hardware ha ido acompañada de reducciones substanciales en los
costos, tamaño, emisión de calor y consumo de energía, y por incrementos notables en
velocidad y capacidad.
Generación Cero (década de 1940)
Los primeros sistemas computacionales no poseían sistemas operativos. Los usuarios tenían
completo acceso al lenguaje de la maquina. Todas las instrucciones eran codificadas a mano.
Primera Generación (década de 1950)
Los sistemas operativos de los años cincuenta fueron diseñados para hacer más fluida la
transición entre trabajos. Antes de que los sistemas fueran diseñados, se perdía un tiempo
considerable entre la terminación de un trabajo y el inicio del siguiente. Este fue el comienzo de
los sistemas de procesamiento por lotes, donde los trabajos se reunían por grupos o lotes.
Cuando el trabajo estaba en ejecución, este tenía control total de la maquina. Al terminar cada
trabajo, el control era devuelto al sistema operativo, el cual limpiaba y leía e iniciaba el trabajo
siguiente.
Al inicio de los 50's esto había mejorado un poco con la introducción de tarjetas perforadas (las
cuales servían para introducir los programas de lenguajes de máquina), puesto que ya no había
necesidad de utilizar los tableros enchufables.
Además el laboratorio de investigación General Motors implementó el primer sistema operativo
para la IBM 701. Los sistemas de los 50's generalmente ejecutaban una sola tarea, y la
transición entre tareas se suavizaba para lograr la máxima utilización del sistema. Esto se
conoce como sistemas de procesamiento por lotes de un sólo flujo, ya que los programas y los
datos eran sometidos en grupos o lotes.
La introducción del transistor a mediados de los 50's cambió la imagen radicalmente.
Se crearon máquinas suficientemente confiables las cuales se instalaban en lugares
especialmente acondicionados, aunque sólo las grandes universidades y las grandes
corporaciones o bien las oficinas del gobiernose podían dar el lujo de tenerlas.
Para poder correr un trabajo (programa), tenían que escribirlo en papel (en Fortran o en lenguaje
ensamblador) y después se perforaría en tarjetas. Enseguida se llevaría la pila de tarjetas al
cuarto de introducción al sistema y la entregaría a uno de los operadores. Cuando la
Materia: Introducción Computacional
Los sistemas de bases de datos han adquirido gran importancia. Nuestro mundo es una sociedad
orientada hacia la información, y el trabajo de las bases de datos es hacer que esta información
sea conveniente accesible de una manera controlada para aquellos que tienen derechos de
acceso.
HISTORIA DE WINDOWS
Windows 1.0
En 1985 Microsoft publicó la primera versión de Windows, una interfaz gráfica de usuario
(GUI) para su propio sistema operativo (MS-DOS) que había sido incluido en el IBM PC y
ordenadores compatibles desde 1981.
La primera versión de Microsoft Windows Premium nunca fue demasiado potente ni tampoco
se hizo popular. Estaba severamente limitada debido a los recursos legales de Apple, que no
permitía imitaciones de sus interfaces de usuario. Por ejemplo, las ventanas sólo podían
disponerse en mosaico sobre la pantalla; esto es, nunca podían solaparse u ocultarse unas a
otras. Tampoco había "papelera de reciclaje" debido a que Apple creía que ellos tenían la
patente de este paradigma o concepto. Ambas limitaciones fueron eliminadas cuando el recurso
de Apple fue rechazado en los tribunales. Por otro lado, los programas incluidos en la primera
versión eran aplicaciones "de juguete" con poco atractivo para los usuarios profesionales.
Windows 2.0
Apareció en 1987, y fue un poco más popular que la versión inicial. Gran parte de esta
popularidad la obtuvo de la inclusión en forma de versión "run-time" de nuevas aplicaciones
gráficas de Microsoft, Microsoft Excel y Microsoft Word para Windows. Éstas podían cargarse
desde MS-DOS, ejecutando Windows a la vez que el programa, y cerrando Windows al salir de
ellas. Windows 2 todavía usaba el modelo de memoria 8088 y por ello estaba limitado a 1
megabyte de memoria; sin embargo, mucha gente consiguió hacerlo funcionar bajo sistemas
multitareas como DesqView.
Windows 3.0
La primera versión realmente popular de Windows fue la versión 3.0, publicada en 1990. Ésta
se benefició de las mejoradas capacidades gráficas para PC de esta época, y también del
microprocesador 80386, que permitía mejoras en las capacidades multitarea de las aplicaciones
Windows. Esto permitiría ejecutar en modo multitarea viejas aplicaciones basadas en MS-DOS.
Windows 3 convirtió al IBM PC en un serio competidor para el Apple Macintosh.
OS/2
OS/2 es un sistema operativo de IBM que intentó suceder a DOS como sistema operativo de los
PC. Se desarrolló inicialmente de manera conjunta entre Microsoft e IBM, hasta que la primera
decidió seguir su camino con su Windows 3.0 e IBM se ocupó en solitario de OS/2.
OS/2.1
Durante la segunda mitad de los 80, Microsoft e IBM habían estado desarrollando
conjuntamente OS/2 como sucesor del DOS, para sacar el máximo provecho a las capacidades
del procesador Intel 80286. OS/2 utilizaba el direccionamiento hardware de memoria disponible
en el Intel 80286 para poder utilizar hasta 16 MB de memoria. La mayoría de los programas de
DOS estaban por el contrario limitados a 640 KB de memoria. OS/2 1.x también soportaba
memoria virtual y multitarea.
Más adelante IBM añadió, en la versión 1.1 de OS/2, un sistema gráfico llamado Presentation
Manager (PM). Aunque en muchos aspectos era superior a Windows, su API (Programa de
Materia: Introducción Computacional
Interfaz de Aplicaciones) era incompatible con la que usaban los programas de este último.
(Entre otras cosas, Presentation Manager localizaba el eje de coordenadas X, Y en la parte
inferior izquierda de la pantalla como las coordenadas cartesianas, mientras que Windows
situaba el punto 0,0 en la esquina superior izquierda de la pantalla como otros sistemas
informáticos basados en ventanas).
A principio de los 90, crecieron las tensiones en la relación entre IBM y Microsoft. Cooperaban
entre sí en el desarrollo de sus sistemas operativos para PC y cada uno tenía acceso al código
del otro. Microsoft quería desarrollar Windows aún más, mientras IBM deseaba que el futuro
trabajo estuviera basado en OS/2. En un intento de resolver estas diferencias, IBM y Microsoft
acordaron que IBM desarrollaría OS/2 2.0 para reemplazar a OS/2 1.3 y Windows 3.0, mientras
Microsoft desarrollaría un nuevo sistema operativo, OS/2 3.0, para suceder más adelante al
OS/2 2.0.
Este acuerdo pronto fue dejado de lado y la relación entre IBM y Microsoft terminó. IBM
continuó desarrollando IBM OS/2 2.0 mientras que Microsoft cambió el nombre de su (todavía
no publicado) OS/2 3.0 a Windows NT.
(Microsoft promocionó Windows NT con tanto éxito que la mayoría de la gente no se dio
cuenta de que se trataba de un OS/2 remozado.) Ambos retuvieron los derechos para usar la
tecnología de OS/2 y Windows desarrollada hasta la fecha de terminación del acuerdo.
OS/2 2.0
IBM publicó OS/2 versión 2.0 en 1992. Esta versión suponía un gran avance frente a OS/2 1.3.
Incorporaba un nuevo sistema de ventanas orientado a objetos llamado Workplace Shell como
sustituto del Presentation Manager, un nuevo sistema de ficheros, HPFS, para reemplazar al
sistema de ficheros FAT de DOS usado también en Windows y aprovechaba todas las ventajas
de las capacidades de 32 bit del procesador Intel 80386. También podía ejecutar programas
DOS y Windows, ya que IBM había retenido los derechos para usar el código de DOS y
Windows como resultado de la ruptura.
En respuesta a la aparición de OS/2 2.0 , Microsoft desarrolló Windows 3.1, que incluía
diversas pequeñas mejoras a Windows 3.0 (como las fuentes escalables TrueType), pero que
consistía principalmente en soporte multimedia. Más tarde Microsoft publicó el Windows 3.11
(denominado Windows para trabajo en grupo), que incluía controladores y protocolos
mejorados para las comunicaciones en red y soporte para redes punto a punto.
Materia: Introducción Computacional
Windows NT
Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave
Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de
Compaq, que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo.
Cutler había estado desarrollando un sucesor del VMS en DEC (Digital Equipment
Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y
algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a
Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó
dar soporte al microprocesador Alpha de DEC en NT.
Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de
compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de
recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto
muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba
basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2
Windows NT 3.1
Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una
continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la
Conferencia de Desarrolladores Profesionales de julio de 1992 en San Francisco. Microsoft
anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago
(que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y
su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que
Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición
de Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y
requerían unos elevados recursos de hardware (además de soportar relativamente poco
hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo
a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS.
Windows NT 3.5/3.51
Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la
de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por
otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell
Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva
interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT
3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico,
que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a
Windows NT 3.5x la nueva interfaz gráfica.
Windows NT 4.0
Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para
diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como
Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias
necesidades. El uso de componentes como tarjetas de sonido, módems, etc, tenían que ser
diseñados específicamente para este sistema operativo.
Windows 95
Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado
en agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que
compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con
MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea
preemptive, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago
comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16
Materia: Introducción Computacional
bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación
de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue
denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como
Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, otra para Chicago y
otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con
Windows 3.1.; de este modo Microsoft intentó asegurar algún grado de compatibilidad entre
Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes
Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz
todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un
solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima).
Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a
procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran
el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más
a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones
podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de
aplicaciones de Win16.
Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se
convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y
la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y
Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a
volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con
algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto.
Más adelante fue lanzada una versión con compatibilidad para USB (1.0) que permitía
ejecutarse en computadores (ordenadores) con pocas prestaciones en Hardware. Esta versión
salió al mercado en octubre de 1998
Windows 98
El 25 de junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el
sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que
soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a
las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración
del explorador de Internet en todos los ámbitos del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido
modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa.
Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98, aunque
éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción
de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi
idénticos controladores.
Windows 98 Second Edition (SE)
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998,
cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable
era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola
línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer
en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando
en muchos equipos, mejorando en sí dos cosas importantes:
1) El grave error de solicitud de licencia que simplemente se puede dejar pasar por alto en la
instalación cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de
disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema
operativo
Materia: Introducción Computacional
Windows 2000
En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para
los administradores de sistemas y con una gran cantidad de servicios de red y lo más
importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT.
La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las
estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000
Server, Advanced Server, Datacenter Server).
Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft,
tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que
posee son:
Almacenamiento:
Soporte para FAT16, FAT32 y NTFS.
Cifrado de ficheros (EFS).
Servicio de indexación.
Sistema de archivos distribuido (DFS).
Nuevo sistema de backup (ASR).
Sistema de tolerancia a fallos (RAID) con discos dinámicos (software).
Comunicaciones:
Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento).
Nueva versión de IIS con soporte para HTTP/1.1.
Active Directory.
Balanceo de carga (clustering)
Servicios de instalación desatendida por red (RIS).
Servicios nativos de Terminal Server.
Estos avances marcan un antes y un después en la historia de Microsoft.
Windows XP (Experience)
Materia: Introducción Computacional
REDES
¿Qué es una red?
Una red informática está formada por un conjunto de ordenadores intercomunicados entre sí que
utilizan distintas tecnologías de hardware/software. Las tecnologías que utilizan (tipos de
cables, de tarjetas, dispositivos...) y los programas (protocolos) varían según la dimensión y
función de la propia red. De hecho, una red puede estar formada por sólo dos ordenadores,
aunque también por un número casi infinito; muy a menudo, algunas redes se conectan entre sí
creando, por ejemplo, un conjunto de múltiples redes interconectadas, es decir, lo que
conocemos por Internet
Historia de la Red
En realidad, la historia de la red se puede remontar al principio del siglo XIX. El primer intento
de establecer una red amplia estable de comunicaciones, que abarcara al menos un territorio
nacional, se produjo en Suecia y Francia a principios del siglo XIX. Estos primeros sistemas se
denominaban de telégrafo óptico y consistian en torres, similares a los molinos, con una serie de
brazos o bien persianas. Estos brazos o persianas codificaban la información por sus distintas
posiciones. Estas redes permanecieron hasta mediados del siglo XIX, cuando fueron sustituidas
por el telégrafo. Cada torre, evidentemente, debia de estar a distancia visual de las siguientes;
cada torre repetía la información hasta llegar a su destino. Un sistema similar aparece, y tiene un
protagonismo especial, en la novela Pavana, de Keith Roberts, una ucronía en la cual Inglaterra
ha sido conquistada por la Armada Invencible.
Estos telégrafos ópticos fueron pioneros de algunas técnicas que luego se utilizaron en
transmisiones digitales y analógicas: recuperación de errores, compresión de información y
encriptación, por ejemplo. Se ha calculado que la velocidad efectiva de estos artilugios sería
unos 0.5 bits por segundo, es decir, aproximadamente unos 20 caracteres por minuto.
Supongo que los métodos de señales de humo utilizados por los indios también se podrían
considerar algo así, con la diferencia de que no consistían en un establecimiento permanente, y
que además no funcionaba a nivel nacional.
Posteriormente, la red telegráfica y la red telefónica fueron los principales medios de
transmisión de datos a nivel mundial.
Alexander Graham Bell fue el descubridor del teléfono. En realidad, él hubiera querido que
fuera algo así como una ``radio por cable'', de forma que una central sirviera a los interesados
informaciones habladas a cierta hora del dia, por ejemplo. Evidentemente, pronto se descubrió
que era mucho mejor para la comunicación interpersonal, aunque en Hungría estuvo
funcionando durante cierto tiempo un servicio como el indicado, denominado Telefon Hirmond,
que era una fuente centralizada de noticias, entretenimiento y cultura. A ciertas horas del día,
sonaba el teléfono, se enchufaba un altavoz, y se empezaba a oír, por ejemplo, la saga de los
porretas (en húngaro, claro está).
La primera red telefónica se estableció en los alrededores de Boston, y su primer éxito fue
cuando, tras un choque de trenes, se utilizó el teléfono para llamar a algunos doctores de los
alrededores, que llegaron inmediatamente.
Materia: Introducción Computacional
Los primeros intentos de transmitir información digital se remontan a principios de los 60, con
los sistemas de tiempo compartido ofrecidos por empresas como General Electric y Tymeshare.
Estas redes solamente ofrecían una conexión de tipo cliente-servidor, es decir, el ordenador-
cliente estaba conectado a un solo ordenador-servidor; los ordenadores-clientes a su vez no se
conectaban entre sí.
Pero la verdadera historia de la red comienza en los 60 con el establecimiento de las redes de
conmutación de paquetes. Conmutación de paquetes es un método de fragmentar mensajes en
partes llamadas paquetes, encaminarlos hacia su destino, y ensamblarlos una vez llegados alli.
La conmutación de paquetes se contrapone a la conmutación de circuitos, el método de telefonía
más habitual, donde se establece un circuito físico entre los hablantes. Inicialmente se hacía
mediante interruptores físicos, y hoy en día se hace la mayoría de los casos mediante
interruptores digitales.
El transmitir la información en paquetes tiene bastantes ventajas:
Permite que varios usuarios compartan la misma conexión.
Sólo hace falta reenviar los paquetes que se hayan corrompido, y no toda la información desde
el principio.
Los paquetes pueden llevar información de encaminado: por donde han pasado, de donde
vienen y hacia donde van.
Ademas, dado que se trata de información digital, se puede comprimir o encriptar.
La primera red experimental de conmutación de paquetes se usó en el Reino Unido, en los
National Physics Laboratories; otro experimento similar lo llevó a cabo en Francia la Societè
Internationale de Telecommunications Aeronautiques. Hasta el año 69 esta tecnología no llego a
los USA, donde comenzó a utilizarla el ARPA, o agencia de proyectos avanzados de
investigación para la defensa.
Esta agencia estaba evidentemente interesada en esta tecnología desde el punto de vista de la
defensa nacional. Se trataba de crear un sistema de comunicaciones donde no hubiera ningun
punto central de mando y control, sino que, aunque cualquier punto de la red fuera destruido,
podría ser restituida la comunicación encaminándola por otra ruta. La corporación Rand
aconsejo la creación de tal tipo de red en un informe de 1962.
El ancestro de la InterNet , pues, fue creado por la ARPA y se denominó ARPANET. El plan
inicial se distribuyó en 1967. Los dispositivos necesarios para conectar ordenadores entre si se
llamaron IMP (lo cual, entre otras cosas, significa ``duende'' o ``trasgo''), es decir, Information
Message Processor, y eran un potente miniordenador fabricado por Honeywell con 12 Ks de
memoria principal. El primero se instaló en la UCLA, y posteriormente se instalaron otros en
Santa Barbara, Stanford y Utah. Curiosamente, estos nodos iniciales de la InterNet todavía
siguen activos, aunque sus nombres han cambiado. Los demás nodos que se fueron añadiendo a
la red correspondían principalmente a empresas y universidades que trabajaban con contratos de
Defensa.
Pero InterNet viene de interconexión de redes, y el origen real de la InterNet se situa en 1972,
cuando, en una conferencia internacional, representantes de Francia, Reino Unido, Canada,
Noruega, Japón, Suecia discutieron la necesidad de empezar a ponerse de acuerdo sobre
protocolos, es decir, sobre la forma de enviar información por la red, de forma que todo el
mundo la entendiera.
Un esfuerzo similar había sido llevado a cabo por la CCITT, o Comité Consultivo Internacional
sobre Telefonía y Telegrafía, que fue capaz de poner de acuerdo a todos los países para que cada
uno tuviera un prefijo telefónico, se repartieran los costes de las llamadas entre diferentes
compañías nacionales, y básicamente, cualquier usuario en el mundo pudiera descolgar el
auricular y marcar un número y llamar a su tía en Pernambuco.
Materia: Introducción Computacional
Se trató entonces de conectar esas redes muy diversas a través de pórticos o gateways, que
tradujeran la información del formato comprensible por una red al formato comprensible por
otras redes.
Estos protocolos se referían principalmente a como tenía que estar codificada la información y
cómo se envolvía en los paquetes. Hay muchas maneras posibles de codificar la información
(aunque actualmente se esté llegando a una serie de estándares, por ejemplo, el texto suele estar
codificado utilizando el código ASCII ), y muchas más maneras posibles de indicar errores entre
dos nodos de la red, de incluir en el paquete información sobre rutado, etc. El formato y la
forma de esta información es lo que se denomina protocolo.
Más adelante, de la ARPANET se disgregó la MILNET, red puramente militar, aunque tiene
pórticos que la unen a la InterNet . ARPANET se convirtió en la columna vertebral de la red,
por donde tarde o temprano pasaban todos los mensajes que van por la red.
España fue, paradójicamente, uno de los primeros países de Europa que instaló una red de
conmutación de paquetes, la IBERPAC, que todavía está en servicio. Esta red la utilizan
principalmente empresas con múltiples sucursales, como los bancos, oficinas del gobierno, y,
evidentemente, como soporte para la rama de Internet en España. España se conectó por primera
vez a la Internet en 1985
Tipos de Red
Existen varios tipos de redes, los cuales se clasifican de acuerdo a su tamaño y distribución
lógica.
Clasificación según su tamaño
Las redes PAN (red de administración personal) son redes pequeñas, las cuales están
conformadas por no más de 8 equipos, por ejemplo: café Internet.
CAN: Campus Area Network, Red de Area Campus. Una CAN es una colección de LANs
dispersadas geográficamente dentro de un campus (universitario, oficinas de gobierno, maquilas
o industrias) pertenecientes a una misma entidad en una área delimitada en kilometros. Una
CAN utiliza comúnmente tecnologías tales como FDDI y Gigabit Ethernet para conectividad a
través de medios de comunicación tales como fibra óptica y espectro disperso.
Las redes LAN (Local Area Network, redes de área local) son las redes que todos conocemos,
es decir, aquellas que se utilizan en nuestra empresa. Son redes pequeñas, entendiendo como
pequeñas las redes de una oficina, de un edificio. Debido a sus limitadas dimensiones, son redes
muy rápidas en las cuales cada estación se puede comunicar con el resto. Están restringidas en
tamaño, lo cual significa que el tiempo de transmisión, en el peor de los casos, se conoce.
Además, simplifica la administración de la red.
Suelen emplear tecnología de difusión mediante un cable sencillo (coaxial o UTP) al que están
conectadas todas las máquinas. Operan a velocidades entre 10 y 100 Mbps.
Características preponderantes:
Los canales son propios de los usuarios o empresas.
Los enlaces son líneas de alta velocidad.
Las estaciones están cercas entre sí.
Incrementan la eficiencia y productividad de los trabajos de oficinas al poder compartir
información.
Las tasas de error son menores que en las redes WAN.
Materia: Introducción Computacional
un pequeño grupo de gente. En una ambiente punto a punto, la seguridad es difícil, porque la
administración no está centralizada.
Redes Basadas en servidor. Las redes basadas en servidor son mejores para compartir gran
cantidad de recursos y datos. Un administrador supervisa la operación de la red, y vela que la
seguridad sea mantenida. Este tipo de red puede tener uno o mas servidores, dependiendo del
volumen de tráfico, número de periféricos etc. Por ejemplo, puede haber un servidor de
impresión, un servidor de comunicaciones, y un servidor de base de datos, todos en una misma
red.
Clasificación según su distribución lógica
Todos los ordenadores tienen un lado cliente y otro servidor: una máquina puede ser servidora
de un determinado servicio pero cliente de otro servicio.
Servidor.
Máquina que ofrece información o servicios al resto de los puestos de la red. La clase de
información o servicios que ofrezca determina el tipo de servidor que es: servidor de impresión,
de archivos, de páginas web, de correo, de usuarios, de IRC (charlas en Internet), de base de
datos.
Cliente.
Máquina que accede a la información de los servidores o utiliza sus servicios. Ejemplos: Cada
vez que estamos viendo una página web (almacenada en un servidor remoto) nos estamos
comportando como clientes. También seremos clientes si utilizamos el servicio de impresión de
un ordenador remoto en la red (el servidor que tiene la impresora conectada).
Todas estas redes deben de cumplir con las siguientes características:
Confiabilidad transportar datos.
Transportabilidad dispositivos.
Gran procesamiento de información.
De acuerdo estas, tienen diferentes usos, dependiendo de la necesidad del usuario, como son:
Compañías - centralizar datos.
Compartir recursos periféricos, archivos.
Confiabilidad transporte de datos.
Aumentar la disponibilidad de la información.
Comunicación entre personal de las mismas áreas.
Ahorro de dinero.
Home Banking.
Aportes a la investigación vídeo demanda, line T.V, Game Interactive.
Estaciones de trabajo
Cada computadora conectada a la red conserva la capacidad de funcionar de manera
independiente, realizando sus propios procesos. Asimismo, las computadoras se convierten en
estaciones de trabajo en red, con acceso a la información y recursos contenidos en el servidor de
archivos de la misma. Una estación de trabajo no comparte sus propios recursos con otras
computadoras. Esta puede ser desde una PC XT hasta una Pentium, equipada según las
Materia: Introducción Computacional
necesidades del usuario; o también de otra arquitectura diferente como Macintosh, Silicon
Graphics, Sun, etc.
Servidores
Son aquellas computadoras capaces de compartir sus recursos con otras. Los recursos
compartidos pueden incluir impresoras, unidades de disco, CD-ROM, directorios en disco duro
e incluso archivos individuales. Los tipos de servidores obtienen el nombre dependiendo del
recurso que comparten. Algunos de ellos son: servidor de discos, servidor de archivos, servidor
de archivos distribuido, servidores de archivos dedicados y no dedicados, servidor de
terminales, servidor de impresoras, servidor de discos compactos, servidor web y servidor de
correo.
Equipo de conectividad
Por lo general, para redes pequeñas, la longitud del cable no es limitante para su desempeño;
pero si la red crece, tal vez llegue a necesitarse una mayor extensión de la longitud de cable o
exceder la cantidad de nodos especificada. Existen varios dispositivos que extienden la longitud
Materia: Introducción Computacional
de la red, donde cada uno tiene un propósito específico. Sin embargo, muchos dispositivos
incorporan las características de otro tipo de dispositivo para aumentar la flexibilidad y el valor.
Hubs o concentradores: Son un punto central de conexión para nodos de red que están
dispuestos de acuerdo a una topología física de estrella.
Repetidores: Un repetidor es un dispositivo que permite extender la longitud de la red; amplifica
y retransmite la señal de red.
Puentes: Un puente es un dispositivo que conecta dos LAN separadas para crear lo que aparenta
ser una sola LAN.
Ruteadores: Los ruteadores son similares a los puentes, sólo que operan a un nivel diferente.
Requieren por lo general que cada red tenga el mismo sistema operativo de red, para poder
conectar redes basadas en topologías lógicas completamente diferentes como Ethernet y Token
Ring.
Compuertas: Una compuerta permite que los nodos de una red se comuniquen con tipos
diferentes de red o con otros dispositivos. Podr´a tenerse, por ejemplo, una LAN que consista en
computadoras compatibles con IBM y otra con Macintosh.
Dependiendo de la forma de conducir la señal a través del medio, los medios de transmisión se
pueden clasificar en dos grandes grupos, medios de transmisión guiados y medios de
transmisión no guiados.
Según el sentido de la transmisión podemos encontrarnos con 3 tipos diferentes: Simplex, Half-
Duplex y Full-Duplex.
También los medios de transmisión se caracterizan por utilizarse en rangos de frecuencia de
trabajo diferentes.
Protocolos De Red
Los conjuntos de protocolos son colecciones de protocolos que posibilitan la comunicación de
red desde un host, a través de la red, hacia otro host. Un protocolo es una descripción formal de
un conjunto de reglas y convenciones que rigen un aspecto particular de cómo los dispositivos
de una red se comunican entre sí. Los protocolos determinan el formato, la sincronización, la
secuenciación y el control de errores en la comunicación de datos. Sin protocolos, el
computador no puede armar o reconstruir el formato original del flujo de bits entrantes desde
otro computador.
Los protocolos controlan todos los aspectos de la comunicación de datos, que incluye lo
siguiente:
• Cómo se construye la red física
• Cómo los computadores se conectan a la red
• Cómo se formatean los datos para su transmisión
• Cómo se envían los datos
• Cómo se manejan los errores
Estas normas de red son creadas y administradas por una serie de diferentes organizaciones y
comités. Entre ellos se incluyen el Instituto de Ingeniería Eléctrica y Electrónica (IEEE), el
Instituto Nacional Americano de Normalización (ANSI), la Asociación de la Industria de las
Telecomunicaciones (TIA), la Asociación de Industrias Electrónicas (EIA) y la Unión
Internacional de Telecomunicaciones (UIT), antiguamente conocida como el Comité Consultivo
Internacional Telegráfico y Telefónico (CCITT).
Un escenario típico consiste de un número de principales, tales como individuos, compañías,
computadoras, lectores de tarjetas magnéticas, los cuales se comunican usando una variedad de
canales (teléfono, correo electrónico, radio ) o dispositivos físicos (tarjetas bancarias, pasajes,
cédulas ).
Un protocolo de seguridad define las reglas que gobiernan estas comunicaciones, diseñadas para
que el sistema pueda soportar ataques de carácter malicioso.
Protegerse contra todos los ataques posibles es generalmente muy costoso, por lo cual los
protocolos son diseñados bajo ciertas premisas con respecto a los riesgos a los cuales el sistema
está expuesto.
Existen varios protocolos posibles. Las distintas compañías que instalan y administran este tipo
de redes elige unos u otros protocolos. En todos los casos se cran túneles entre origen y destino.
Dentro de estos túneles viaja la información, bien por una conexión normal (en este caso no se
encriptan los datos) o bien por una conexión VPN. El protocolo IP Sec es uno de los más
Materia: Introducción Computacional
empleados. Este se basa en GRE que es un protocolo de tunneling. Este protocolo también se
utiliza de forma conjunta con otros protocolos como PPTP.
El GRE está documentado en el RFC 1701 y el RFC 1702. Fue diseñado para proporcionar
mecanismos de propósito general, ligeros y simples, para encapsular datos sobre redes IP. El
GRE es un protocolo cliente de IP que usa el protocolo IP 47.
Este protocolo es normalmente usado con VPN de Microsoft entre servidores con acceso remoto
(RRAS) configurados para el enrutamiento entre redes de área local.
Esquema:
GRE se encarga del encapsulamiento de los datos para enviarlos por un túnel, pero él no crea no
los túneles, de eso de encarga el protocolo PPTP u otro que estemos empleando.
El proceso de encapsulamiento tienen los siguientes pasos:
El paquete IP con los datos se transmite desde el Ecliente al servidor E-RRAS.
Se le añade la cabecera del PPP y se cifra todo junto obteniendo un ‘fragmento PPP’.
Los datos cifrados se colocan dentro de un paquete GRE con su correspondiente cabecera.
Se envía el paquete GRE del servidor E-RRAS al servidor R-RRAS a través de Internet.
Este envía se realiza por una conexión VPN creada anteriormente.
El servidor R-RRAS elimina el encabezado GRE, descifra, elimina el encabezado PPP y
transmite los datos (paquete IP) a el Rcliente.
Los datos cifrados se colocan dentro de un paquete GRE con su correspondiente cabecera.
Esquema:
Formato de un paquete GRE
Point-to-Point Tunneling Protocol
El Protocolo de Túnel Punto a Punto (PPTP) encapsula los paquetes (frames) del Protocolo
Punto a Punto (Point-to-Point Protocol, PPP) con datagramas IP para transmitirlos por una red
IP como Internet o una intranet privada.
El PPTP utiliza una conexión TCP conocida como la conexión de control de PPTP para crear,
mantener y terminar el túnel, y una versión modificada de GRE, para encapsular los paquetes
(frames) PPP como datos para el túnel. Las cargas de los paquetes encapsulados pueden estar
encriptadas o comprimidas o ambas cosas.
El PPTP supone la disponibilidad de una red IP entre un cliente PPTP (un cliente de túnel que
utiliza el protocolo PPTP) y un servidor PPTP (un servidor de túnel que utiliza el protocolo
PPTP). El cliente PPTP podría estar ya conectado a una red IP por la que puede tener acceso al
servidor PPTP, o podría tener que llamar telefónicamente a un servidor de acceso de red
(Network Access Server, NAS) para establecer la conectividad IP como en el caso de los
usuarios de accesos telefónicos para Internet.
Materia: Introducción Computacional
La autentificación que ocurre durante la creación de una conexión VPN con PPTP utiliza los
mismos mecanismos de autentificación que las conexiones PPP, tales como el Protocolo de
Autentificación Extendible (Extensible Authentication Protocol, EAP), el Protocolo de
Autentificación con Reto/Negociación de Microsoft (Microsoft Challenge-Handshake
Authentication Protocol, MS-CHAP), el CHAP, el Protocolo de Autentificación de Claves
Shiva (Shiva Password Authentication Protocol, SPAP) y el Protocolo de Autentificación de
Claves (Password Authentication Protocol, PAP). El PPTP hereda la encriptación, la
compresión o ambas de las cargas PPP del PPP. Para servidores PPTP sobre Internet, el servidor
PPTP es un servidor VPN con PPTP con una interface con Internet y una segunda interface con
la intranet.
IP Sec
IP Sec es un grupo de extesiones de la familia del protocolo IP pensado para proveer servicios
de seguridad a nivel de red, de un modo transparente a las aplicaciones superiores.
Es un componente de creación importante para las VPN de acceso. Es una extensión del
protocolo Punto a Punto, fundamental para la creación de VPNs. L2TP combina las mejores
funciones de los otros dos protocolos tunneling. Layer 2 Forwarding (L2F) de Cisco Systems y
Point-to-Point Tunneling (PPTP) de Microsoft. L2TP es un estándar emergente, que se
encuentra actualmente en codesarrollo y que cuenta con el respaldo de Cisco Systems,
Microsoft, Ascend, 3Com y otros líderes en la industria de la conectividad.
A continuación una serie de términos relacionados con este protocolo:
L2TP Access Concentrator (LAC): Se añade un dispositivo LAC a los componentes físicos de
la red conmutada; como la red telefónica convencional o RDSI, o se coloca con un sistema de
terminación PPP capaz de gestionar el protocolo L2TP. Un LAC sólo necesita implementar el
medio sobre el cual opera el L2TP para admitir el tráfico de una o más LNS. Puede “tunelizar”
cualquier protocolo que incluya el PPP. LAC es el iniciador de las llamadas entrantes y el
receptor de las llamadas salientes.
L2TP Network Server (LNS): Un LNS opera sobre cualquier plataforma con capacidad de
terminación PPP. LNS gestiona el lado del servidor del protocolo L2TP. Ya que L2TP se apoya
sobre el medio al que llegan los túneles L2TP, LNS sólo puede tener un único interfaz LAN o
WAN, aunque es capaz de terminar las llamadas entrantes en cualquiera de la amplia gama de
los interfaces PPP LAC (asíncronos, RDSI, PPP sobre ATM, PPP sobre Frame Relay).
Network Access Server (Servidor de acceso a la red): NAS es un dispositivo que proporciona a
los usuarios acceso temporal a la red bajo demanda. Este acceso es punto a punto, de uso típico
en líneas de la red telefónica convencional o RDSI. En la implementación Cisco, un NAS sirve
como LAC.
Para que los paquetes de datos puedan viajar desde el origen hasta su destino a través de una
red, es importante que todos los dispositivos de la red hablen el mismo lenguaje o protocolo. Un
protocolo es un conjunto de reglas que hacen que la comunicación en una red sea más eficiente.
Por ejemplo, al pilotar un avión, los pilotos obedecen reglas muy específicas para poder
comunicarse con otros aviones y con el control de tráfico aéreo.
Un protocolo de comunicaciones de datos es un conjunto de normas, o un acuerdo, que
determina el formato y la transmisión de datos.
La Capa 4 del computador de origen se comunica con la Capa 4 del computador de destino. Las
normas y convenciones utilizadas para esta capa reciben el nombre de protocolos de la Capa 4.
Es importante recordar que los protocolos preparan datos en forma lineal.
El protocolo en una capa realiza un conjunto determinado de operaciones sobre los datos al
prepararlos para ser enviados a través de la red. Los datos luego pasan a la siguiente capa, donde
otro protocolo realiza otro conjunto diferente de operaciones.
Una vez que el paquete llega a su destino, los protocolos deshacen la construcción del paquete
que se armó en el extremo de origen. Esto se hace en orden inverso. Los protocolos para cada
capa en el destino devuelven la información a su forma original, para que la aplicación pueda
leer los datos correctamente.
Para mediados de la década de 1980, estas empresas comenzaron a sufrir las consecuencias de
la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma
tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e
implementaciones tenían dificultades para intercambiar información.
El mismo problema surgía con las empresas que desarrollaban tecnologías de networking
privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de
empresas controla todo uso de la tecnología. Las tecnologías de networking que respetaban
reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas
propietarias diferentes.
Materia: Introducción Computacional
En el modelo de referencia OSI, hay siete capas numeradas, cada una de las cuales ilustra una
función de red específica. - La división de la red en siete capas permite obtener las siguientes
ventajas:
• Divide la comunicación de red en partes más pequeñas y fáciles de manejar.
• Normaliza los componentes de red para permitir el desarrollo y el soporte de los
productos por diferentes fabricantes
• Permite a los distintos tipos de hardware y software de red comunicarse entre sí.
• Evita que los cambios en una capa afecten las otras capas.
• Divide la comunicación de red en partes más pequeñas para simplificar el aprendizaje.
Para que los datos puedan viajar desde el origen hasta su destino, cada capa del modelo OSI en
el origen debe comunicarse con su capa par en el lugar destino. Esta forma de comunicación se
conoce como de par-a-par. Durante este proceso, los protocolos de cada capa intercambian
información, denominada unidades de datos de protocolo (PDU). Cada capa de comunicación
en el computador origen se comunica con un PDU específico de capa, y con su capa par en el
computador destino, como lo ilustra la figura 6 .
Los paquetes de datos de una red parten de un origen y se envían a un destino. Cada capa
depende de la función de servicio de la capa OSI que se encuentra debajo de ella. Para brindar
este servicio, la capa inferior utiliza el encapsulamiento para colocar la PDU de la capa superior
en su campo de datos, luego le puede agregar cualquier encabezado e información final que la
capa necesite para ejecutar su función.
Posteriormente, a medida que los datos se desplazan hacia abajo a través de las capas del
modelo OSI, se agregan encabezados e información final adicionales. Después de que las Capas
7, 6 y 5 han agregado su información, la Capa 4 agrega más información. Este agrupamiento de
datos, la PDU de la Capa 4, se denomina segmento.
Materia: Introducción Computacional
La capa de red presta un servicio a la capa de transporte y la capa de transporte presenta datos al
subsistema de internetwork. La tarea de la capa de red consiste en trasladar esos datos a través
de la internetwork. Ejecuta esta tarea encapsulando los datos y agregando un encabezado, con lo
que crea un paquete (la PDU de la Capa 3). Este encabezado contiene la información necesaria
para completar la transferencia, como, por ejemplo, las direcciones lógicas origen y destino.
La capa física también suministra un servicio a la capa de enlace de datos. La capa física
codifica los datos de la trama de enlace de datos en un patrón de unos y ceros (bits) para su
transmisión a través del medio (generalmente un cable) en la Capa 1
Modelo TCP/IP
• Capa de Internet
• Capa de acceso a la red
Aunque algunas de las capas del modelo TCP/IP tienen el mismo nombre que las capas del
modelo OSI, las capas de ambos modelos no se corresponden de manera exacta. Lo más notable
es que la capa de aplicación posee funciones diferentes en cada modelo.
Los diseñadores de TCP/IP sintieron que la capa de aplicación debía incluir los detalles de las
capas de sesión y presentación OSI. Crearon una capa de aplicación que maneja aspectos de
representación, codificación y control de diálogo.
La capa de transporte se encarga de los aspectos de calidad del servicio con respecto a la
confiabilidad, el control de flujo y la corrección de errores. Uno de sus protocolos, el protocolo
para el control de la transmisión (TCP), ofrece maneras flexibles y de alta calidad para crear
comunicaciones de red confiables, sin problemas de flujo y con un nivel de error bajo.
El propósito de la capa Internet es dividir los segmentos TCP en paquetes y enviarlos desde
cualquier red. Los paquetes llegan a la red de destino independientemente de la ruta que
utilizaron para llegar allí. El protocolo específico que rige esta capa se denomina Protocolo
Internet (IP). En esta capa se produce la determinación de la mejor ruta y la conmutación de
paquetes.
IP sirve como protocolo universal que permite que cualquier computador en cualquier parte del
mundo pueda comunicarse en cualquier momento.
Comparando el modelo OSI con los modelos TCP/IP, surgen algunas similitudes y diferencias.
Aunque los protocolos TCP/IP representan los estándares en base a los cuales se ha desarrollado
la Internet, este currículum utiliza el modelo OSI por los siguientes motivos:
• Es un estándar genérico, independiente de los protocolos.
• Es más detallado, lo que hace que sea más útil para la enseñanza y el aprendizaje.
• Al ser más detallado, resulta de mayor utilidad para el diagnóstico de fallas.
Los profesionales de networking tienen distintas opiniones con respecto al modelo que se debe
usar. Dada la naturaleza de esta industria, es necesario familiarizarse con ambos. A lo largo de
todo el currículum se hará referencia a ambos modelos, el OSI y el TCP/IP. Se hará énfasis en
lo siguiente:
• TCP como un protocolo de Capa 4 OSI
• IP como un protocolo de Capa 3 OSI
• Ethernet como una tecnología de Capa 2 y Capa 1
Recuerden que hay una diferencia entre un modelo y un protocolo que realmente se utiliza en
networking.
Se utilizará el modelo OSI para describir protocolos TCP/IP
Habría que señalar un tipo muy particular de red de área local, son las denominadas intranets,
éstas redes se utilizan para conectar pequeñas subredes entre si que pudiera tener incluso
diferentes topologías, y lo hacen al estilo de una red amplia.
Redes de área metropolitana (MAN).
Tenemos que si el alcance de la red es a nivel, municipal entonces se tiene una red tipo MAN
(Metropolitan Area Network). La idea de una red de área amplia es conectar equipos de
cómputo a través de líneas privadas o públicas que son propiedad de alguna empresa privada o
gubernamental como compañías telefónicas o de TV por cable. Utilizan protocolos para redes
de área local y son administradas y mantenidas por la compañía dueña de las líneas.
Redes de área amplia (WAN).
Las redes de área amplia conectan equipos distantes entre sí, su alcance es de kilómetros,
típicamente de alcance global. A diferencia de las redes LAN y MAN, este tipo de redes no
tienen un administrador en particular, más bien son mantenidas por los mismos usuarios quienes
prestan sus recursos ( que pueden ser dispositivos de interconexión como ruteadores, puentes,
etc.) para conectar redes privadas con el resto del mundo.
El Cable Par Trenzado
Es de los más antiguos en el mercado y en algunos tipos de aplicaciones es el más común.
Consiste en dos alambres de cobre o a veces de aluminio, aislados con un grosor de 1 mm
aproximadamente. Los alambres se trenzan con el propósito de reducir la interferencia eléctrica
de pares similares cercanos. Los pares trenzados se agrupan bajo una cubierta común de PVC
(Poli cloruro de Vinilo) en cables multipares de pares trenzados (de 2, 4, 8, hasta 300 pares).
Sin embargo es importante aclarar que habitualmente este tipo de cable no se maneja por
unidades, sino por pares y grupos de pares, paquete conocido como cable multipar. Todos los
cables del multipar están trenzados entre sí con el objeto de mejorar la resistencia de todo el
grupo hacia diferentes tipos de interferencia electromagnética externa. Por esta razón surge la
necesidad de poder definir colores para los mismos que permitan al final de cada grupo de
cables conocer qué cable va con cual otro.
Los colores del aislante están normalizados a fin de su manipulación por grandes cantidades.
Para Redes Locales los colores estandarizados son:
• Naranja / Blanco – Naranja.
• Verde / Blanco – Verde.
• Blanco / Azul – Azul
Materia: Introducción Computacional
Categoría 1: Este tipo de cable esta especialmente diseñado para redes telefónicas, es el típico
cable empleado para teléfonos por las compañías telefónicas. Alcanzan como máximo
velocidades de hasta 4 Mbps.
Categoría 4: Esta definido para redes de ordenadores tipo anillo como Token Ring con un ancho
de banda de hasta 20 Mhz y con una velocidad de 20 Mbps.
Categoría 5e: Es una categoría 5 mejorada. Minimiza la atenuación y las interferencias. Esta
categoría no tiene estandarizadas las normas aunque si esta diferenciada por los diferentes
organismos.
Categoría 7: No esta definida y mucho menos estandarizada. Se definirá para un ancho de banda
de 600 Mhz. El gran inconveniente de esta categoría es el tipo de conector seleccionado que es
un RJ-45 de 1 pines.
El Cable Coaxial.
El cable coaxial tenía una gran utilidad en sus inicios por su propiedad idónea de
transmisión de voz, audio y video, además de textos e imágenes.
Se usa normalmente en la conexión de redes con topología de Bus como Ethernet y
ArcNet, se llama así porque su construcción es de forma coaxial. La construcción del cable
debe de ser firme y uniforme, por que si no es así, no se tiene un funcionamiento adecuado.
Este conexionado está estructurado por los siguientes componentes de adentro hacia fuera de la
siguiente manera:
• Un núcleo de cobre sólido, o de acero con capa de cobre, o bien de una serie de fibras de
alambre de cobre entrelazadas dependiendo del fabricante.
• Una capa de aislante que recubre el núcleo o conductor, generalmente de material de
polivinilo, este aislante tiene la función de guardar una distancia uniforme del conductor
con el exterior.
• Una capa de blindaje metálico, generalmente cobre o aleación de aluminio entretejido (a
veces solo consta de un papel metálico) cuya función es la de mantenerse lo mas apretado
posible para eliminar las interferencias, además de que evita de que el eje común se rompa o
se tuerza demasiado, ya que si el eje común no se mantiene en buenas condiciones, trae
como consecuencia que la señal se va perdiendo, y esto afectaría la calidad de la señal.
• Por último, tiene una capa final de recubrimiento, de color negro en el caso del cable coaxial
delgado o amarillo en el caso del cable coaxial grueso, este recubrimiento normalmente
suele ser de vinilo, xelón ó polietileno uniforme para mantener la calidad de las señales.
El cable coaxial es mucho más rígido que el par trenzado, por lo que al realizar las conexiones
entre redes la labor será más dificultosa.
La velocidad de transmisión que podemos alcanzar con el cable coaxial llega solo hasta
10Mbps, en cambio con el par trenzado se consiguen 100Mbps.
Algunos tipos de Cable Coaxial:
El RG-75 se usa principalmente para televisión
Cada cable tiene su uso. Por ejemplo, los cables RG-8, RG-11 y RG-58 se usan para redes de
datos con topología de Bus como Ethernet y ArcNet.
• Banda Base:
Existen básicamente dos tipos de cable coaxial. El de Banda Base, que es el normalmente
empleado en redes de ordenadores, con una resistencia de 50Ohm, por el que fluyen señales
digitales.
• Banda Ancha:
El cable coaxial de banda ancha normalmente mueve señales analógicas, posibilitando la
transmisión de gran cantidad de información por varias frecuencias, y su uso más común es la
televisión por cable.
Los factores a tener en cuenta a la hora de elegir un cable coaxial son su ancho de banda, su
resistencia o impedancia característica, su capacidad y su velocidad de propagación.
El ancho de banda del cable coaxial está entre los 500Mhz, esto hace que el cable coaxial sea
ideal para transmisión de televisión por cable por múltiples canales.
La resistencia o la impedancia característica depende del grosor del conductor central o malla, si
varía éste, también varía la impedancia característica.
Conexión fibra óptica.- Esta conexión es cara, permite transmitir la información a gran
velocidad e impide la intervención de las líneas. Como la señal es transmitida a través de luz,
existen muy pocas posibilidades de interferencias eléctrica o emisión de señal. El cable consta
de dos núcleos ópticos, uno interno y otro externo, que refractan la luz de forma distinta. La
fibra está encapsulada en un cable protector .
Tipos de Fibra
Fibra Monomodo:
Son fibras que tienen el diámetro del núcleo en el mismo orden de magnitud que la longitud de
onda de las señales ópticas que transmiten, es decir, de unos 5 a 8 m m. Si el núcleo está
constituido de un material cuyo índice de refracción es muy diferente al de la cubierta, entonces
se habla de fibras monomodo de índice escalonado. Los elevados flujos que se pueden alcanzar
constituyen la principal ventaja de las fibras monomodo, ya que sus pequeñas dimensiones
implican un manejo delicado y entrañan dificultades de conexión que aún se dominan mal.
Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que llega hasta
los 500MHz por kilómetro. Su principio se basa en que el índice de refracción en el interior del
núcleo no es único y decrece cuando se desplaza del núcleo hacia la cubierta. Los rayos
luminosos se encuentran enfocados hacia el eje de la fibra, como se puede ver en el dibujo.
Estas fibras permiten reducir la dispersión entre los diferentes modos de propagación a través
del núcleo de la fibra.
Las fibras multimodo de índice escalonado están fabricadas a base de vidrio, con una atenuación
de 30 dB/km, o plástico, con una atenuación de 100 dB/km. Tienen una banda de paso que llega
hasta los 40 MHz por kilómetro. En estas fibras, el núcleo está constituido por un material
uniforme cuyo índice de refracción es claramente superior al de la cubierta que lo rodea. El paso
desde el núcleo hasta la cubierta conlleva por tanto una variación brutal del índice, de ahí su
nombre de índice escalonado.