You are on page 1of 39

Medios Guiados

En un medio guiado las ondas son conducidas (guiadas) a través de un camino físico, los
medios guiados son los que utilizan un cable. Como ejemplo de medios guiados tenemos:

 Cable coaxial
 La fibra óptica
 Par trenzado.

CABLE COAXIAL

El cable coaxial es un cable formado por dos conductores concéntricos: Un conductor


central o núcleo, formado por un hilo sólido o trenzado de cobre (llamado positivo o vivo),
Un conductor exterior en forma de tubo o vaina, y formado por una malla trenzada de cobre
o aluminio o bien por un tubo, en caso de cables semirígidos. Este conductor exterior
produce un efecto de blindaje y además sirve como retorno de las corrientes.

El primero está separado del segundo por una capa aislante llamada dieléctrico. De la calidad del
dieléctrico dependerá principalmente la calidad del cable. Todo el conjunto puede estar protegido
por una cubierta aislante.

Existen múltiples tipos de cable coaxial, cada uno con un diámetro e impedancia diferentes. El
cable coaxial no es habitualmente afectado por interferencias externas, y es capaz de lograr altas
velocidades de transmisión en largas distancias. Por esa razón, se utiliza en redes de comunicación
de banda ancha (cable de televisión) y cables de banda base (Ethernet).
El cable coaxial se reemplaza por la fibra óptica en distancias superiores a varios kilómetros,
porque el ancho de banda de esta última es muy superior, lo que justifica su mayor costo y su
instalación más delicada.

TIPOS DE CABLE COAXIAL


Los dieléctricos utilizados para separar el conductor central de la vaina externa definen de manera
importante el coeficiente de velocidad, y por lo tanto, la calidad del cable. Entre los materiales
más comunes utilizados se encuentran:

1. Cable coaxial con dieléctrico de aire: se diferencian dos tipos, en unos se utiliza de soporte
y de separación entre conductores una espiral de polietileno y en otros existen unos
canales o perforaciones a lo largo del cable de modo que el polietileno sea el mínimo
imprescindible para la sujeción del conductor central. Son cables que presentan unas
atenuaciones muy bajas.
2. Cable dieléctrico de polietileno celular o esponjoso: presenta más consistencia que el
anterior pero también tiene unas pérdidas más elevadas.
3. Cable coaxial con dieléctricos de polietileno macizo: de mayores atenuaciones que el
anterior y se aconseja solamente para conexiones cortas (10–15 m aproximadamente).
4. Cable con dieléctrico de teflón: tiene pocas pérdidas y se utiliza en microondas.

Dependiendo del grosor tenemos:

—Cable coaxial delgado (Thin coaxial): El RG-58 es un cable coaxial delgado: a este tipo
de cable se le denomina delgado porque es menos grueso que el otro tipo de cable coaxial,
debido a esto es menos rígido que el otro tipo, y es más fácil de instalar.

—Cable coaxial grueso (Thick coaxial): Los RG8 y Rg11 son cables coaxiales gruesos:
estos cables coaxiales permiten una transmisión de datos de mucha distancia sin debilitarse
la señal, pero el problema es que, un metro de cable coaxial grueso pesa hasta medio
kilogramo, y no puede doblarse fácilmente. Un enlace de coaxial grueso puede ser hasta 3
veces mas largo que un coaxial delgado. Dependiendo de su banda tenemos:

—Banda base: Existen básicamente dos tipos de cable coaxial. El de Banda Base, que es el
normalmente empleado en redes de ordenadores, con una resistencia de 50Ohm, por el que
fluyen señales digitales.
—Banda ancha: El cable coaxial de banda ancha normalmente mueve señales analógicas,
posibilitando la transmisión de gran cantidad de información por varias frecuencias, y su
uso más común es la televisión por cable.

Los factores a tener en cuenta a la hora de elegir un cable coaxial son su ancho de banda, su
resistencia o impedancia característica, su capacidad y su velocidad de propagación.

El ancho de banda del cable coaxial está entre los 500Mhz, esto hace que el cable coaxial
sea ideal para transmisión de televisión por cable por múltiples canales.

La resistencia o la impedancia característica depende del grosor del conductor central o


malla, si varía éste, también varía la impedancia característica.

PAR TRENZADO

Lo que se denomina cable de Par Trenzado consiste en dos alambres de cobre aislados, que
se trenzan de forma helicoidal, igual que una molécula de DNA. De esta forma el par
trenzado constituye un circuito que puede transmitir datos. Esto se hace porque dos
alambres paralelos constituyen una antena simple. Cuando se trenzan los alambres, las
ondas de diferentes vueltas se cancelan, por lo que la radiación del cable es menos efectiva.
Así la forma trenzada permite reducir la interferencia eléctrica tanto exterior como de pares
cercanos.
Un cable de par trenzado está formado por un grupo de pares trenzados, normalmente
cuatro, recubiertos por un material aislante.

Cada uno de estos pares se identifica mediante un color, siendo los colores asignados y las
agrupaciones de los pares de la siguiente forma:

 Par 1: Blanco-Azul/Azul
 Par 2: Blanco-Naranja/Naranja
 Par 3: Blanco-Verde/Verde
 Par 4: Blanco-Marrón/Marrón

Los pares trenzados se apantallan. De acuerdo con la forma en que se realiza este
apantallamiento podemos distinguir varios tipos de cables de par trenzado, éstos se
denominan mediante las siglas UTP, STP y FTP.

1. UTP es como se denominan a los cables de par trenzado no apantallados, son los más
simples, no tienen ningún tipo de pantalla conductora. Su impedancia es de 100 onmhios,
y es muy sensible a interferencias. Los pares están recubiertos de una malla de teflón que
no es conductora. Este cable es bastante flexible.
2. STP es la denominación de los cables de par trenzado apantallados individualmente, cada
par se envuelve en una malla conductora y otra general que recubre a todos los pares.
Poseen gran inmunidad al ruido, pero una rigidez máxima.
3. En los cables FTP los pares se recubren de una malla conductora global en forma trenzada.
De esta forma mejora la protección frente a interferencias, teniendo una rigidez
intermedia.

Dependiendo del número de pares que tenga el cable, del número de vueltas por metro que
posea su trenzado y de los materiales utilizados, los estándares de cableado estructurado
clasifican a los cables de pares trenzados por categorías: 1, 2, 3, 4, 5, 5e, 6 y 7. Las dos
últimas están todavía en proceso de definición.

 Categoría 3: soporta velocidades de transmisión hasta 10 Mbits/seg. Utilizado para


telefonía de voz, 10Base-T Ethernet y Token ring a 4 Mbits/seg.
 Categoría 4: soporta velocidades hasta 16 Mbits/seg. Es aceptado para Token Ring a 16
Mbits/seg.
 Categoría 5: hasta 100 Mbits/seg. Utilizado para Ethernet 100Base-TX.
 Categoría 5e: hasta 622 Mbits/seg. Utilizado para Gigabit Ethernet.
 Categoría 6: soporta velocidades hasta 1000 Mbits/seg.

El cable de Par Trenzado debe emplear conectores RJ45 para unirse a los distintos
elementos de hardware que componen la red. Actualmente de los ocho cables sólo cuatro se
emplean para la transmisión de los datos. Éstos se conectan a los pines del conector RJ45
de la siguiente forma: 1, 2 (para transmitir), 3 y 6 (para recibir).

FIBRA OPTICA

Consta de un hilo construido a partir de cristal por el cual viaja la luz de un laser, el cual
realiza la transmisión de la información a una velocidad equivalente a la de la luz, dado que
es un medio totalmente óptico, osea, no utiliza señales eléctricas para poder viajar por
dentro del hilo de cristal y por lo que se usa la luz de un láser. Es el medio mas rápido
existente en transmisiones a la vez que caro y muy difícil de trabajar. Un cable de fibra
óptica es un cable compuesto por un grupo de fibras ópticas por el cual se transmiten
señales luminosas. Las fibras ópticas comparten su espacio con hiladuras de aramida que
confieren al cable la necesaria resistencia a la tracción. Los cables de fibra óptica
proporcionan una alternativa a los cables de hilo de cobre en la industria de la electrónica y
las telecomunicaciones. Así, un cable con 8 fibras ópticas, tamaño bastante más pequeño
que los utilizados habitualmente, puede soportar las mismas comunicaciones que 60 cables
de 1623 pares de cobre o 4 cables coaxiales de 8 tubos, todo ello con una distancia entre
repetidores mucho mayor. Por otro lado, el peso del cable de fibras es muchísimo menor
que el de los cables de cobre, ya que una bobina del cable de 8 fibras antes citado puede
pesar del orden de 30 kg/km, lo que permite efectuar tendidos de 2 a 4 km de una sola vez,
mientras que en el caso de los cables de cobre no son prácticas distancias superiores a 250 -
300 m. Los tipos de fibra óptica son:

—Fibra multimodal En este tipo de fibra viajan varios rayos ópticos reflejándose a
diferentes ángulos, los diferentes rayos ópticos recorren diferentes distancias y se desfasan
al viajar dentro de la fibra. Por esta razón, la distancia a la que se puede trasmitir está
limitada.

—Fibra multimodal con índice graduado En este tipo de fibra óptica el núcleo está hecho
de varias capas concéntricas de material óptico con diferentes índices de refracción. En
estas fibras el número de rayos ópticos diferentes que viajan es menor y, por lo tanto, sufren
menos el severo problema de las multimodales.

—Fibra monomodal Esta fibra óptica es la de menor diámetro y solamente permite viajar al
rayo óptico central. No sufre del efecto de las otras dos pero es más difícil de construir y
manipular. Es también más costosa pero permite distancias de transmisión mayores.
LA TRANSMISION

Para efectuar la transmisión se pueden usar dos técnicas: banda base y banda ancha.
Transmite en banda base el par trenzado y el coaxial de banda base, y en banda ancha el
coaxial de banda ancha la fibra óptica.

CONCLUSION

El cable coaxial tiene como ventaja respecto del cable de tipo par trenzado, que está más
apantallado, consigue mayores velocidades al tener un ancho de banda mayor y permite
mayor longitud. Como desventaja, que es más caro y de difícil instalación. El cable de fibra
óptica, es un medio que se está empezando a utilizar par la interconexión de redes de área
local. Aunque es difícil de instalar, de mantener y costoso, se tiene a su utilización por las
velocidades que puede alcanzar y la seguridad y fiabilidad de las transmisiones. La señal
que se transmite a través del cable de fibra óptica es luminosa, esta se transmite a través de
un cable que está compuesto de fibras de vidrio. Dentro de la fibra óptica se pueden
distinguir las fibras monomodo, en estas el diámetro del núcleo es igual a la longitud de la
señal que se transmite, por lo que se consiguen velocidades de transmisión muy altas. Y la
fibra multimodo, el tamaño del núcleo es mayor, lo que permite que la señal vaya
rebotando y se puedan transmitir varios haces a la vez con distinto ángulo de incidencia. La
desventaja que tiene es que al ir rebotando la señal, la velocidad de propagación es menor y
la señal se atenúa, otra desventaja es que se puede producir distorsión nodal (rebotes con
distintos ángulos de incidencia). La fibra multimodo de índice gradual, consigue que el
índice de refracción de la parte interna del cable sea homogéneo con lo que se elimina la
distorsión nodal. Ventajas de la fibra óptica: Puede alcanzar velocidades de transmisión de
1 Gb./seg., tienen gran fiabilidad y seguridad, una gran calidad y resistencia, y como
inconvenientes que son muy difíciles de instalar y son muy caras.

Cable De Par Trenzado Señal Electrica


CABLE PAR TRENZADO

Es de los más antiguos en el mercado y en algunos tipos de


aplicaciones es el más común, consiste en dos alambres de cobre o a veces
de aluminio, aislados con un grosor de 1 mm aproximado. Los alambres se
trenzan con el propósito de reducir la interferencia eléctrica de pares
similares cercanos. Los pares trenzados se agrupan bajo una cubierta
común de PVC (Policloruro de Vinilo) en cables multipares de pares
trenzados (de 2, 4, 8, …hasta 300 pares).

Un ejemplo de par trenzado es el sistema de telefonía, ya que la


mayoría de aparatos se conectan a la central telefónica por intermedio de
un par trenzado. Actualmente se han convertido en un estándar, de hecho
en el ámbito de las redes LAN, como medio de transmisión en las redes de
acceso a usuarios (típicamente cables de 2 ó 4 pares trenzados). A pesar
que las propiedades de transmisión de cables de par trenzado son
inferiores y en especial la sensibilidad ante perturbaciones extremas a
las del cable coaxial, su gran adopción se debe al costo, su flexibilidad
y facilidad de instalación, así como las mejoras tecnológicas constantes
introducidas en enlaces de mayor velocidad, longitud, etc.

Básicamente se utilizan se utilizan los siguientes tipos de cable pares trenzados:

CABLE DE PAR TRENZADO NO APANTALLADO (UTP, Unshielded Twisted Pair):

Cable de pares trenzados más simple y empleado, sin ningún tipo de


apantalla adicional y con una impedancia característica de 100 Ohmios. El
conector más frecuente con el UTP es el RJ 45?, parecido al utilizado en
teléfonos RJ 11? (pero un poco mas grande), aunque también puede usarse
otro (RJ 11, DB 25,DB 11?,etc), dependiendo del adaptador de red.

Es sin duda el que hasta ahora ha sido mejor aceptado, por su costo
accesibilidad y fácil instalación. Sus dos alambres de cobre torcidos
aislados con plástico PVC, han demostrado un buen desempeño en las
aplicaciones de hoy. Sin embargo a altas velocidades puede resultar
vulnerable a las interferencias electromágneticas del medio ambiente.

CABLE DE PAR TRENZADO APANTALLADOS (STP, kshielded Twisted Pair):

En este caso, cada par va recubierto por una malla conductora que
actúa de apantalla frente a interferencias y ruido eléctrico. Su
impedancia es de 150 OHMIOS.

El nivel de protección del STP ante perturbaciones externas es mayor al ofrecido por UTP.
Sin embargo es más costoso y requiere más instalación. La pantalla del STP para que sea
más eficaz requiere una configuración de interconexión con tierra (dotada de continuidad
hasta el terminal), con el STP se suele utilizar conectores RJ 49. Es utilizado generalmente
en las instalaciones de procesos de datos por su capacidad y sus buenas características
contra las radiaciones electromanéticas, pero el inconveniente es que es un cable robusto,
caro y difícil de instalar.

CABLE DE PAR TRENZADO CON PANTALLA GLOBAL (FTP, Foiled Twisted Pair):

En este tipo de cable como en el UTP, sus pares no están apantallados,


pero sí dispone de una apantalla global para mejorar su nivel de
protección ante interferencias externas. Su impedancia característica
típica es de 120 OHMIOS y sus propiedades de transmisión son mas
parecidas a las del UTP. Además puede utilizar los mismos conectores RJ
45.

Tiene un precio intermedio entre el UTP y STP.

El desmembramiento del sistema Bell en 1984 y la liberación de algunos


países en el sistema de telecomunicaciones hizo, que quienes utilizaban
los medios de comunicación con fines comerciales tuvieran una nueva
alternativa para instalar y administrar servicios de voz y datos. Método
que se designó como cableado estructurado, que consiste en equipos,
accesorios de cables, accesorios de conexión y también la forma de cómo
se conectan los diferentes elementos entre sí.
El EIA/TIA define el estándar EIA/TIA 568 para la instalación de redes
locales (LAN). El cable trenzado mas utilizado es el UTP sin apantallar
que trabajan con las redes 10Base-T de ethernet, Token Ring, etc. La
EIA/TIA-568 selecciona cuatro pares trenzados en cada cable para acomodar
las diversas necesidades de redes de datos y telecomunicaciones. Existen
dos clases de configuraciones para los pines de los conectores del cable
trenzado denominadas T 568 A? y T 568 B?. La configuración más utilizada
es la T 568 A.

El cable par trenzado se maneja por categorías de cable:

Categoría 1: Cable de par trenzado sin apantallar, se adapta para los servicios de voz, pero
no a los datos.

Categoría 2: Cable de par trenzado sin apantallar, este cable tiene cuatro pares trenzados y
está certificado para transmisión de 4 mbps.

Categoría 3: Cable de par trenzado que soporta velocidades de transmisión de 10 mbps de


ethernet 10Base-T, la transmisión en una red Token Ring es de 4 mbps. Este cable tiene
cuatro pares.

Categoría 4: Cable par trenzado certificado para velocidades de 16 mbps. Este cable tiene
cuatro pares.

Categoría 5: Es un cable de cobre par trenzado de cuatro hilos de 100 OHMIOS. La


transmisión de este cable puede se a 100 mbps para soportar las nuevas tecnologías como
ATM (Asynchronous Transfer Mode).

Existen varias opciones para el estándar 802,3 que se diferencian por velocidad, tipo de
cable y distancia de transmisión.

10Base-T: Cable de par trenzado con una longitud aproximada de 500 mts, a una velocidad
de 10 mbps.

1Base-5: Cable de par trenzado con una longitud extrema de 500 mts, a una velocidad de 1
mbps.

100Base-T: (Ethernet Rápida) Cable de par trenzado, nuevo estándar que soporta
velocidades de 100 mbps que utiliza el método de acceso CSMA/CD.

Cable Coaxial Señal Electrica


Este tipo de cable esta compuesto de un hilo conductor central de cobre rodeado por una
malla de hilos de cobre. El espacio entre el hilo y la malla lo ocupa un conducto de plástico
que separa los dos conductores y mantiene las propiedades eléctricas. Todo el cable está
cubierto por un aislamiento de protección para reducir las emisiones eléctricas. El ejemplo
más común de este tipo de cables es el coaxial de televisión.

Originalmente fue el cable más utilizado en las redes locales debido a su alta capacidad y
resistencia a las interferencias, pero en la actualidad su uso está en declive. Su mayor
defecto es su grosor, el cual limita su utilización en pequeños conductos eléctricos y en
ángulos muy agudos.

TIPOS DE CABLE COAXIAL

THICK: (grueso). Este cable se conoce normalmente como “cable amarillo”, fue el cable
coaxial utilizado en la mayoría de las redes. Su capacidad en términos de velocidad y
distancia es grande, pero el coste del cableado es alto y su grosor no permite su utilización
en canalizaciones con demasiados cables. Este cable es empleado en las redes de área local
conformando con la norma 10 Base 2.

THIN: (fino). Este cable se empezó a utilizar para reducir el coste de cableado de la redes.
Su limitación está en la distancia máxima que puede alcanzar un tramo de red sin
regeneración de la señal. Sin embargo el cable es mucho más barato y fino que el thick y,
por lo tanto, solventa algunas de las desventajas del cable grueso. Este cable es empleado
en las redes de área local conformando con la norma 10 Base 5.

El cable coaxial en general solo se puede utilizar en conexiones Punto a Punto o dentro de
los racks

MODELOS DE CABLE COAXIAL

Cable estándar Ethernet, de tipo especial conforme a las normas IEEE 802.3 10 BASE 5. Se
denomina también cable coaxial “grueso”, y tiene una impedancia de 50 Ohmios. El
conector que utiliza es del tipo “N”.

Cable coaxial Ethernet delgado, denominado también RG 58, con una impedancia de 50
Ohmios. El conector utilizado es del tipo BNC.

Cable coaxial del tipo RG 62, con una impedancia de 93 Ohmios. Es el cable estándar
utilizado en la gama de equipos 3270 de IBM, y tambien en la red ARCNET. Usa un
conector BNC.

Cable coaxial del tipo RG 59, con una impedancia de 75 Ohmios. Este tipo de cable lo
utiliza, en versión doble, la red WANGNET, y dispone de conectores DNC y TNC.

Tambien están los llamados “TWINAXIAL” que en realidad son 2 hilos de cobre por un
solo conducto.
Fibra Optica Señal Luminosa
La fibra ópticaLa fibra óptica es una delgada hebra de vidrio o silicio fundido que conduce
la luz. Se requieren dos filamentos para una comunicación bi-direccional: TX y RX.

El grosor del filamento es comparable al grosor de un cabello humano, es decir,


aproximadamente de 0,1 mm. En cada filamento de fibra óptica podemos apreciar 3
componentes:

La fuente de luz: LED o laser. el medio transmisor : fibra óptica. el detector de luz:
fotodiodo. Un cable de fibra óptica está compuesto por: Núcleo, manto,recubrimiento,
tensores y chaqueta.

Las fibras ópticas se pueden utilizar con LAN, así como para transmisión de largo alcance,
aunque derivar en ella es más complicado que conectarse a una Ethernet. La interfaz en
cada computadora pasa la corriente de pulsos de luz hacia el siguiente enlace y también
sirve como unión T para que la computadora pueda enviar y recibir mensajes.

Convencionalmente, un pulso de luz indica un bit 1 y la ausencia de luz indica un bit 0. El


detector genera un pulso eléctrico cuando la luz incide en él. Éste sistema de transmisión
tendría fugas de luz y sería inútil en la práctica excepto por un principio interesante de la
física. Cuando un rayo de luz pasa de un medio a otro, el rayo se refracta (se dobla) entre
las fronteras de los medios.

El grado de refracción depende de las propiedades de los dos medios (en particular, de sus
índices de refracción). Para ángulos de incidencia por encima de cierto valor crítico, la luz
se refracta de regreso; ninguna función escapa hacia el otro medio, de esta forma el rayo
queda atrapado dentro de la fibra y se puede propagar por muchos kilómetros virtualmente
sin pérdidas. En la siguiente animación puede verse la secuencia de transmisión.

Medios No Guiados
En el caso de medios guiados es el propio medio el que determina el que determina
principalmente las limitaciones de la transmisión: velocidad de transmisión de los datos,
ancho de banda que puede soportar y espaciado entre repetidores. Sin embargo, al utilizar
medios no guiados resulta más determinante en la transmisión el espectro de frecuencia de
la señal producida por la antena que el propio medio de transmisión. el medio solo
proporciona un soporte para que las ondas se transmitan, pero no las guía.

La comunicación de datos en medios no guiados utiliza principalmente:

 Señales de radio
 Señales de microondas
 Señales de rayo infrarrojo
 Señales de rayo láser

Señales de radio: Son capaces de recorrer grandes distancias, atravesando edificios


incluso. Son ondas omnidireccionales: se propagan en todas las direcciones. Su mayor
problema son las interferencias entre usuarios.

Señales de Microondas: Estas ondas viajan en línea recta, por lo que emisor y receptor
deben estar alineados cuidadosamente. Tienen dificultades para atravesar edificios. Debido
a la propia curvatura de la tierra, la distancia entre dos repetidores no debe exceder de unos
80 Kms. de distancia. Es una forma económica para comunicar dos zonas geográficas
mediante dos torres suficientemente altas para que sus extremos sean visibles.

Señales de Infrarrojo: Son ondas direccionales incapaces de atravesar objetos sólidos


(paredes, por ejemplo) que están indicadas para transmisiones de corta distancia.

Señales de Rayo Laser: Las ondas láser son unidireccionales. Se pueden utilizar para
comunicar dos edificios próximos instalando en cada uno de ellos un emisor láser y un
fotodetector.

Microondas En Espacio Libre


Se denomina así la porción del espectro electromagnético que cubre las frecuencias entre
aproximadamente 3 Ghz y 300 Ghz (1 Ghz = 10A9 Hz), que corresponde a la longitud de onda en
vacío entre 10 cm. y lmm. Las emisiones pueden ser de forma analógica o digitales pero han de
estar en la línea visible. En un sistema de microondas se usa el espacio aéreo como medio físico de
transmisión. La información se transmite en forma digital a través de ondas de radio de muy corta
longitud. Pueden direccionarse múltiples canales a múltiples estaciones dentro de un enlace dado,
o pueden establecer enlaces punto a punto. Las estaciones consisten en una antena tipo plato y de
circuitos que interconectan la antena con la terminal del usuario.

Satelite Trasmision
Que es satélite 1. m. ASTRON. Astro que gira en torno a un planeta,describiendo una
órbita sometida a la fuerza de gravitación: la Luna es el satélite de la Tierra. 2. Persona o
cosa que depende de otra y la sigue o acompaña continuamente: acudió con su satélite
particular. 3. satélite artificial: retransmisión vía satélite. 4. Estado independiente dominado
política y económicamente por otro más poderoso: es un satélite de Estados Unidos. ♦ Se
usa también en aposición a otro nombre: país satélite. 5. Población situada fuera del recinto
de una ciudad importante,pero vinculada a esta de algún modo. ♦ Se usa también en
aposición a otro nombre: ciudad satélite. 6. satélite artificial Vehículo espacial,tripulado o
no,que se coloca en órbita alrededor de un planeta y que lleva aparatos apropiados para
recoger información y retransmitirla a la Tierra.

Podemos empezar por recurrir a la definición que nos da el diccionario: “Son ingenios
lanzados por un cohete, que pasan a describir una órbita alrededor de la Tierra o de otro
astro” (diccionario enciclopédico El Pequeño Larousse) ;o bien, la que encontramos en el
Universum, el Museo de las Ciencias de la Universidad Nacional Autónoma de México
(UNAM): “Un satélite es un cuerpo que gira alrededor de otro. La Tierra tiene un satélite
natural y cerca de 9 mil satélites artificiales”. Con estos artefactos de percepción remota se
puede observar una gran extensión de terreno, pues están muy por encima de donde
circulan normalmente los aviones y permiten fotografiar toda la cordillera del Himalaya o
de los Andes; conocer el curso de las aguas, desde una pequeña corriente hasta su gran
desembocadura en el océano; o explorar y mostrar áreas inaccesibles, como las heladas
regiones de los polos y las profundidades marinas, sólo por dar algunos ejemplos. Veamos
la siguiente tabla tomada de la sala “Satélites” del Museo Universum, que muestra los tipos
de satélites según su función y la órbita en que utilizan: Tipos de órbita Altura sobre el
nivel del mar Velocidad del satélite Función del satélite Ventajas Órbita baja 250–1 500 km
25 000–28 000 km/hr. • Comunicaciones y observación de la Tierra. Poco retraso en las
comunicaciones. Se requiere menor potencia. Órbita polar 500–800 km sobre el eje polar
26 600–27 300 km/hr. • Clima • Navegación. Están perpendiculares sobre la línea del
Ecuador, por lo que pueden observar distintas regiones de la Tierra. Órbita geo-estacionaria
35 786 km sobre el Ecuador 11 000 km/hr. • Comunicaciones • Clima. • Navegación • GPS.
Al dar la vuelta a la Tierra a su misma velocidad, siempre observa el mismo territorio
Órbita elíptica Perigeo (cuando está más cerca de la Tierra) 200- 1 000 km Apogeo (cuando
está más lejos) ~ 39 000 km ~34 200 km/hr. ~5 400 km/hr. • Comunicaciones Servicios a
grandes latitudes.

Un poco de historia

Dr. Dionisio M. Tun Molina dtun@satmex.com Director Ejecutivo de Ingeniería y


Opeación Satelital Satélites Mexicanos S.A. de C.V. Enero, 2002.

El origen de los satélites artificiales está íntimamente ligado al desarrollo de los cohetes que
fueron creados, primero, como armas de larga distancia; después, utilizados para explorar el
espacio y luego, con su evolución, convertidos en instrumentos para colocar satélites en el
espacio. Las actividades en el espacio, incluyendo la tecnología satelital, se remonta a
tiempos muy remotos, cuando el hombre empezó a medir los movimientos de las estrellas,
dando origen a una de las ramas más antiguas de la ciencia, la Mecánica Celeste. Mucho
después, se empezaron a realizar los primeros cálculos científicos sobre la tasa de velocidad
necesaria para superar el tirón gravitacional de la Tierra. No fue sino hasta 1945, cuando el
entonces Secretario de la Sociedad Interplanetaria Británica, Arthur C. Clarke, publicó un
artículo -que muchos calificaron como fantasioso- acerca de la posibilidad de transmitir
señales de radio y televisión a través de largas distancias (transatlánticas) sin la necesidad
de cables coaxiales (en el caso de la televisión o relevadores en el de la radio), proponiendo
un satélite artificial ubicado a una altura de 36 mil km, que girara alrededor de la Tierra una
vez cada 24 horas, de tal forma que se percibiera como fijo sobre un punto determinado y,
por lo tanto, cubriendo en su transmisión una fracción de la superficie terrestre. Este
artefacto estaría equipado con instrumentos para recibir y transmitir señales entre él mismo
y uno o varios puntos desde tierra; también, añadía que para hacer posible la cobertura de
todo el planeta habrían de colocarse tres de estos satélites de manera equidistante a la altura
mencionada, en la línea del Ecuador. El artículo presentaba, además, algunos cálculos sobre
la energía que se requeriría para que dichos satélites funcionaran, y para ello proponía el
aprovechamiento de la energía solar. Con esos elementos en mente, la Marina de los
Estados Unidos de América (E.U), unos años más tarde, utilizó con éxito el satélite natural
de la Tierra -la Luna- para establecer comunicación entre dos puntos lejanos en el planeta,
transmitiendo señales de radar que dicho cuerpo celeste reflejaba, logrando con ello
comunicar a la ciudad de Washington con la Isla de Hawai. Esto comprobó que se podrían
utilizar satélites artificiales con los mismos fines, pero salvando la desventaja de depender
de la hora del día para obtener las señales reflejadas. Se emprendió, un ambicioso proyecto
denominado Echo, el cual consistía en utilizar un enorme globo recubierto de aluminio para
que sirviera como espejo y reflejara las señales emitidas desde la Tierra. El artefacto,
visible a simple vista, fue el primer satélite artificial de tipo pasivo -por su característica de
servir solamente como reflejo y no tener aparatos para retransmisión-; los llamados satélites
activos vendrían después, con los avances tecnológicos y las experiencias que poco a poco
fueron enriqueciendo el conocimiento en este campo. En la siguiente década, el Año
Geofísico Internacional (1957–1958), marcó el banderazo de salida de una carrera espacial
que durante muchos años protagonizaron E.U. y la Unión Soviética, siendo está última la
que se llevó la primicia al lanzar al espacio, el 4 de octubre de 1957, el satélite Sputnik I, el
cual era una esfera metálica de tan solo 58 cm de diámetro. En diciembre de ese mismo
año, E.U. también lanzó su propio satélite, el Vanguard, aunque sin éxito, pues se incendió
en el momento de su lanzamiento. La Unión Soviética siguió su camino e instaló en órbita
la segunda versión del Sputnik, en noviembre de 1957, ahora con un ser vivo como
pasajero: la perra Laika. Después, hubo una tercera versión del Sputnik que se lanzó en
1958. Unos meses antes, E.U. -continuando con el reto impuesto- lanzó el satélite Explorer
l, y con ello se apuntó un tanto en el mundo de la ciencia al descubrir los cinturones de
radiación que rodean a la Tierra, a los que llamaron Van Allen en honor al líder de los
científicos responsables de esa misión. Posterior a ese satélite, siguieron sus versiones II, III
y IV, de los cuales el Explorer II falló.

El primer experimento en comunicaciones desde el espacio también


fue en 1958, cuando un cohete Atlas-B, equipado con un transmisor y un
reproductor, emitió hacia la Tierra un mensaje grabado con anterioridad
por el presidente Eisenhower. El Atlas-Score permitió demostrar que la
voz humana podía propagarse superando la considerable distancia existente
entre el planeta y el satélite. El concepto fundamental era sencillo: un
repetidor colocado en un lugar suficientemente elevado podría dominar
mucha mayor superficie que sus homólogos terrestres. El repetidor, por
supuesto, sería colocado en órbita, aunque su limitación principal sería
la movilidad del objeto en el espacio.

Todos esos satélites aportaron importantes conocimientos al mundo científico, pues al ser
equipados cada vez con mejores y más sofisticados instrumentos de medición, permitieron
conocer las condiciones del espacio que rodea a la Tierra y, con ello, promover nuevos
experimentos. Fue así que el primer satélite activo que se puso en órbita fue el Courier, de
propiedad estadounidense (lanzado en 1960), equipado con un paquete de comunicaciones
o repetidor que recibía las señales de la Tierra, las traducía a frecuencias determinadas, las
amplificaba y después las retransmitía al punto emisor. Así, se sucedieron muchos otros
lanzamientos de satélites con fines experimentales en el campo de las comunicaciones para
transmisiones de radioaficionados y señales de televisión en diversas bandas de frecuencia
o con propósitos militares, de tal forma que al terminar 1962, EU. contaba ya con 120
satélites puestos en órbita, mientras que Rusia tenía 33. En 1963, en Estados Unidos de
América se fundó la primera compañía dedicada a telecomunicaciones por satélite
(COMSAT). También, en ese mismo año la Unión Internacional de Telecomunicaciones
(UIT), durante una conferencia sobre radiocomunicaciones, expidió las primeras normas en
materia de telecomunicaciones por satélite. Gracias a la construcción de cohetes más
potentes -que llevaron satélites a la altura adecuada- y al desarrollo de la electrónica como
un elemento importante relacionado con muchas funciones de un satélite, en 1964 se logró
colocar en órbita geoestacionaria o Cinturón de Clarke primer satélite de este tipo
(geoestacionario): el Syncom 3, que permitió en Europa la transmisión de los juegos
olímpicos de Tokio. En agosto de 1964 se formó el consorcio internacional Intelsat,
encargado de administrar una nueva serie de satélites geoestacionarios disponibles para
todo el mundo, el primero de sus satélites fue el Early Bird o Intelsat-1. En la actualidad,
existen alrededor de 200 de esta clase, en su mayoría geoestacionarios, conectando lugares
de todo el mundo y que, además de servir para la telecomunicación internacional, se
emplean para servicios como televisión y observación meteorológica, entre otras
aplicaciones. Esos acontecimientos marcaron el inicio de la era espacial, desarrollándose
con rapidez la capacidad de fabricar una gran variedad de naves que al principio parecían
modestas, pues sólo lanzaban satélites experimentales de investigación relativamente
sencillos, que después, en la década de los años 70, se convirtieron en sofisticados
prototipos de vehículos espaciales para comunicaciones y meteorología y, más adelante,
para sondeos lunares y planetarios.

Estos artefactos son muy útiles para el hombre moderno, son los protagonistas principales
de las comunicaciones en el mundo; gracias a ellos, recibimos señales de televisión, de
radio y teléfono, o tenemos información valiosa del clima, de nuestro medio ambiente y del
espacio.

Para tener una idea más clara, cada objeto o ser sobre la superficie terrestre emite una estela
o firma, que es su energía particular, la cual cambia conforme ese objeto o ser se modifica,
y por esta característica es posible identificar, mediante un satélite, la firma del agua salada
que es diferente a la del agua dulce o diferenciar el aire contaminado del limpio; también,
se pueden distinguir los elementos de un territorio en un tiempo determinado, tales como
sus cosechas, tipos y estado de las mismas, la fauna marina y la terrestre, las grandes
ciudades, los poblados, las instalaciones hechas por el hombre, las vías de comunicación
terrestre y muchas más. Los sistemas de satélites no dependen de líneas y conexiones
físicas montadas a lo largo de la superficie de la Tierra, sino de estaciones terrenas ubicadas
en diferentes lugares, cuyo costo para su puesta en operación es mucho más bajo que
construir una carretera; además, con los avances en la ciencia y tecnología, los satélites son
cada vez más versátiles, duran mayor tiempo en órbita y ofrecen más y mejores servicios.
Dado que las microondas (tipo de onda de radio) viajan en línea recta, como un fino rayo a
la velocidad de la luz, no debe haber obstáculos entre las estaciones receptoras y emisoras.
Por la curvatura de la Tierra, las estaciones localizadas en lados opuestos del globo no
pueden conectarse directamente, sino que han de hacerlo vía satélite. Un satélite situado en
la órbita geoestacionaria (a una altitud de 36 mil km) tarda aproximadamente 24 horas en
dar la vuelta al planeta, lo mismo que tarda éste en dar una vuelta sobre su eje, de ahí que el
satélite permanezca más o menos sobre la misma parte del mundo. Como queda a su vista
un tercio de la Tierra, pueden comunicarse con él las estaciones terrenas -receptoras y
transmisoras de microondas- que se encuentran en ese tercio. Entonces, ¿cómo se conectan
vía satélite dos lugares distantes?

Una estación terrena que está bajo la cobertura de un satélite le envía una señal de
microondas, denominada enlace ascendente. Cuando la recibe, el transpondedor (aparato
emisor-receptor) del satélite simplemente la retransmite a una frecuencia más baja para que
la capture otra estación, esto es un enlace descendente. El camino que recorre esa
comunicación, equiparándolo con la longitud que ocuparía un cable, es de unos 70 mil km,
lo cual equivale, más o menos, al doble de la circunferencia de la Tierra, y sólo le toma
alrededor de 1/4 de segundo cubrir dicha distancia. Para entender mejor cómo es posible
que un satélite se sostenga en una órbita en el espacio veamos el siguiente cuadro: 1.
Imaginemos que estamos en una montaña por encima de la atmósfera: si lanzamos una
pelota con poca fuerza, la gravedad la atraerá hacia la Tierra. 2. Si se lanza más fuerte,
caerá más lejos 3. Mientras másfuerza se aplique, más lejos viajará horizontalmente antes
de caer 4. Si pudieramos lanzar la bola a 28 mil km/hr., nunca caería a la Tierra, a esto se le
llama estar en órbita. Una nave fuera de la atmósfera se mantiene viajando a esta velocidad,
pues no hay resistencia del aire que la detenga.

 Universum Museo de las Ciencias de la UNAM

En la ingeniería de los satélites, como en cualquier otra área de la Astronáutica, confluyen


múltiples aspectos. No sólo se trata de construir una máquina, sino también de conseguir
que, a pesar de sus delicados elementos electrónicos, sea capaz de resistir los rigores y
presión de un lanzamiento, las ondas acústicas durante el mismo y, sobre todo, funcionar en
el ambiente del espacio, donde las temperaturas fluctúan entre los 200° C bajo cero durante
periodos de sombra y 200° C a la luz del Sol. El diseño de los satélites ha evolucionado
desde aquellos años del Sputnik I hasta la actualidad; sin embargo, su razón de ser sigue
siendo la misma, así como la de la mayor parte de sus elementos. El paso del tiempo y los
logros en las tecnologías han proporcionado instrumentos más precisos, sistemas de
provisión de energía eléctrica más potentes y componentes de menor peso, pero todos ellos,
en esencia, no han cambiado mucho, hay quienes afirman que la Astronáutica es aún una
ciencia demasiado joven. Los satélites pueden dividirse de manera conveniente en dos
elementos principales, la carga útil y la plataforma. La carga útil es la razón de ser del
satélite, es aquella parte del satélite que recibe, amplifica y retransmite las señales con
información útil; pero para que la carga útil realice su función, la plataforma debe
proporcionar ciertos recursos: • La carga útil debe estar orientada en la dirección correcta. •
La carga útil debe ser operable y confiable sobre cierto periodo de tiempo especificado. •
Los datos y estados de la carga útil y elementos que conforman la plataforma deben ser
enviados a la estación terrestre para su análisis y mantenimiento. • La órbita del satélite
debe ser controlada en sus parámetros. • La carga útil debe de mantenerse fija a la
plataforma en la cual está montada. • Una fuente de energía debe estar disponible, para
permitir la realización de las funciones programadas. Cada uno de estos requerimientos es
proporcionado por los siguientes conglomerados de elementos conocidos como
subsistemas: • Subsistema de Estructura, misma que puede tener muy distintas formas, pero
que siempre se construye con metales muy ligeros que a la vez tienen gran resistencia. •
Subsistema de Propulsión, compuesto por múltiples motores o impulsores de bajo empuje,
que sirven al satélite para realizar pequeñas correcciones y cambios de velocidad para
controlar su orientación en el espacio y proporcionar el control adecuado de los parámetros
de la órbita. Últimamente, se están usando en estos motores otros métodos de propulsión
como la eléctrica o iónica, cuyo bajo empuje, pero elevado impulso específico, los hace
más eficientes y muy económicos en cuanto al consumo de combustible. • Subsistema de
control de orientación, que trabaja contra las perturbaciones a las que está sometido el
aparato, como el viento solar. Este sistema permite al satélite saber constantemente donde
está y hacia donde debe orientarse para emisiones lleguen a la zona deseada, considerando
su natural movimiento Norte-Sur y Este-Oeste alrededor de un punto. Además, orienta los
paneles solares hacia el Sol, sin importar cómo esté posicionado el satélite. La computadora
de a bordo, que lleva una serie de programas capaces de reaccionar ante una variada gama
de problemas: si algo grave o inesperado ocurre, desconectará automáticamente todos los
sistemas no esenciales, se orientará hacia el Sol para garantizar una adecuada iluminación
de las celdas solares e intentará comunicarse con la Tierra o esperar órdenes procedentes de
ella. Esta fase se denomina modo seguro y puede salvar la vida a muchos satélites dando
tiempo a la intervención humana. • Subsistema de potencia. Como fuente de energía
secundaria, las baterías proveen energía suficiente para alimentar a los sistemas e
instrumentos cuando la energía proveniente del Sol no puede ser aprovechada, esto ocurre
por ejemplo, durante eclipses ; éstas son cargadas poco antes del lanzamiento y de ellas
depende la vida del satélite. La fuente primaria de energía para el satélite lo constituyen las
celdas solares que son colocadas en grupos para conformar lo que se conoce como panel
solar Los paneles, por sus grandes dimensiones y su relativa fragilidad, deben permanecer
plegados durante el despegue. Su apertura añade otro factor de incertidumbre durante la
puesta en órbita del satélite. Una vez en posición y perfectamente orientados, empiezan a
proporcionar energía a los sistemas, que hasta entonces han debido usar baterías. Esta
energía es administrada por un sistema especial que regula el voltaje y la distribuye de
forma adecuada al resto de componentes. Cuanto mayor es el número de celdas agrupadas,
más potencia puede generarse. Aunque es verdad que éstas suelen deteriorarse con el paso
del tiempo, ahora los constructores de satélites colocan un número suplementario de ellas
para garantizar que proporcionarán suficiente electricidad, incluso, durante el último
periodo de su vida útil. • Subsistema de telemetría, seguimiento y órdenes es el encargado
de hacer contacto con las estaciones terrenas con el fin de recibir órdenes de ellas y darles
seguimiento. Esto permite el correcto mantenimiento de los subsistemas del satélite. El
módulo de carga útil es aquel en que están instalados los instrumentos que justifican la
misión espacial. Algunos de ellos son muy sofisticados: podemos encontrar desde cámaras
hasta telescopios, pasando por detectores sensibles a fenómenos atmosféricos, antenas y
amplificadores para comunicaciones, entre otros. Para los satélites de comunicaciones, la
carga útil esta conformada por los transpondedores. Un transpondedor esta formado por un
filtro de entrada que selecciona la frecuencia a amplificar, un controlador de ganancia para
el amplificador y su respectiva fuente de alimentación, estos transpondedores reciben la
señal desde la Tierra a través de antenas y receptores, la amplifican y la envían a su
destinatario; si el satélite no hace esto, la señal llegará tan débil que no se percibirá en las
estaciones receptoras. Aunque el satélite es sometido a pruebas exhaustivas durante su
construcción y antes de su lanzamiento, siempre es probable que algo falle y esto, entonces,
significa afrontar pérdidas considerables; es por ello que desde hace algunos años los
propietarios de los satélites suelen adquirir pólizas de seguro que cubran las principales
eventualidades (lanzamiento fallido, menor eficiencia de la prevista en órbita, duración en
activo inferior a la prevista, etcétera). Se calcula que el precio actual de un satélite está
entre 700 y 2 000 millones de pesos, y si a eso le sumamos el mencionado seguro el precio
sube a 3 500 millones de pesos . Afortunadamente, el futuro de la construcción de los
satélites implica mayor tiempo en órbita, mismo que fluctúa entre 10 y 15 años.

Dada su gran variedad, existen diversas clasificaciones; la UIT los divide de acuerdo con el
tipo de servicio que éstos prestan, de tal manera que los hay fijos, móviles, de
radiodifusión, de radionavegación y de exploración de la Tierra. Edward W. Ploman los
distingue en dos grandes categorías: • Satélites de observación. Para la recolección,
procesamiento y transmisión de datos de y hacia la Tierra. • Satélites de comunicación.
Para la transmisión, distribución y diseminación de la información desde diversas
ubicaciones en la Tierra a otras distintas posiciones.

Para propósitos de estudio es conveniente clasificar los diferentes tipos de misiones


satelitales basándose en las características principales de sus órbitas respectivas: • Satélites
geoestacionarios (GEO). Son los que se ubican en la órbita del mismo nombre, sobre la
línea del Ecuador y a una altitud de 36 mil km. Son utilizados para la transmisión de datos,
voz y video. • Satélites no geoestacionarios. Que a su vez se dividen en dos: o Los Mediun
Earth Orbit (MEO), ubicados en una órbita terrestre media a 10 mil km de altitud. o Los
Low Earth Orbit (LEO), localizados en órbita más baja, entre 250 y 1500 km de altitud.
Tanto los satélites MEO como los LEO, por su menor altitud, tienen una velocidad de
rotación distinta a la terrestre y, por lo tanto, más rápida; se emplean para servicios de
percepción remota, telefonía etc., por mencionar algunos de sus usos

Empezaron a lanzase en la década de los años 50, y hasta ahora tienen como principal
objetivo estudiar la Tierra -superficie, atmósfera y entorno- y los demás cuerpos celestes.
En el inicio de la exploración espacial, se consideró prioritario conocer las condiciones que
imperaban sobre un objeto que girara repetidamente alrededor del planeta. Esto era
necesario, pues poco tiempo más tarde el propio hombre debería viajar al espacio. Estos
aparatos permitieron que el conocimiento del Universo sea mucho más preciso en la
actualidad.

Los satélites Echo l no sólo fueron útiles para experimentar técnicas de comunicación
pasivas, sino que proporcionaron buena información sobre la densidad de la atmósfera a
diversas altitudes. El satélite Explorer l detectó los cinturones de radiación (Van Allen) que
rodean la Tierra. Otros de sus hermanos ayudaron a establecer la abundancia de
micrometeoritos en los alrededores del planeta, factor importante para tener en cuenta antes
de lanzar una astronave tripulada y, además, estudiaron ampliamente los campos
geomagnéticos, la cantidad de radiación, la ionosfera terrestre y la densidad atmosférica,
entre otras muchas investigaciones.
Una rama de la ciencia que se ha visto beneficiada por las actividades en el espacio es la
Geodesia. Los satélites geodésicos han permitido conocer con exactitud la forma de los
continentes, así como el lentísimo pero constante movimiento de las placas terrestres.
Asimismo, los satélites oceánicos han explorado el fondo marino, revelando gran cantidad
de información: el Seasat (lanzado en 1978), equipado con un radar especial, fue uno de los
aparatos dedicados a este tipo de investigación.

Se ubican en la intersección de la tecnología del espacio y la de las comunicaciones.


Constituyen la aplicación espacial más rentable y, a la vez, más difundida en la actualidad.
Las transmisiones en directo vía satélite ya son parte de nuestra cotidianeidad, por lo que no
tienen ningún carácter especial. Para la difusión directa de servicios de televisión y radio,
telefonía y comunicaciones móviles sólo son necesarios sencillos receptores y antenas
parabólicas cada día más pequeñas.

Estos satélites, aunque se puede afirmar que son científicos, son aparatos especializados
que se dedican exclusivamente a la observación de la atmósfera en su conjunto. La
comprensión de la física dinámica atmosférica, el comportamiento de las masas nubosas o
el movimiento del aire frío o caliente resultan indispensables para realizar predicciones del
clima, pues sus efectos impactan de manera irremediable las actividades de los seres
humanos aquí en la Tierra. El primer satélite meteorológico fue el Tiros-1 (lanzado en abril
de 1960); luego le siguieron los ESSA, ITOS, Nimbus, NOAA y Meteor, por mencionar
algunos. A estos artefactos se debe el descubrimiento del agujero en la capa de ozono.
Algunos de éstos se colocan en órbitas no geoestacionarias, como los que pasan sobre los
polos de la Tierra y posibilitan una cobertura de toda la superficie de ella. Otros satélites
meteorológicos de órbita geoestacionaria como el SMS, GOES y Meteosat pueden cubrir
todo un hemisferio y permiten seguir el comportamiento de fenómenos como la temporada
de huracanes, el avance de las grandes borrascas, los frentes fríos, el conocimiento de la
temperatura de la atmósfera en cada nivel altimétrico, la presión, la distribución del vapor
de agua y, con ello, el porqué de las sequías o los efectos de la contaminación, entre
muchos otros fenómenos más. Hoy en día, la Organización Meteorológica Mundial
coordina la recolección, procesamiento y difusión de información y datos meteorológicos y
oceanográficos provenientes de una constelación de satélites meteorológicos tanto
geoestacionarios como de órbita polar, enlazados a 10 mil estaciones terrenas y mil
estaciones de observación en altitud, además de otras fuentes de información
meteorológica, provenientes de barcos, aeronaves, boyas y otros artefactos que trabajan de
manera coordinada para transmitir diariamente a todo el mundo, en tiempo real, más de 15
millones de caracteres de datos y 2 mil mapas meteorológicos.

Desarrollados originalmente con fines militares al marcar el rumbo de misiles, submarinos,


bombarderos y tropas, ahora se usan como sistemas de posicionamiento global (GPS, por
sus siglas en inglés) para identificar locaciones terrestres mediante la triangulación de tres
satélites y una unidad receptora manual que puede señalar el lugar donde ésta se encuentra
y obtener así con exactitud las coordenadas de su localización geográfica.

Los satélites actuales dedicados a esta tarea (Transit, Navstar GPS, Tsikada, Parus, Uragan,
etc.) utilizan frecuencias bajas y medias que están abiertas al público, lo cual ha
posibilitado la aparición de múltiples receptores comerciales. Una de las aplicaciones de
estos satélites la realiza con éxito la navegación aérea, que está empezando a aprovecharla
en los aterrizajes de las aeronaves, ello le supone una guía económica y muy segura para
esas actividades. En los sistemas GPS, tanto el satélite como el equipo receptor en Tierra
emiten una señal con una determinada frecuencia, ambas sincronizadas gracias a los relojes
atómicos que dichas unidades poseen, el receptor recibe la señal del satélite que se halla a
gran altitud, la distancia entre ambos equipos hace que la señal proveniente del satélite
llegue con una diferencia de fase con respecto a la señal emitida por el receptor. La
medición de esta diferencia en las fases permite calcular la distancia que separa al equipo
en Tierra del satélite. Utilizando tres satélites a la vez, podemos obtener las coordenadas de
latitud, longitud y altitud del equipo receptor en Tierra. Usando un cuarto satélite es,
incluso, posible conseguir datos sobre la velocidad con la que nos desplazamos y el nivel de
precisión aumenta mucho. Otra faceta de los satélites de navegación se encuentra en la
búsqueda y el rescate (COSPAS/SARSAT). En estos casos los receptores son vehículos
dedicados a otras tareas, que además están equipados con receptores especiales. Cuando
una embarcación se pierde en alta mar, puede enviar señales que el satélite recibirá y
reenviará al puesto de rescate más próximo, incluyendo sus coordenadas aproximadas.

Éstos observan el planeta mediante sensores multiespectrales, esto es que pueden sensar
diferentes frecuencias o “colores”, lo que les permite localizar recursos naturales, vigilar las
condiciones de salud de los cultivos, el grado de deforestación, el avance de la
contaminación en los mares y un sinfín de características más. El aumento de la resolución
(que permite ver con mayor claridad detalles más pequeños de la superficie) está llegando a
extremos insospechados, a tal punto que las fotografías que obtienen pueden tener una clara
aplicación militar. Para un mejor aprovechamiento de sus capacidades, los satélites de
teledetección se suelen colocar en órbitas bajas y polares, a menudo sincronizadas con el
Sol. Desde ellas, enfocan sus sensores, que son capaces de tomar imágenes en varias
longitudes de onda o bandas espectrales. El satélite toma constantemente imágenes a su
paso, engrosando los archivos que se pondrán a disposición del público y servirán como un
acervo histórico de la evolución de la superficie terrestre.

Son aquellos que apoyan las operaciones militares de ciertos países, bajo la premisa de su
seguridad nacional. La magnitud de sus programas espaciales militares es tan grande y
secreta que hasta hace poco sólo se podía valorar por el número de lanzamientos que
suponía.

Uno de los aspectos fundamentales del equilibrio armamentista durante la Guerra Fría fue
la posibilidad de una respuesta adecuada ante cualquier ataque enemigo. Para ello, era
necesario conocer con la suficiente antelación el despegue de un misil desde cualquier
punto del globo terráqueo. Entonces, se fabricaron los satélites de alerta inmediata, que
detectan cualquier lanzamiento, tanto de cohetes comerciales como militares. En un
principio, E.U. inició esta actividad utilizando grandes antenas terrenas, después lanzaron
satélites del tipo Midas o DSP, los cuales poseen sensores infrarrojos que detectan el calor
producido por los gases del escape de los motores de un misil. Dado que el tiempo de
funcionamiento de los motores de uno de estos vehículos suele ser inferior a los 10 ó 15
minutos, la detección debe hacerse lo antes posible, dando tiempo a responder al ataque.
Rusia, por su parte, usa los satélites Oko y Prognoz. Los océanos son un escenario en el que
se han desarrollado espectaculares batallas navales y un lugar en el que patrullan barcos y
submarinos de todas clases. Estos últimos pueden estar equipados con misiles nucleares y
su movilidad y ocultación bajo el agua los hace muy peligrosos. Por eso, se han
desarrollado satélites que tratan de localizarlos. Es el caso de los White Cloud americanos o
los RORSAT/EORSAT soviéticos. Algunos satélites especiales -cuya identidad es
protegida con mayor recelo- pueden realizar escuchas electrónicas (elint o inteligencia
electrónica) que permiten captar conversaciones telefónicas o radiofónicas desde enormes
distancias. Algunas de ellas podrían consistir en órdenes de ataque, las cuales hay que
interceptar. Es tal el éxito de estos satélites que muchas de las transmisiones deben ser
codificadas. Destacan aquí los programas Jumpseat, Chalet/Vortex, Orion,
Magnum/Aquacade, Tselina, etcétera. Bibliografía Fuente.- Rosado, Carlos. Comunicación
por satélite. México. Editorial Limusa, México 1999. Fuente.- Edgar W. Ploman, Satelites
de Comunicación.

Perturbaciones Ruidos
Perturbaciones en una transmisión Hay tres tipos de perturbaciones • Ruido • Distorsión •
Interferencia Ruido Son señales no deseadas que ingresan al sistema de comunicaciones y
que no pueden evitarse. Generalmente se deben a las características eléctricas del sistema
de comunicaciones o del medio a través del cual se transmite. Dichas señales producen
variaciones en la amplitud de la señal de datos. Se define como relación señal/ruido y se
expresa en decibeles a la relación entre la potencia de la señal y la potencia del ruido.

Cuanto más alta sea la relación anterior mejor calidad tendrá la transmisión. Las señales de
ruido tienen determinadas frecuencias que dependen de los dispositivos eléctricos del
sistema. Cuando las señales de ruido abarcan todo el espectro de frecuencias se denomina
ruido blanco. Según su origen se puede clasificar al ruido en las siguientes categorías: •
Ruido térmico • Ruido de intermodulación • Ruido impulsivo Ruido Térmico Se debe a la
agitación térmica de los electrones dentro del conductor y es función de la temperatura.
Este tipo de ruido se encuentra presente en todos los dispositivos electrónicos y medios de
transmisión. El ruido térmico no se puede eliminar por lo que representa un límite superior
a las prestaciones que pueden alcanzarse con los sistemas de comunicaciones. Ruido de
Intermodulación Cuando señales de diferentes frecuencias comparten un mismo medio de
transmisión puede producirse un ruido de intermodulación. Este tipo de ruido genera
señales a frecuencias que son suma o diferencia de las dos frecuencias originales, o
múltiplos de éstas. Por ejemplo si se tienen dos frecuencias f1 y f2 la mezcla de las mismas
puede producir energías a frecuencias f1 + f2 y éstas frecuencias pueden interferir con una
señal de frecuencia f1 + f2. El ruido de intermodulación se produce cuando existe alguna
“no linealidad” en el transmisor, receptor o en el sistema de transmisión. Estos sistemas,
normalmente, se comportan como sistemas lineales, es decir, la salida es igual a la entrada
multiplicada por un valor constante. En cambio en los sistemas no constantes la salida es
una función más compleja de la entrada. Estas componentes pueden aparecer a causa de de
un funcionamiento incorrecto de los sistemas o por el uso de excesiva energía en la señal.
Ruido impulsivo El ruido impulsivo es no continuo y está constituido por pulsos o picos
irregulares de corta duración y amplitud relativamente grande, en contraste con los tipos de
ruidos anteriores que son razonablemente predecibles y de magnitud constante. Estos
pulsos se generan por diversas causas, por ejemplo son generados perturbaciones
electromagnéticas exteriores producidas por tormentas atmosféricas o fallos y defectos en
los sistemas de comunicación. Distorsión Es una perturbación que produce la deformación
de la señal en un sistema de comunicaciones. Dado que por las características físicas el
sistema de comunicaciones está restringido a determinadas frecuencias y recordando el
desarrollo de Fourier resulta que la distorsión estará dada por la falta de las señales de
frecuencias no aceptadas por el sistema de comunicaciones. Interferencia Dicha
perturbación es debida a señales provenientes de otras transmisiones, las cuales debido a la
proximidad de las frecuencias se mezclan con las de la señal que se transmite.

Peturbacion Atenuacion
Ocurre cuando las altas frecuencias pierden potencia con mayor rapidez que las frecuencias bajas
durante la transmisión, lo que puede hacer que la señal recibida sea distorsionada por una pérdida
desigual de sus frecuencias componentes. La pérdida de potencia está en función del método y
medio de transmisión. Además, la atenuación aumenta con la frecuencia e inversamente con el
diámetro del alambre. Este problema se evita con estaciones repetidoras que refuercen la señal
cuando sea necesario.

Efectos Del Ruido En Señales


Transmitidas
Señales y ruido

Señales en cables de cobre y fibra óptica

En los cables de cobre, las señales de datos se representan por niveles de voltaje que
representan unos y ceros binarios. Los niveles de voltaje se miden respecto de un nivel de
referencia de cero voltios tanto en el transmisor como en el receptor. Este nivel de
referencia se denomina tierra de señal.

Es importante que tanto el dispositivo transmisor como el receptor hagan referencia al


mismo punto de referencia de cero voltios. Cuando es así, se dice que están correctamente
conectados a tierra.

Para que una LAN funcione correctamente, el dispositivo receptor debe poder interpretar
con precisión los unos y ceros binarios transmitidos como niveles de voltaje. Como la
tecnología actual de Ethernet admite velocidades de miles de millones de bits por segundo,
cada bit debe ser reconocido, aun cuando su duración sea muy breve.

Esto significa que es necesario retener lo más posible la potencia original de la señal, a
medida que la señal recorre el cable y atraviesa los conectores. Anticipándonos a protocolos
de Ethernet cada vez más veloces, las nuevas instalaciones de cables se deben hacer con los
mejores cables, conectores y dispositivos de interconexión disponibles, tales como bloques
de empuje y paneles de conexión.
Existen dos tipos básicos de cables de cobre: blindados y no blindados. En los cables
blindados, el material de blindaje protege la señal de datos de las fuentes externas de ruido,
así como de ruido generado por señales eléctricas dentro del cable.

El cable coaxial es un tipo de cable blindado. Se compone de un conductor de cobre sólido


recubierto con material aislante, y luego con un blindaje conductor trenzado. En las
aplicaciones LAN, el blindaje trenzado está conectado a tierra eléctricamente para proteger
el conductor interno del ruido eléctrico externo. El blindaje contribuye además a eliminar la
pérdida de la señal, evitando que la señal transmitida se escape del cable.

Esto ayuda a que el cable coaxial sea menos sujeto al ruido que los otros tipos de cableado
de cobre, pero también lo hace más caro. La necesidad de conectar el blindaje a tierra, así
como el tamaño voluminoso del cable coaxial, dificultan su instalación en comparación con
otros cables de cobre.

Existen dos tipos de cables de par trenzado: par trenzado blindado (STP) y par trenzado no
blindado (UTP).

El cable STP contiene un blindaje conductivo externo conectado eléctricamente a tierra


para aislar las señales del ruido eléctrico externo. El STP utiliza además blindajes metálicos
internos que protegen cada par de cables del ruido generado por los otros pares. Al cable
STP a veces se lo llama por error par trenzado apantallado (ScTP). ScTP se refiere
generalmente a un cable de par trenzado de Categoría 5 o 5E, mientras que STP se refiere a
un cable propietario de IBM que contiene solo dos pares de conductores.

El cable ScTP es más caro, más difícil de instalar, y se usa con menos frecuencia que el
UTP. El UTP no tiene blindaje y es más susceptible al ruido externo, pero se usa con más
frecuencia por ser económico y más fácil de instalar.

El cable de fibra óptica se usa para transmitir señales de datos mediante una tecnología que
aumenta y disminuye la intensidad de la luz para representar unos y ceros binarios. La
intensidad de una señal luminosa no disminuye tanto como la intensidad de una señal
eléctrica sobre una tramo de igual longitud.

Las señales ópticas no se ven afectadas por el ruido eléctrico, y no es necesario conectar la
fibra óptica a tierra a menos que la chaqueta contenga un miembro de tensión metálico. Por
lo tanto, se suele usar fibra óptica entre edificios y entre pisos de un mismo edificio. A
medida que disminuyen los costos y aumenta la demanda de velocidad, es posible que la
fibra óptica se use cada vez más en los medios LAN.

Atenuación y pérdida de inserción en medios de cobre

La atenuación es la disminución de la amplitud de una señal sobre la extensión de un


enlace. Los cables muy largos y las frecuencias de señal muy elevadas contribuyen a una
mayor atenuación de la señal. Por esta razón, la atenuación en un cable se mide con un
analizador de cable, usando las frecuencias más elevadas que dicho cable admite. La
atenuación se expresa en decibelios (dB) usando números negativos.

Los valores negativos de dB más bajos indican un mejor rendimiento del enlace.

Son muchos los factores que contribuyen a la atenuación. La resistencia del cable de cobre
convierte en calor a parte de la energía eléctrica de la señal. La señal también pierde
energía cuando se filtra por el aislamiento del cable y como resultado de la impedancia
provocada por conectores defectuosos.

La impedancia mide la resistencia del cable a la corriente alterna (CA) y se mide en


ohmios. La impedancia normal, o característica, de un cable Cat5 es de 100 ohmios. Si un
conector no está instalado correctamente en Cat5, tendrá un valor de impedancia distinto al
del cable. Esto se conoce como discontinuidad en la impedancia o desacoplamiento de
impedancias.

La discontinuidad en la impedancia provoca atenuación porque una porción de la señal


transmitida se volverá a reflejar en el dispositivo transmisor en lugar de seguir su camino al
receptor, como si fuera un eco.

Este efecto se complica si ocurren múltiples discontinuidades que hacen que porciones
adicionales de la señal restante se vuelvan a reflejar en el transmisor. Cuando el retorno de
este reflejo choca con la primera discontinuidad, parte de la señal rebota en dirección de la
señal original, creando múltiples efectos de eco.

Los ecos chocan con el receptor a distintos intervalos, dificultando la tarea de detectar con
precisión los valores de datos de la señal. A esto se lo conoce como fluctuación, y genera
errores en los datos.

La combinación de los efectos de una señal atenuada con las discontinuidades en la


impedancia en un enlace de comunicación se conoce como pérdida de inserción. El correcto
funcionamiento de una red depende de una impedancia característica y constante en todos
los cables y conectores, sin discontinuidades en la impedancia a lo largo de todo el sistema
de cables.

Fuentes de ruido en medios de cobre

El ruido consiste en cualquier energía eléctrica en el cable de transmisión que dificulte que
un receptor interprete los datos enviados por el transmisor. En la actualidad, la certificación
TIA/EIA-568-B de un cable exige que se hagan pruebas de varios tipos de ruido.

La diafonía es la transmisión de señales de un hilo a otro circundante. Cuando cambia el


voltaje en un hilo, se genera energía electromagnética. El hilo transmisor irradia esta
energía como una señal de radio de un transmisor. Los hilos adyacentes del cable funcionan
como antenas que reciben la energía transmitida, lo que interfiere con los datos transmitidos
en esos hilos. Las señales de cables diferentes pero circundantes también pueden causar
diafonía.

Cuando la diafonía es provocada por una señal de otro cable, se conoce como acoplamiento
de diafonía. La diafonía es más destructiva a frecuencias de transmisión elevadas.

Los instrumentos de prueba de cables miden la diafonía aplicando una señal de prueba a un
par de hilos. El analizador de cables mide la amplitud de las señales diafónicas no deseadas
inducidas sobre los otros pares de hilos del cable.

Los cables de par trenzado están diseñados para aprovechar los efectos de la diafonía para
minimizar el ruido. En los cables de par trenzado, se utiliza un par de hilos para transmitir
una señal. El par de hilos está trenzado de tal modo que cada hilo experimenta una diafonía
similar.

Como una señal de ruido en un hilo aparecerá en forma idéntica en el otro hilo, es fácil
detectar este ruido y filtrarlo en el receptor.

Trenzar un par de hilos en un cable, contribuye además a reducir la diafonía en las señales
de datos o de ruido provenientes de un par de hilos adyacentes. En las categorías de UTP
más altas, hacen falta más trenzas en cada par de hilos del cable para minimizar la diafonía
a frecuencias de transmisión elevadas. Al colocar conectores en los extremos de los cables
UTP, se debe minimizar el destrenzado de los pares de hilos para asegurar una
comunicación confiable en la LAN.

Tipos de diafonía

Existen tres tipos distintos de diafonía:

• Paradiafonía (NEXT)

• Telediafonía (FEXT)

• Paradiafonía de suma de potencia (PSNEXT)

La paradiafonía (NEXT) se computa como la relación entre la amplitud de voltaje de la


señal de prueba y la señal diafónica, medida en el mismo extremo del enlace. Esta
diferencia se expresa como un valor negativo en decibelios (dB).

Los números negativos bajos indican más ruido, de la misma forma en que las temperaturas
negativas bajas indican más calor. Tradicionalmente, los analizadores de cables no
muestran el signo de menos que indica los valores NEXT negativos. Una lectura NEXT de
30 dB (que en realidad indica –30 dB) indica menos ruido NEXT y una señal más limpia
que una lectura NEXT de 10 dB.
El NEXT se debe medir de par en par en un enlace UTP, y desde ambos extremos del
enlace. Para acortar los tiempos de prueba, algunos instrumentos de prueba de cables
permiten que el usuario pruebe el desempeño NEXT de un enlace utilizando un intervalo de
frecuencia mayor que la especificada por el estándar TIA/EIA. Las mediciones resultantes
quizás no cumplan con TIA/EIA-568-B, y pasen por alto fallas en el enlace.

Para verificar el correcto desempeño de un enlace, NEXT se debe medir desde ambos
extremos del enlace con un instrumento de prueba de buena calidad. Este es también un
requisito para cumplir con la totalidad de las especificaciones para cables de alta velocidad.

Debido a la atenuación, la diafonía que ocurre a mayor distancia del transmisor genera
menos ruido en un cable que la NEXT.

A esto se le conoce como telediafonía, o FEXT. El ruido causado por FEXT también
regresa a la fuente, pero se va atenuando en el trayecto. Por lo tanto, FEXT no es un
problema tan significativo como NEXT.

La Paradiafonía de suma de potencia (PSNEXT) mide el efecto acumulativo de NEXT de


todos los pares de hilos del cable. PSNEXT se computa para cada par de hilos en base a los
efectos de NEXT de los otros tres pares. El efecto combinado de la diafonía proveniente de
múltiples fuentes simultáneas de transmisión puede ser muy perjudicial para la señal.

En la actualidad, la certificación TIA/EIA-568-B exige esta prueba de PSNEXT.

Algunos estándares de Ethernet, como 10BASE-T y 100 BASE-TX, reciben datos de un


solo par de hilos en cada dirección. No obstante, para las tecnologías más recientes como
1000 BASE-T, que reciben datos simultáneamente desde múltiples pares en la misma
dirección, las mediciones de suma de potencias son pruebas muy importantes.

Estándares de prueba de cables

El estándar TIA/EIA-568-B especifica diez pruebas que un cable de cobre debe pasar si ha
de ser usado en una LAN Ethernet moderna de alta velocidad. Se deben probar todos los
enlaces de cables a su calificación más alta aplicable a la categoría de cable que se está
instalando.

Los diez parámetros de prueba principales que se deben verificar para que un enlace de
cable cumpla con los estándares TIA/EIA son:

• Mapa de cableado

• Pérdida de inserción

• Paradiafonía (NEXT)

• Paradiafonía de suma de potencia (PSNEXT)


• Telediafonía del mismo nivel (ELFEXT)

• Telediafonía del mismo nivel de suma de potencia (PSELFEXT)

• Pérdida de retorno

• Retardo de propagación

• Longitud del cable

• Sesgo de retardo

El estándar de Ethernet especifica que cada pin de un conector RJ-45 debe tener una
función particular.

Una NIC (tarjeta de interfaz de red) transmite señales en los pins 1 y 2, y recibe señales en
los pins 3 y 6. Los hilos de los cables UTP deben estar conectados a los correspondientes
pins en cada extremo del cable.

El mapa de cableado asegura que no existan circuitos abiertos o cortocircuitos en el cable.


Un circuito abierto ocurre cuando un hilo no está correctamente unido al conector. Un
cortocircuito ocurre cuando dos hilos están conectados entre sí.

El mapa del cableado verifica además que la totalidad de los ocho cables estén conectados a
los pins correspondientes en ambos extremos del cable. Son varias las fallas de cableado
que el mapa de cableado puede detectar.

La falla de par invertido ocurre cuando un par de hilos está correctamente instalado en un
conector, pero invertido en el otro conector. Si el hilo blanco/naranja se termina en el pin 1
y el hilo naranja se termina en el pin 2 en uno de los extremos de un cable, pero de forma
invertida en el otro extremo, entonces el cable tiene una falla de par invertido.

Una falla de cableado de par dividido ocurre cuando un hilo de un par se cruza con un hilo
de un par diferente. Esta mezcla entorpece el proceso de cancelación cruzada y hace el
cable más susceptible a la diafonía y la interferencia.

Un par dividido da lugar a dos pares transmisores o receptores, cada uno con dos hilos no
trenzados entre sí.

Las fallas de cableado de pares transpuestos se producen cuando un par de hilos se conecta
a pins completamente diferentes en ambos extremos. Compare esto con un par invertido, en
donde el mismo par de pins se usa en ambos extremos.

Otros parámetros de prueba


La combinación de los efectos de una señal atenuada con las discontinuidades en la
impedancia en un enlace de comunicación se conoce como pérdida de inserción. La pérdida
de inserción se mide en decibelios en el extremo más lejano del cable. El estándar TIA/EIA
exige que un cable y sus conectores pasen una prueba de pérdida de inserción antes de que
se pueda usar dicho cable en una LAN, como enlace para comunicaciones.

La diafonía se mide en cuatro pruebas distintas. Un analizador de cable mide la NEXT


aplicando una señal de prueba a un par de cables y midiendo la amplitud de las señales de
diafonía recibidas por los otros pares de cables. El valor NEXT, expresado en decibelios, se
computa como la diferencia de amplitud entre la señal de prueba y la señal diafónica
medidas en el mismo extremo del cable.

Recuerde, como el número de decibelios que muestra el analizador de cables es un número


negativo, cuanto mayor sea ese número, menor será la NEXT en ese par de hilos.

Tal como se había mencionado previamente, la prueba PSNEXT es en realidad un cálculo


basado en los efectos NEXT combinados.

La prueba de telediafonía de igual nivel (ELFEXT) mide FEXT. La ELFEXT de par a par
se expresa en dB como la diferencia entre la pérdida FEXT medida y la pérdida de
inserción del par de hilos cuya señal está perturbada por la FEXT. La ELFEXT es una
medición importante en redes Ethernet que usan tecnología 1000BASE-T.

La telediafonía de igual nivel de suma de potencia (PSELFEXT) es el efecto combinado de


ELFEXT de todos los pares de hilos.

La pérdida de retorno es una medida en decibelios de los reflejos causados por


discontinuidades en la impedancia en todos los puntos del enlace. Recuerde que el mayor
impacto de la pérdida de retorno no es la pérdida de la potencia de señal. El problema
significativo es que los ecos de señal producidos por los reflejos originados en
discontinuidades en la impedancia, afectarán al receptor a diferentes intervalos, causando la
fluctuación de las señales.

Parámetros basados en tiempo

El retardo de propagación es una medición simple del tiempo que tarda una señal en
recorrer el cable que se está probando. El retardo en un par de hilos depende de su longitud,
trenzado y propiedades eléctricas.

Los retardos se miden con una precisión de centésimas de nanosegundos. Un nanosegundo


es una mil millonésima parte de un segundo, o 0,000000001 segundo. El estándar TIA/EIA-
568.B establece un límite para el retardo de propagación para las diversas categorías de
UTP.

Las mediciones de retardo de propagación son la base para las mediciones de longitud de
cable. El TIA/EIA-568-B.1 especifica que la longitud física del enlace se calcula usando el
par de hilos con el menor retardo eléctrico. Los analizadores de cables miden la longitud
del hilo en base al retardo eléctrico según la medición de una prueba de Reflectometría en
el dominio del tiempo (TDR), y no por la longitud física del revestimiento del cable.

Ya que los hilos adentro del cable están trenzados, las señales en realidad recorren una
distancia mayor que la longitud del cable. Cuando un analizador de cables realiza una
medición TDR, envía una señal de pulso por un par de hilos y mide el tiempo requerido
para que el pulso regrese por el mismo par de hilos.

La prueba TDR se utiliza no sólo para determinar la longitud, sino también para identificar
la distancia hasta las fallas de cableado, tales como cortocircuitos y circuitos abiertos.
Cuando el pulso encuentra un circuito abierto, un cortocircuito o una conexión deficiente,
la totalidad o una parte de la energía del pulso se vuelve a reflejar al analizador de cables.

Esto puede ser usado para calcular la distancia aproximada a la falla. La distancia
aproximada es útil a la hora de localizar un punto de conexión defectuoso en el recorrido de
un cable, como un jack de pared.

Los retardos de propagación de los distintos pares de hilos en un solo cable pueden
presentar leves diferencias debido a diferencias en la cantidad de trenzas y propiedades
eléctricas de cada par de cables.

La diferencia de retardos entre pares se denomina sesgo de retardo. El sesgo de retardo es


un parámetro crítico en redes de alta velocidad en las que los datos se transmiten
simultáneamente a través de múltiples pares de hilos, tales como Ethernet 1000BASE-T.

Si el sesgo de retardo entre los pares es demasiado grande, los bits llegan en momentos
diferentes y los datos no se vuelven a ensamblar correctamente. A pesar de que un enlace
de cable no es lo que más se ajusta a este tipo de transmisión de datos, la prueba de sesgo
de retardo ayuda a garantizar que el enlace admitirá futuras actualizaciones a redes de alta
velocidad.

Todos los enlaces de cable en una LAN deben pasar todas las pruebas antes mencionadas,
según lo especificado por el estándar TIA/EIA-568.B para ser considerados dentro de los
estándares. Se debe usar un instrumento de certificación para asegurar que se pasan todas
las pruebas para ser considerado dentro de los estándares.

Estas pruebas garantizan que los enlaces de cable funcionarán de manera confiable a
velocidades y frecuencias altas. Las pruebas de cables se deben realizar en el momento de
instalar el cable, y a partir de ahí de forma periódica para garantizar que el cableado de la
LAN cumpla con los estándares industriales.

Se deben utilizar correctamente instrumentos de prueba para cables de buena calidad para
garantizar la precisión de dichas pruebas. Además, se deben documentar cuidadosamente
los resultados de las pruebas.
Prueba de fibra óptica

Un enlace de fibra óptica consta de dos fibras de vidrio separadas que funcionan como
recorridos de datos independientes. Una fibra transporta las señales transmitidas en una
dirección, en tanto que la otra transporta señales en dirección contraria.

Cada fibra de vidrio está cubierta por un revestimiento que no permite el paso de la luz, por
lo tanto los cables de fibra óptica no presentan problemas de diafonía. La interferencia
eléctrica desde el exterior, o ruido, no afecta los cableados de fibra óptica. Se produce
atenuación en los enlaces de fibra óptica, pero en menor medida que en los cables de cobre.

Los enlaces de fibra óptica están sujetos al equivalente óptico de la discontinuidad en la


impedancia de UTP. Cuando la luz encuentra una discontinuidad óptica, tal como una
impureza en el vidrio o una microfractura, parte de la señal de luz se refleja en la dirección
opuesta. Esto significa que sólo una fracción de la señal de luz original continuará su
recorrido por la fibra en su camino hacia el receptor.

Como consecuencia, el receptor recibe una energía luminosa menor, lo que dificulta el
reconocimiento de la señal.

Al igual que con el cable UTP, los conectores mal instalados son la principal causa del
reflejo de luz y de la pérdida de potencia de la señal en las fibras ópticas.

Como el ruido ya no es un problema en las transmisiones por fibra óptica, el problema


principal en un enlace de fibra óptica es la potencia con la que una señal luminosa llega
hasta el receptor. Si la atenuación debilita la señal luminosa en el receptor, se producirán
errores en los datos. Las pruebas de cables de fibra óptica implican principalmente recorrer
la fibra con una luz y medir si la cantidad de luz que llega al receptor es suficiente.

En un enlace de fibra óptica, se debe calcular la cantidad aceptable de pérdida de potencia


de señal que puede ocurrir sin que resulte inferior a los requisitos del receptor. A este
cálculo se le conoce como presupuesto de pérdida del enlace óptico.

Un instrumento para probar fibra, conocido como fuente de luz y medidor de potencia,
verifica si el presupuesto de pérdida del enlace óptico ha sido excedido. Si la fibra falla la
prueba, se puede usar otro instrumento para probar cables para indicar donde ocurren las
discontinuidades ópticas a lo largo de la longitud del enlace de cable.

Un TDR óptico conocido como OTDR es capaz de localizar estas discontinuidades. Por lo
general, el problema tiene que ver con conectores mal unidos. El OTDR indicará la
ubicación de las conexiones defectuosas que se deberán reemplazar. Una vez corregidas las
fallas, se debe volver a probar el cable.

Un nuevo estándar
El 20 de junio de 2002, se publicó el suplemento para la Categoría 6 (o Cat 6) en el
estándar TIA-568. El título oficial del estándar es ANSI/TIA/EIA-568-B.2–1. Este nuevo
estándar especifica el conjunto original de parámetros de rendimiento que deben ser
probados para los cableados Ethernet, así como también los puntajes de aprobación para
cada una de estas pruebas. Los cables certificados como Cat 6 deben aprobar las diez
pruebas.

Aunque las pruebas de Cat 6 son esencialmente las mismas que las especificadas por el
estándar Cat 5, el cable Cat 6 debe aprobar las pruebas con puntajes mayores para lograr la
certificación.

Un cable Cat 6 debe tener la capacidad de transportar frecuencias de hasta 250 MHz y debe
presentar niveles inferiores de diafonía y pérdida de retorno.

Un analizador de cables de buena calidad, similar a la serie Fluke DSP-4000 o Fluye OMNI
Scanner 2 puede realizar todas las mediciones de prueba requeridas para las certificaciones
Cat 5, Cat 5e y Cat 6, tanto para enlaces permanentes como en el canal.

Mecanismos Para La Deteccion De Errores


Introducción:

Desde tiempos muy remotos han existido múltiples formas de comunicación, como son las
señales de humo de los indios y los tambores de los negros, hasta que se inventó en 1794, el
primer instrumento denominado telegrafo por C. Chappe, este sistema se extendió
rápidamente cubriendo en poco tiempo una longitud de 5000 km. El cual permitía la
transmisión de información. Fue en 1837 cuando Samuel Morse inventó el alfabeto capaz
de transmitir cualquier palabra, la cual codificó cada letra de una forma distinta.

A través de los años se han implementado nuevas técnicas de telecomunicación la cual


constituye una exitosa extensión de la electrónica digital a nuevas áreas de aplicación.

El principal problema en la mayoría de los sistemas de comunicación, es la transmisión de


información en forma de mensajes o datos desde alguna fuente de información, hasta algún
destino o receptor. El método de transmisión es frecuentemente empleo de señales
eléctricas, más o menos bajo el control del emisor.

Estas señales se transmiten a través de un canal. Existe probabilidad de que un mensaje


pueda detectarse errores. Sin embargo, debido a las limitaciones del canal y del ruido, se
recibe en el destino de la información una versión perturbada. Generalmente se desea
minimizar la distorsión provocada por las imperfecciones del canal y del ruido, y
maximizar el número de mensajes enviados a través del canal en un tiempo dado.

Estos dos requisitos están relacionados, ya que, un incremento de la velocidad de


transmisión del mensaje acrecienta la distorsión o error, es por ello que se crearon los
detectores de errores y los correctores y para ello es necesario disponer de unos equipos que
permitan estos tipos de procesos.

Cuando se realiza el proceso de detección de error, esto sólo se encuentran agrupados y de


esta manera afecta a un subconjunto de la información transmitida y por tanto es posible
construir este subconjunto a partir del resto.

Por su parte, la protección de errores consiste en insertar en cada extremo del enlace un
dispositivo, un codificador y un decodificador.

Detección y Corrección de Errores:

Los aspectos relacionados con módem, multiplexores, etc. Constituyen la parte física de las
comunicaciones. Estas están formadas también por una parte lógica; tareas tales como la
comprobación de una transmisión libre de errores, la adecuación de las capacidades de las
partes implicadas en la comunicación son ejemplos claros de esos otros aspectos que se han
denominado lógicos.

Cuando se quiere conectar dos o más computadoras entre sí para transmitirse la


información, es necesario conectarlas mediante un soporte físico de transmisión. Esta
conexión puede ser local, urbana, interurbana o internacional, y esta constituida en base a
un cable de hilo, coaxial, enlace de radio, satélite, etc. Esta variedad de medios aporta toda
una diversidad de fenómenos que dificultan la adecuada transmisión.

Se denomina error a toda alteración que provoca que un mensaje recibido no sea una copia
fiel del mensaje transmitido.

Debido a los defectos existentes en los medios físicos utilizados para la transmisión, pueden
producirse errores en la información transmitida, caracterizándose la calidad de la
información por la tasa de errores. La tasa de errores depende de las condiciones de los
elementos del soporte físico utilizado en la transmisión y se expresa como la relación entre
el numero de bits erróneos recibidos y el numero total transmitidos. La calidad de la
información es incompatible, en algunos casos, con los niveles de seguridad necesarios, en
las aplicaciones informáticas, por lo que es necesario disponer de unos equipos que
permitan detectar o incluso corregir los errores producidos por la transmisión.

Los errores que se producen en la transmisión tienden a agruparse en ráfagas, en lugar de


producirse aisladamente. Este aspecto supone una ventaja, pues facilita la detección de los
errores, dado que, de esta forma, afecta sólo a un subconjunto de la información transmitida
y es, por tanto, posible reconstruir este subconjunto a partir del resto.

En todos los casos, la protección contra los errores consiste en insertar en cada extremo del
enlace un dispositivo, un codificador y un decodificador.

La protección contra los errores consiste en añadir, en el codificador, a la información a


transmitir una redundancia para que cuando ésta llega al destino permita detectar o
identificar los errores. La redundancia consiste en añadirle unos bits, llamados de
redundancia, a los del mensaje, de forma que delate o que identifique los errores cuando se
producen. El tipo de redundancia y el modo de obtenerla son los factores que determinan el
código de protección frente a errores. La redundancia puede ser utilizada indistintamente
para detectar o corregir los errores. Asimismo, un código también puede ser más adecuado
para protegerse de un tipo de errores que de otros. En efecto, hay códigos adecuados para
corregir un máximo de “t” errores estadísticamente independientes (en cualquier posición
del mensaje de datos), o bien para errores en ráfagas , agrupados en un subconjunto de bits,
etc. Existe una teoría matemática que describe y relaciona todos estos conceptos,
caracterizando a los códigos mediante la denominada distancia de Hamming. La distancia
de Hamming entre los dos elementos codificados se define como el numero de elementos
de codificación diferentes que presentan; así la distancia de Hamming entre vaca y casa es
2, ya que estas palabras se diferencian en dos letras. Aplicado al tema que nos ocupa, la
distancia de Hamming de un Código se define como el mínimo número de bits que
diferencia a dos elementos codificados. Por ejemplo el código binario convencional tiene
una distancia de Hamming de 1, pues aunque la diferencia entre dos elementos puede ser
tan grande como se desee, la mínima es 1. Uno de los resultados más importantes de esta
teoría establece lo siguiente: un código con distancia de Hamming “ t + d +1 ” sólo es
capaz de corregir “t” errores y detectar “n” (siendo n > t). La importancia de esta
característica de los códigos permitirá comprobar la adecuación del código de cada
problema concreto.

codigos detectores de Errores:

Los métodos más utilizados son:

• Los basados en la paridad, tanto lineal como en bloque.

• Los de redundancia cíclica.

• Métodos basados en la paridad:

Un bit de paridad es un bit que se añade a un dato con el fin de protegerlo contra los
errores. El tipo de paridad más sencillo es la paridad lineal o de carácter, y consiste en
añadir un bit de la derecha de cada carácter a transmitir de modo que el número de bit a
“uno” en el conjunto carácter + bit extra sea par o impar, lo cual se habrá establecido de
antemano. Cuando el valor del bit de paridad se ajusta para que el número de bits con valor
“uno” sea par, se tiene paridad par e impar en el otro caso. Este método es muy simple pero
poco robusto. Debe notarse que es imposible detectar un número par de errores de los datos
transmitidos. Además transmitiendo bloques mayores de cierta longitud deja de ser eficaz.
En código ASCII la representación es muy sencilla:

b1 b2 b3 b4 b5 b6 b7 b8 + P

100110010
100110011

Para los caracteres del código ASCII, el uso de un bit de paridad soló disminuye en un 12%
la capacidad del canal.

Los métodos de paridad se pueden extender agrupando varios datos, por ejemplo, varios
bytes en forma de matriz rectangular y calcular la paridad, tanto en vertical como en
horizontal. Estos métodos se denominan método de cálculo de paridad por bloques.
Evidentemente, proporcionan una mayor protección para los datos, aunque son algo más
complejos y menos eficientes.

Cuando se trabaja en entornos síncronos no es rentable la utilización de métodos basados en


paridad, debido a la deficiente utilización del ancho de banda del canal. Además, se precisa
una protección más fuerte sin consumir demasiados recursos en el proceso de detección
apropiadamente. Está cada vez más extendido el uso de métodos de redundancia cíclica
como respuesta a estas necesidades.

• Métodos basados en el uso de códigos de redundancia cíclica:

El codificador es un dispositivo que asigna a cada bloque de K bits de la fuente, un bloque


de longitud N.

Es conveniente reducir la complejidad del codificador utilizando unas reglas de


codificación sencillas, siempre que no se degraden las posibilidades del código resultante.
Para ello se utilizan códigos con sencillez de codificación o códigos líneas.

Se basan estos métodos en las propiedades de la aritmética modular. Los códigos


polinomiales o de redundancia cíclica se construyen en base a polinomios de coeficientes
binarios, esto es, en base 2 (0 ó 1). El proceso, muy simplificadamente, se basa en
considerar la información binaria a transmitir como los coeficientes de un polinomio de
orden “n-1”, siendo “n” el número de bits a transmitir. El cálculo de la redundancia se
produce al añadir a los “m” bits de mensaje “r” bits de redundancia calculados mediante el
polinomio generador G(x). Por ejemplo, si se envía la cadena 100111001, se considera que
esto equivale al polinomio X6 + X5 + X4 + X3 + 1. El polinomio que se emplea como
divisor es el otro elemento clave, de cuya elección depende la potencia del código. Este
polinomio es el que se conoce como polinomio generador G(x). Interesa que los polinomios
representativos de los errores más frecuentes no sean divisibles por G(x). El algoritmo para
calcular la redundancia es el siguiente:

• Sea r el grado de G(x). Agregar r bits a cero al extremo de orden inferior de la trama, de
tal manera que ahora contenga m + r bits, y corresponda al polinomio x M(x).

• Dividir la serie de bits correspondientes a x M(x) entre la serie de bits correspondientes a


G(x), empleando la división en el módulo 2.
• Restar el resto (que siempre tiene r o menos bits) de la serie de bits correspondientes a x
M(x), empleando la resta en mpodulo 2. El resultado es el mensaje listo para transmitir.
Llámese T(x) a este polinomio que deberá ser divisible por G(x).

¿Qué tipo de errores se detectarán? Imagínese que ocurre un error en una transmisión, así
que, en lugar de recibir el polinomio T(x), llega T(x)+E(x). Cada bit con valor de 1 en E(x)
corresponde a un bit erróneo (invertido). Si hay K bits a 1 en E(x), habrán ocurrido K
errores de un solo bit. Una sola ráfaga de errores se caracteriza por tener un 1 inicial,
mezcla de 0 y 1, y un 1 final, con el resto de los bits teniendo un valor 0. Una vez que se
recibe el mensaje con la redundancia, el receptor la divide entre G(x), si el resto es 0
aquellos errores que se produzcan pasarán inadvertidos; en caso contrario, todos los demás
errores quedarán detectados. Estos códigos permiten detectar más del 99% de los errores
(simples, dobles, impares y a ráfagas) que podrían llegar a producirse. En particular, el
polinomio generador G(x) utilizado es el propuesto por el UIT, G(x) = x. La principal
desventaja está relacionada con la limitación en la longitud del mensaje. Para el polinomio
anterior, ésta es como máximo 65.535, pudiendo utilizarse otros polinomios (CRC-24) para
mensajes mayores.

Códigos Correctores de Errores:

Los sistemas de corrección de errores se basan en la idea de reconstruir la información


original a partir de los datos recibidos, que están compuestos por los datos originales más la
redundancia. Luego, la recuperación de la información tiene lugar en el equipo receptor.

El modelo más popular de sistemas de corrección es el basado en los códigos de Hamming.


Los códigos de Hamming se basan en añadir a cada una de las palabras de información que
se van a transmitir un conjunto de bits de redundancia; el conjunto de bits de información y
de bits de redundancia constituyen una palabra del código Hamming que se esté utilizando.
La particularidad de los códigos Hamming se encuentra que a partir de los bits de
redundancia se pueden detectar las posiciones de los bits erróneos y corregirlos; corregir un
bit erróneo es invertirlo.

Un número máximo de errores que se pueden corregir depende de la distancia de Hamming


para ese código. El diseño del sistema es específico según el número de bits que se quieran
corregir. En todos los casos ocurre, además, que un código de Hamming capaz de corregir
los errores que aparezcan en n bits puede detectar n+1 bits erróneos. Por ejemplo, los
códigos Hamming que corrigen un bit erróneo también son capaces de detectar errores
dobles.

Una desventaja de los códigos de Hamming es el número de bits adicionales que se


emplean, de modo que reducen notablemente la capacidad efectiva del canal. Por este
motivo, a menudo se utilizan mecanismos de envio repetidos, como resultados de la
detección de un error por alguno de los métodos descritos. Lógicamente esto será tanto más
rentable cuanto menor sea la frecuencia de error. En caso contrario, o cuando se exige gran
fiabilidad, los códigos correctores son más adecuados.

Control de Flujo:
Resulta necesario asegurar que la computadora de destino de la información se encuentra
en disposición de recibir los datos. Para esto, existen técnicas que permiten al destinatario
de la información controlar al emisor, para que envié ésta en el momento idóneo. A estos
mecanismos se les conoce como técnicas de control de flujo. Cuando dos computadoras se
comunican, una envía datos mientas la otra las recibe y los va almacenando en algún sitio
en espera de ser evaluados. Este espacio donde se guarda la información puede ser memoria
principal o secundaria. Esto es, pudiera tratarse de un disquete, un disco duro o también
memoria RAM. Evidentemente, siempre se tratará de una cantidad finita de espacio. Si el
emisor continua enviando información, podría llegar a sobrepasar la capacidad del espacio
destinado al almacenamiento. Esto originaría la pérdida de datos que no pudieran
almacenarse. Naturalmente se trata de una situación a evitar siempre que sea posible.

¿Cómo se puede evitar este problema? La solución más sencilla consistiría en reservar más
espacio para almacenar mensajes. Pero si las demás condiciones no varían (el emisor sigue
enviando mensajes) y el receptor no es capaz de procesar la información suficientemente
rápido, sólo será cuestión de tiempo, hasta que de nuevo se plantee el problema.

Para resolverlo, hay que atacar a alguna de las dos condiciones anteriormente descritas. No
sirve como solución aumentar la capacidad de procesamiento de la computadora destino, ya
que resulta una solución local y no resuelve el problema, ya que en otro momento se
convertirá en emisor de información y se producirá el mismo problema en la computadora
que inicialmente emitía. Así, sólo se podrá evitar el problema si se consigue que la
computadora origen deje de transmitir el tiempo suficiente como para que el receptor pueda
procesar los mensajes, liberando así el espacio donde almacenar más información.

El control de flujo asegura que una computadora que disponga de dispositivos de


transmisión rápidos no inundará con datos a otra que no sea capaz de igualarla en rapidez.
El esquema general de esta técnica consiste en enviar a la computadora origen un mensaje
donde se le indica la imposibilidad de continuar recibiendo datos durante algún tiempo. La
computadora de destino enviará el mensaje en el momento en el que detecte una
disminución preocupante de su capacidad de almacenaje de mensajes.

Existen diferentes opciones, a la hora de realizar control de flujo. Las más destacables son:

• Sistemas Síncronos:

-Parada y espera:

El método de parada y espera funciona de la siguiente manera: cuando una computadora


desea transmitir, envía un conjunto de bits (también llamada trama) que no puede exceder
de una longitud determinada. Cuando la computadora destino recibe la información, envía
una confirmación indicando que ha recibido la trama. La computadora de origen deberá
esperar a recibir la confirmación, para poder continuar enviando más tramas. El nombre de
esta técnica corresponde a la obligación de la computadora que emite, de esperar tras la
emisión de una trama, hasta enviar la siguiente, o la misma en caso de una recepción
errónea. Las ventajas de esta técnica son la relativa simplicidad de la misma. Por el
contrario, se hace una uso ineficiente del sistema, sobre todo en medios con elevado tiempo
de propagación de las señales. La computadora esperará inútilmente la confirmación de la
trama recibida, ya que en circunstancias normales de funcionamiento la recepción de datos
será adecuada.

• Ventana deslizante:

Este método suple los aspectos negativos de la técnica anterior, ya que permite el envío de
tramas mientras se espera la recepción de confirmación. El mecanismo es el siguiente: tanto
el emisor como el receptor tiene un espacio igual donde almacenar una cantidad N de
mensajes. LA computadora origen puede enviar, uno tras otro, hasta la mitad de capacidad
de mensajes de almacén, cada uno de los cuales ha de ir etiquetado con un número que
sirve para obtener más tarde confirmación individual de cada trama. Mientras no llegue
ninguna confirmación, el emisor no puede enviar más datos.

El receptor debe confirmar cada trama según vaya llegando correctamente. De esta manera,
mientras se envían las confirmaciones, el emisor puede estar mandando más información y,
de esta forma se consigue un uso más apropiado de la conexión. Si las computadoras
disponen de capacidad de almacenamiento de N mensajes, se dice que posee ventajas de
tamaño N. La computadora receptora de mensajes va confirmando los mensajes en orden y
ese espacio queda disponible para otros. En cierta medida los huecos libres se van
desplazando para recibir nuevos mensajes, de ahí el nombre de esta técnica.

• Sistemas Asíncronos:

Los sistemas asíncronos son aquellos en los que la sincronización de los datos se hace
carácter a carácter. Son los sistemas más sencillos. Los métodos utilizados en estos
sistemas son:

• Control de flujo por software X-ON/X-OFF: Se suele utilizar con módem (RS-232).
Cuando el terminal no puede recibir más datos envía un carácter X-OFF. Una vez
procesados los mensajes, avisa a la computadora origen, enviando el mensaje X-ON. Dadas
las características de esta técnica se suele implementar con software.

• Control de Flujo por hardware: Existen determinadas interfaces que disponen señales
propias, implementadas físicamente. Como ejemplo, la interfaz RS-232 dispone de las
señales RTS/CTS.

Conclusión:

Los factores que más afectan en el rendimiento de las comunicaciones son los errores y, por
supuesto el manejo de información repetida.

La presencia de problemas en la comunicación traducidos en errores en la información


recibidas exige el reenvió de la información errónea. Esto permite reducir la información
total de enviar, asignando (recodificando) un nuevo código de longitud menor a la
secuencia que se repite. Estas técnicas se implementan mediante una serie de normas de
protocolos, de manera que todos los módem capaces de realizarlas se benefician de ellas.

La meta de la codificación es producir códigos con propiedades de decodificabilidad única


para una fuente dada con alfabeto y un conjunto de prioridades.

Un tratamiento general de códigos detectores y correctores de errores requiere que la


estructura del código sea modelada en una forma matemática relativamente intrínseca. El
procedimiento más habitual es identificar las letras códigos con los elementos de un campo
finito.

Para canales de transmisión existen teoremas de codificación los cuales garantiza la


existencia de un código que permitirá la transmisión a cualquier velocidad menor que la
capacidad del canal con probabilidad de error arbitrariamente pequeña. Igualmente las
propiedades de códigos detectores de errores sencillos, es decir, códigos que pueden ser
usados para elevar la fiabilidad de la transmisión, permiten corregir algunos de los errores
que ocurren, reduciendo de este modo la fiabilidad de error.

Correccion De Errores
ACK Métodos - Tipos ARQ

INFORMACIÓN

Parada y Espera En este método el transmisor envía un mensaje y el receptor lo recibe, si es


correcto o incorrecto envía el receptor al transmisor un mensaje de aceptación o error
llamado ACK, el cual debe de llegar en un lapso de tiempo determinado llamado Timer. Si
no llega el ACK en el Timer, el transmisor vuelve a enviar el paquete y solo cuando recibe
el ACK con el mensaje de correcto envía el siguiente dato.

Protocolo de Bit Alternante El principio es igual al de Parada y Espera, pero los paquetes
van numerados, entonces cuando se envía un paquete en el Timer se puede enviar otro
paquete, el receptor envía el ACK al transmisor y verifica que esta correcto envía el
paquete 3, pero los números están dentro de los Datos y aquí le estamos quitando espacio e
los Datos, por eso no es muy bueno el Bit Alternante y también puede surgir duplicidad de
paquetes.

ARQ con Rechazo Simple Es similar al de Bit Alternante, pero aquí solo se utilizan Bits, se
envían todas las tramas que caben el campo del numero de Bits en el tiempo del Timer de la
primera trama, pero el receptor puede enviar un mensaje de que la trama 1 esta incorrecta
pero como también va la trama 3, puede pensar que la 3 es la respuesta de su mensaje
tomándola como la trama 1, entonces surge una perdida de paquetes.

ARQ Ventana de Transmisión Se fija el tamaño de una ventana que va a ser el numero de
paquetes que se pueden enviar, todos con sus respectivos Timer, entonces el receptor recibe
todas las tramas, pero si una esta mal, envía el ACK al transmisor indicando la trama
incorrecta, y este envía la trama que pidió el receptor nuevamente, entonces todas las demás
que estas consecutivas a la trama de error se eliminan, por ejemplo si la trama 1 esta
incorrecta entonces las demás tramas se eliminan y se vuelven a enviar, provocando el uso
de canal de comunicación con tramas que ya se habían enviado aunque estas estuvieran
correctas.

ARQ con Rechazo Selectivo El principio es igual que el de la Ventana de Transmisión,


pero existe la diferencia que si una trama esta incorrecta entonces las demás no se eliminan
y solo se envía la trama que se pidió, después se verifican las demás, una vez que completo
todas, la ventana de transmisión vuelve a inicializarse En conclusión el método ARQ
cuando no le llega un ACK, toma por default como si la trama esta mal y la vuelve a enviar,
y ya seria cosa del receptor rechazarla o volverla a poner, como es el caso en los primeros
métodos como el de Bit Alternante.

You might also like