You are on page 1of 23

2018/19

Administración de Sistemas
Informáticos en Red

[PLANIFICACIÓN Y
ADMINISTRACIÓN DE REDES]
Protocolos de routing.
ÍNDICE
1. PROTOCOLOS DE ENRUTAMIENTO DINÁMICO .....2
1.1. Clasificación de los protocolos de enrutamiento
dinámicos ..................................................................................... 3
1.1.1. Clasificación según su proposito ............................................... 3
1.1.2. Clasificación según su operativa ................................................ 4
1.1.3. Clasificación según su comportamiento .................................... 5
1.1.4. Comparación de los protocolos .................................................. 5
1.2. RIP (Routing Information Protocol) ................................. 6
1.2.1. Versiones de RIP .......................................................................... 7
1.2.2. Operativa de RIP ........................................................................... 8
1.2.2.1. Temporizadores de RIP ............................................................................... 13

1.3. OSPF (Open Shortest Path First)................................... 14


1.3.1. Cálculo de métrica...................................................................... 15
1.3.2. Conceptos de OSPF ................................................................... 15
1.3.3. Estabilizar el RID ........................................................................ 19
1.3.4. Prioridades .................................................................................. 21
1.4. Distancia administrativa ................................................. 21

i
1. PROTOCOLOS DE ENRUTAMIENTO DINÁMICO
El enrutamiento dinámico se basa en los protocolos de enrutamiento para su
correcto funcionamiento.

Los protocolos de routing dinámico se utilizan en el ámbito de las redes desde


finales de la década de los ochenta. Uno de los primeros protocolos de routing fue el
protocolo de información de routing (RIP). Si bien el protocolo RIP versión 1 (RIPv1)
se lanzó en 1988, ya en 1969 se utilizaban algunos de los algoritmos básicos en
dicho protocolo en la Advanced Research Projects Agency Network (ARPANET).

A medida que las redes evolucionaron y se volvieron más complejas, surgieron


nuevos protocolos de routing. El protocolo de routing RIP se actualizó a RIPv2 a fin
de admitir el crecimiento del entorno de red. Sin embargo, la versión más nueva de
RIP aún no es escalable a las implementaciones de red más extensas de la
actualidad.

Con el objetivo de satisfacer las necesidades de las redes más grandes, se


desarrollaron dos protocolos de routing: el protocolo OSPF (Open Shortest Path
First) e Intermediate System-to-Intermediate System (IS-IS). Cisco desarrolló el
protocolo de routing de gateway interior (IGRP) e IGRP mejorado (EIGRP), que
también tiene buena escalabilidad en implementaciones de redes más grandes.

Asimismo, surgió la necesidad de conectar distintas internetworks y proporcionar


routing entre ellas. En la actualidad, se utiliza el protocolo de gateway fronterizo
(BGP) entre proveedores de servicios de Internet (ISP). El protocolo BGP también se
utiliza entre los ISP y sus clientes privados más grandes para intercambiar
información de routing.

Los protocolos de enrutamiento se usan para facilitar el intercambio de información


de enrutamiento entre los routers. Los componentes principales de los protocolos de
routing dinámico incluyen los siguientes:

• Estructuras de datos: por lo general, los protocolos de routing utilizan tablas


o bases de datos para sus operaciones. Esta información se guarda en la
RAM.

• Mensajes del protocolo de routing: los protocolos de routing usan varios


tipos de mensajes para descubrir routers vecinos, intercambiar información de
routing y realizar otras tareas para descubrir la red y conservar información
precisa acerca de ella.

• Algoritmo: un algoritmo es una lista finita de pasos que se usan para llevar a
cabo una tarea. Los protocolos de enrutamiento usan algoritmos para facilitar
información de enrutamiento y para determinar el mejor camino.

2
En la ilustración, se destacan las estructuras de datos, los mensajes del protocolo de
routing y el algoritmo de routing que utiliza EIGRP.

1.1. Clasificación de los protocolos de enrutamiento dinámicos

Los protocolos de enrutamiento se pueden clasificar según diversos criterios.

1.1.1. Clasificación según su proposito

Un primer criterio es dependiendo del escenario donde se esté configurando el


protocolo de enrutamiento.

Antes de proceder con la clasificación es recomendable introducir el concepto de


sistema autónomo (AS). Un sistema autónomo es un conjunto de routers bajo una
administración común, como una empresa o una organización. Los AS también se
conocen como dominios de enrutamiento. Los ejemplos típicos de AS son la red
interna de una empresa y la red de un ISP.

• IGP (Interior Gateway Protocol): son protocolos de enrutamiento interno y


se utilizan dentro de un sistema autónomo. Sirven para el intercambio de
tablas de rutas entre routers de una misma sede (empresa).

o Ejemplos: RIP, EIGRP, OSPF e IS-IS.

• EGP (Exterior Gateway Protocol): de enrutamiento externo; se utilizan para


el routing entre AS. Sirven para el intercambio de información entre diferentes
empresas y son los que se utilizan en ámbito público, como Internet.

o Ejemplos: BGP.

3
Esta clasificación no impide la utilización de uno de los protocolos en un escenario
diferente del indicado; simplemente da idea acerca de para qué escenario estará
optimizado cada uno de los protocolos.

1.1.2. Clasificación según su operativa

Otra posible clasificación de los protocolos es según la operativa del algoritmo que
compone el protocolo:

• Protocolos de Distancia Vectorial: para determinar el coste (o métrica) final


de la ruta y decidir así cuál es la ruta óptima para enviar un mensaje, se
basan en la suma de los costes parciales (coste de cada tramo) o, lo que es lo
mismo, el cálculo de vector-distancia.
A 1 B

3 2

C
o Ejemplo: RIP

• Protocolos de Estado de Enlace: determinan la ruta en función del estado


de los routers vecinos. Utilizan un algoritmo más complejo (p.ej. Dijkstra). El
algoritmo de Dijkstra calcula todos los posibles caminos para llegar a cada
destino, compara métricas y, a partir de ahí, calcula la mejor ruta. Estos
algoritmos utilizan muchos recursos y tardan en crear la tabla.

o Ejemplos: OSPF e IS-IS

4
• Protocolos de Vector Ruta: este tipo de protocolos exceden el contenido del
curso, por lo que es un concepto que no se analiza.

o Ejemplo: BGP

1.1.3. Clasificación según su comportamiento

Una tercera clasificación, que afecta especialmente a los protocolos IGP depende
del modo en el que propagan las redes que conocen los routers.

• Protocolos con clase: mediante este tipo de protocolos, los routers no


envían información de la máscara de subred en las actualizaciones de routing.
Este tipo de protocolos son los que surgieron en un inicio, pero su uso ya sólo
persiste de manera muy residual.

o Ejemplos: RIPv1 e IGRP.

• Protocolos sin clase: en estos casos los routers propagan información de la


máscara de subred junto con la propia dirección de red en las actualizaciones
de routing. Son los que se utilizan en la actualidad.

o Ejemplos: RIPv2, EIGRP, OSPF e ISIS.

1.1.4. Comparación de los protocolos

Los protocolos de enrutamiento se pueden comparar según las siguientes


características:

5
• Velocidad de convergencia: define cuán rápido comparten información de
routing y alcanzan un estado de conocimiento coherente los routers de la
topología de la red. Cuanto más rápida sea la convergencia, más preferible
será el protocolo. Los loops de enrutamiento pueden ser el resultado de
tablas de enrutamiento incongruentes que no se han actualizado debido a la
lenta convergencia de una red sujeta a cambios.

• Escalabilidad: define cuán grande puede ser una red, según el protocolo de
routing implementado. Cuanto más grande sea la red, más escalable debe ser
el protocolo de enrutamiento.

• Con clase o sin clase (uso de VLSM): los protocolos de routing con clase no
incluyen la máscara de subred y no admiten VLSM. Los protocolos de routing
sin clase incluyen la máscara de subred en las actualizaciones. Además,
admiten VLSM y una mejor sumarización de ruta.

• Uso de recursos: incluye los requisitos de un protocolo de routing, como el


espacio de memoria (RAM), la utilización de la CPU y el uso del ancho de
banda del enlace. Una mayor cantidad de requisitos de recursos exige
hardware más potente para admitir la operación del protocolo de routing
además de los procesos de reenvío de paquetes.

• Implementación y mantenimiento: describen el nivel de conocimiento


necesario para que un administrador de red ponga en funcionamiento y
mantenga la red según el protocolo de routing implementado.

Vector distancia Estado de enlace


RIPv1 RIPv2 IGRP EIGRP OSPF IS-IS
Velocidad de Lento Lento Lento Rápido Rápido Rápido
convergencia
Escalabilidad: Pequeño Pequeño Pequeño Grande Grande Grande
tamaño de la red
Uso de VLSM No Sí No Sí Sí Sí
Uso de recursos Bajo Bajo Bajo Medio Alto Alto
Implementación Simple Simple Simple Complejo Complejo Complejo
y mantenimiento

1.2. RIP (Routing Information Protocol)

• Protocolo IGP y de distancia vectorial.

• Estándar: código abierto y público. Se va a encontrar prácticamente en


cualquier sistema, incluido en sistemas Microsoft (con sus propias
características, pero compatible con RIP de otros sistemas), en routers
Huawei, Juniper…, sistemas UNIX...

6
Se dice que es estándar porque existen versiones para diferentes protocolos
enrutables de nivel 3 como IPv4, IPv6, IPX/SPX…

• El cálculo del coste (métrica) es igual al número de routers que hay que
atravesar para llegar al destino. Esto también se conoce como número de
hops.

• Existen dos versiones de RIP: versión 1 y versión 2, siendo evidentemente la


versión 1 la más antigua.

• Cada 30 segundos todos los routers envían sus tablas de rutas.

• El coste de mis propias redes es 0 y el máximo permitido 15 (métrica infinita).

1.2.1. Versiones de RIP

Cada una de las versiones de RIP incluye sus características propias que cabe
diferencias correctamente para entender su funcionamiento.

RIP v1

Las características de la versión 1 de RIP son:

• El envío de la tabla de rutas se dará con dirección de destino la del broadcast


de inundación de red: 255.255.255.255.

Ello hace que todo sistema que reciba el mensaje se va a considerar


destinatario del mensaje, lo cual unido a que cada router enviará su tabla de
rutas cada 30 segundos, supondrá un gran consumo de recursos innecesarios
y una sobrecarga de red. Por ello, no se utiliza.

• Cada router envía su tabla de rutas completa, pero con formato de clase pura
sin incluir la notación CIDR (no se indica la máscara de subred).

• No tiene soporte de subredes.

RIP v2

Las características de la versión 2 de RIP son:

• El envío de la tabla de rutas se dará con dirección de destino la dirección


multicast 224.0.0.9. Mediante el uso de esta dirección sólo se sentirán
destinatarios del mensaje aquellos dispositivos que tengan configurada esa
dirección, es decir, aquéllos que soporten RIP v2.

• De manera predeterminada, cada router envía su tabla de rutas completa,


manteniendo el formato de clase pura, pero añadiendo la notación CIDR (se
incorpora máscara de subred).

7
• Tiene soporte de subredes, por lo que se puede configurar de tal manera que,
en lugar de enviarse las redes puras, se envíen las subredes.

• Admite autenticación por parte de cada router con el que tenga que
comunicarse. Sólo aquellos routers que compartan una clave podrán dialogar
entre sí.

1.2.2. Operativa de RIP

Para introducir la operativa de RIP se va a recurrir a un ejemplo que no se


corresponde con la realidad, pero sirve para explicar cómo va realmente el
funcionamiento de RIP.

Este primer esquema explica el funcionamiento básico de RIP con alguna excepción
que se explicará más adelante.

Cada uno de los sobres situados debajo de los respectivos switches refleja el envío
de la tabla de rutas de cada uno de los routers. En negro se indica la información
que envía cada router porque lo contiene en su tabla de rutas inicial y en color, la
información que envía tras haberla aprendido a través de otro router (el color
representa al router a través del cual ha aprendido cada información).

De la misma manera, conforme se ha ido realizando el estudio, se han ido


rellenando las tablas de rutas de cada uno de los routers¸ siguiendo el mismo criterio
en cuanto a la asignación de colores.

Cabe destacar que independientemente de por dónde se comience a realizar el


estudio, el resultado final será el mismo.

8
Si se comienza analizando el R1, la primera tabla de rutas que enviaría contendría
las entradas de A y B, que son las redes que tiene directamente conectadas. Como
se ha visto anteriormente, la métrica para toda red directamente conectada es 0.
Pues bien, siguiendo el protocolo de RIP, son los routers que envían la tabla de
rutas los que se encargan de incrementar la métrica de cada red que envían en una
unidad respecto a lo que tienen almacenado en su tabla de rutas. Por ello, el primer
envío de R1 sería,

que indica simplemente que se envían las redes A y B con métrica 1.

La tabla de rutas se propaga a través de todos los interfaces del router, de ahí las
flechas del esquema, pero en este caso sólo se analizará la comunicación entre
routers, que es lo que interesa.

Una vez que la tabla de rutas de R1 es recibida por R2, éste procederá a actualizar
su propia tabla de rutas con los datos recibidos, tal cual le llegan. Sin embargo,
previamente a la actualización, comprueba que los datos recibidos sean nuevos para
él o “mejores” (métrica menor) que alguno que él ya posea.

En este caso recibe las redes A y B con métrica 1. La información acerca de A es


nueva para R2, por lo que la almacenará indicando la red, la métrica y el siguiente
salto que debe dar para llegar a esa red. En este caso R2 tendrá que saltar hacia R1
para poder llegar a A, de ahí que almacene R1 como siguiente salto. La información
de B, en cambio, no es nueva; por lo que tendrá que mirar si la información recibida
le indica una métrica menos que la que él contiene. No es éste el caso, por tanto,
descarta esa información y no actualiza esa entrada de la tabla.

Tras actualizar la tabla, R2 propaga su nueva tabla. En este caso, propagará a


través de todos sus interfaces todas las redes que tiene conectadas (B, C y D) más
la nueva entrada aprendida a través de R1. Teniendo en cuenta que incrementa en
una unidad la métrica, la tabla propagada será:

De esta manera, la tabla es enviada y recibida a continuación por R3. Tal y como ha
hecho R2, R3 procederá a actualizar el contenido de su tabla de rutas. La
información de la red D la descarta por tenerla directamente conectada (métrica 0),
pero el resto es información nueva para él. Por consiguiente, almacenará la

9
información de A, B y C tal cual la recibe de R2 e indicará que el siguiente salto a dar
para llegar a esas redes es R2.

A continuación, R3 propagará su nueva tabla de rutas, que en este caso ya se


corresponderá con la definitiva. Incrementando en una unidad la métrica de las
redes que contiene en su tabla de rutas, se llega al mensaje del esquema inicial.

Dicho mensaje es recibido por R2 y actualizará su tabla de rutas. En este caso, la


única información que le es válida es la de la red E. Almacenará la red y la métrica e
indicará que el siguiente salto para llegar a esa red es R3.

Tras ello, R2 propagará su nueva tabla de rutas, siendo ya la definitiva (Ver


esquema). Dicha información llegará a R1, que actualizará su tabla, incluyendo en
este caso la información sobre las redes C, D y E, indicando que tendrá que ir hacia
R2 para llegar a esos destinos.

El último paso que se dará en el estudio antes de dar por convergido el algoritmo, es
verificar que la nueva tabla de rutas que envía R1 no contiene información relevante
para R2. En este caso, así ocurre, por lo que el protocolo de RIP ha finalizado. De
ahora en adelante, cada uno de los routers propagará su tabla de rutas cada 30
segundos a través de todos sus interfaces.

Como se ha dicho antes, cierta información del estudio anterior no es cierta, sino que
se iba a hacer el estudio así para introducir el verdadero funcionamiento del
protocolo. Para ello, se van a estudiar dos casos en los que, si el protocolo de RIP
funcionase como el caso anterior, fallaría.

Pongamos la situación en que el administrador, bien por error bien porque le ha


dado la gana, o un atacante con malas intenciones, modifican en R3 el coste
correspondiente a la entrada de la red D, pasando de 0 a 10.

10
En ese caso, R3 propagará la red D con métrica 11 y esta información será recibida
por R2, que la descartará. Por esta parte, por tanto, no hay problema. Si, en cambio,
se analiza la propagación de la tabla de rutas de R2 a R3, la cosa cambia. R2
propaga la red D con métrica 1 y, al recibir esta información R3, modificará esa
entrada en su tabla de rutas, lo cual carece de sentido. Si hubiese más routers a la
derecha de R3, les propagaría la nueva métrica, extendiéndose así una información
falsa por toda la red. A este hecho se lo conoce como envenenamiento de red.

Para evitarlo, no sólo RIP, sino todos los protocolos de enrutamiento, implementan
un algoritmo.

• Algoritmo de Poison-Reverse: este algoritmo prohíbe que el router envíe en


la tabla de enrutamiento que propague la red correspondiente al interfaz por
el que se envíe el mensaje.

Centrándose en el caso estudiado, por ejemplo, R1 no podría enviar


información de la red B a través del enlace que lo une a R2. Por tanto, los dos
mensajes que enviaría R1 en un inicio a través de cada uno de sus interfaces
conectados serían:

- A través de A: - A través de B:

Para terminar de ver el correcto funcionamiento de RIP, se plantea una nueva


situación a partir de la original. ¿Qué ocurrirá si la red A se cae?

11
Si la red A se cayese, R1 no tendría nada que enviar acerca de la red A, a través del
enlace serial que lo une con R2. En ese caso, R2 detectaría que R1 no envía nada
sobre A y él enviaría su tabla tal y como aparece en el esquema.

Al llegar la información a R1, como éste ya no tiene información de A en su tabla,


incluiría la entrada con los datos recibidos de R2 e indicaría que el siguiente salto
para llegar a la red A es R2.

R1 propagará su nueva tabla de rutas hacia R2 tal y como se indica en el esquema y


ésta será recibida por R2, que procederá a actualizar su tabla de rutas.

En este caso, centrándose en la información acerca de la red A, se observa que R3


ahora recibe A de R1 con métrica 3. En este caso, la información que él contiene
tiene métrica menor (A | 1 -> R1), pero el origen de la información es el mismo, R1.
Por ello, R2 lo toma como una actualización de R1, es decir, considera que algo
habrá cambiado alrededor de R1 que ha hecho incrementar la métrica de la red A y
toma esa nueva información como válida.

A causa de ello, se dará una nueva situación que se representa en el siguiente


esquema.

12
Tal y como se observa ahora, ambos routers poseen una entrada en su tabla de
rutas acerca de la red A que depende del otro router, con lo que continuamente irán
incrementando la métrica y propagándola a modo de partido de tenis. Es por ello que
todos los protocolos de enrutamiento incluyen una métrica infinita (recordemos que
en el caso de RIP esa métrica infinita es 15).

Aun así, hay casos en lo que la métrica infinita es demasiado alta y el “partido de
tenis” se alargaría por mucho tiempo. Por ello, se hace necesario implementar un
mecanismo que pare todo esto mucho antes.

• Algoritmo de Split-horizon (Horizonte dividido): este algoritmo evita que se


envíen de vuelta a través de un enlace las redes que un determinado router
ha aprendido a través de dicho enlace. En resumen:

“Lo que se aprende por un interfaz, no se propaga por ese interfaz”

De este modo, queda explicada la operativa de RIP teniendo en cuenta, que, como
todos los protocolos de enrutamiento, incluye los algoritmos de Poison-reverse y
Split-horizon; además de una métrica infinita.

1.2.2.1. Temporizadores de RIP

Como todo protocolo de enrutamiento conocido, RIP hace uso de una serie de
temporizadores para optimizar su funcionamiento. A continuación, se enumera,
explica y establece cada uno ellos.

13
1. Actualización de tabla de rutas

De manera predeterminada, los routers cada 30 segundos envían su tabla de


rutas al completo.

2. Intervalo de caída

Se establece a 180 segundos y determina el tiempo que esperará un router


vecino al router que tiene conectada la red caída, antes de etiquetar como
posiblemente caída esa red. Ello implica que el router pone la métrica infinita
para esa red, de tal manera que deja de propagarla a otros routers y deja de
enrutar hacia ese segmento.

Si particularizamos el caso para la caída de la red A, una vez ésta cae, R1


automáticamente la borra de su tabla de rutas y deja de propagarla, por
tenerla directamente conectada y ser él el encargado de detectar la caída y
hacer correr la noticia.

Una vez esto ocurre, R1 deja de propagar la red y R2 detecta ese hecho. En
un principio, considera que es un error de transmisión y no hace nada, así
hasta un total de seis ciclos de actualización de tablas (6 ciclos * 30
segudos/ciclo = 180 segundos). Una vez pasan los seis ciclos, R2 etiqueta la
red A como posiblemente caída. Hecho esto, pone la métrica a 15 y deja de
enrutar hacia ella. A su vez, la propaga con métrica 16, que es como no
propagarla, ya que es una métrica superior a la infinita y ningún router
interpreta esa información como válida.

Gracias a este hecho, R3 detecta 180 segundos después de la caída real que
R2 no propaga la red A, con lo que esperará otros seis ciclos de actualización
de tablas para considerarla como posiblemente caída. Si hubiese más
routers, la propagación de la noticia continuaría, tardando más en detectar la
caída los routers más lejanos al punto conflictivo.

3. Intervalo de eliminación (flush)

Es el tiempo que tarda un router en eliminar una red que ha aprendido. Se


establece en 240 segundos, o lo que es lo mismo, 180 segundos del intervalo
de caída más 60 segundos que espera hasta eliminarla.

1.3. OSPF (Open Shortest Path First)

Es un protocolo de estado de enlace estándar que hace uso del algoritmo de


Dijkstra, muy costoso y complejo. Pero todo lo que tiene de complejo y costoso este
algoritmo lo tiene de bueno, por lo que una vez converge, los resultados obtenidos
son los óptimos.

Por ser un protocolo de estado de enlace, se basa en un descubrimiento de vecinos


a través de paquetes hello o ACKs en interfaces seriales punto a punto.

14
Es un protocolo ideal para utilizarse en una red relativamente compleja. Para redes
de pequeño o mediano tamaño se recomienda el uso de EIGRP en caso de trabajar
con Cisco; sin embargo, para redes mayores EIGRP sobrecarga demasiado la red,
con lo que deja paso a OSPF.

Lo bueno de OSPF es que permite hacer una estructura muy jerarquizada en áreas
con lo que se optimiza el tráfico en la red. Se puede conseguir un diálogo entre
routers de todos a 1 en forma de árbol, evitando que todos los routers dialoguen
entre sí.

1.3.1. Cálculo de métrica

El cálculo de la métrica lo hace en función del ancho de banda únicamente. De


hecho, la ecuación que utiliza para calcular la métrica es:

𝐶𝐶𝐶𝐶𝐶𝐶𝐶𝐶𝐶𝐶 = 10^8/∆𝐵𝐵

El valor de 108 se denomina de forma genérica ancho de banda de referencia. En


el caso habitual, se toma ese valor como tal, puesto que equivale al ancho de banda
de un enlace FastEthernet. No obstante, es conveniente muchas veces aumentar
ese valor de ancho de banda de referencia, siempre que se disponga de enlaces
GigabitEthernet o 10GgigabitEthernet en la topología. Esto es así dado que, si se
mantiene el valor a 108, el coste para FastEthernet, GigabitEthernet y
10GigabitEthernet sería el mismo para todos ellos puesto que se redondearía a 1.
Sin embargo, ello carece de sentido, puesto que no responde a la realidad de la
topología y, claramente, una ruta 10GigabitEthernet es preferible ante las otras dos.

Por ello, una práctica recomendada es modificar el valor del ancho de banda de
referencia a 109 si tratamos con enlaces GigabitEthernet y de 1010 en el caso de
tener algún 10GigabitEthernet.

1.3.2. Conceptos de OSPF

Para la correcta explicación y consiguiente comprensión de OSPF, es necesario


definir una serie de conceptos que no aparecen en otros protocolos estudiados
anteriormente.

• RID (Router ID): para que OSPF pueda funcionar de manera adecuada, es
necesario que cada router se identifique de manera única dentro del dominio
de enrutamiento. No se admite dentro de una topología OSPF que dos routers
tengan un identificador igual.

El RID de un router se compone de 32 bits en formato de IPv4, es decir, se


divide en 4 octetos pasados a código decimal. Al configurar OSPF en
sistemas donde se hace uso del protocolo IPv4, la asignación del RID se hace
de manera automática, permitiendo así que el administrador no tenga que

15
preocuparse de asignarlo. No obstante, en muchas ocasiones puede interesar
modificarlo.

Cuando se configura OSPF sobre IPv6, en cambio, es necesario asignarlo


porque, a pesar de haber salido una versión de OSPF para IPv6, el RID se
sigue manteniendo con los 32 bits y el formato de IPv4. La asignación, por
tanto, no es automática, dado que no tiene una referencia IPv4 en el router.

• Elección del RID: para la elección del RID el router valora el


direccionamiento IPv4 que haya configurado en el router y elegirá la dirección
IP más elevada de entre todos los interfaces que se encuentren activos. De
esta forma, OSPF consigue que no haya dos routers dentro del mismo
dominio de enrutamiento que compartan el mismo RID (por no haber
duplicidad de IPs).

Una vez establecido el RID de cada router, entra en funcionamiento el mecanismo


de descubrimiento de vecinos para lo que previamente se deberá conocer la
topología existente.

• Topología Point-to-Point: será la correspondiente a enlaces seriales que


simplemente conectan dos equipos entre sí.

• Topología de multiacceso: se corresponde con los interfaces Ethernet que


pueden conectar un sistema con un dispositivo de interconexión que lleve a
varios sistemas.

El descubrimiento de vecinos varía en función de la topología, utilizando paquetes


hello en topologías multiacceso y ACKs en interfaces punto a punto. A parte de esto,
OSPF especifica una prioridad de interfaz. En una topología punto a punto, la
prioridad se establecerá a 0, mientras que en topologías multiacceso se establece a
1.

Además, por otro lado, hay una gran diferencia. Como se ha comentado
anteriormente, OSPF implementa una estructura muy jerarquizada evitando que los
routers dialoguen todos con todos, intentando que el diálogo se produzca de muchos
hacia uno. En una topología punto a punto no queda más remedio que los routers
dialoguen entre sí, por ser los dos únicos conectados. Sin embargo, en lugar de
establecer un diálogo bidireccional, lo que va a hacer OSPF es elegir a uno de los
dos como maestro (master) manteniendo al otro como esclavo (slave); de tal
manera que será el esclavo el encargado de enviar su información de enrutamiento
al maestro y éste, a su vez, será el único que implemente el algoritmo de Dijkstra y,
tras construir su tabla de rutas definitiva, propagársela al esclavo. De esta manera se
están optimizando recursos del sistema.

La elección de maestro y esclavo la hace automáticamente el protocolo OSPF y,


para saber cuál ejerce qué papel, hay que hacerlo a través de los estados por los
que pasa.

16
En las topologías multiacceso, en principio, habrá un dispositivo de interconexión
(switch) al que se conectarán varios routers. De la misma manera, se buscará
establecer una estructura jerarquizada de todos ellos para hacer que todos los
routers intenten dialogar con el router que se encuentre en la punta de la pirámide
jerárquica.

Para ello, sobre esa topología de multiacceso, los routers mediante el diálogo de
paquetes hello elegirán un router delegado de zona. Ese delegado asume el rol de
recibir la tabla de rutas por parte de todos los routers que se encuentren conectados
a la topología de multiacceso. Una vez haya recibido todas las tablas, será el router
delegado el encargado de ejecutar el algoritmo de Dijkstra y, una vez construida la
tabla de rutas definitiva, distribuirla al resto de routers de la topología de multiacceso.

• Router DR (router designado): es el nombre que recibe el router delegado


de una topología de multiacceso. Como se ha dicho antes, se elige mediante
el diálogo de paquetes hello y, el administrador, debería intentar que la
designación del DR se enfoque hacia un router que se encuentre más libre de
recursos o cuyas prestaciones sean más elevadas en comparación con las
del resto de routers de la topología, de tal manera que el algoritmo de Dijsktra
converja lo antes posible.

Va a haber un único DR dentro de cada topología multiacceso siempre y


cuando todos los routers de esa topología compartan dominio de red, es
decir, sus direcciones IP se deben encontrar todas en la misma red o
subred.

Según Cisco, el caso contrario es inviable, aunque en la realidad se sepa que


no es verdad.

• Router BDR (router backup designado): es el subdelegado de la topología


de multiacceso. Lo que consigue la designación de un BDR es que a éste
también se le envíen las tablas de rutas de todos los vecinos. Sin embargo,
no ejecutará el algoritmo de Dijkstra. Su verdadera función entra en juego
cuando ocurre algún problema con el DR, ya que será el BDR el que asuma el
papel del DR caído y, sólo en ese caso, ejecutará el algoritmo de Dijsktra y
distribuirá la tabla de rutas definitiva.

• Zona o área: mediante la creación de áreas o subdominios de enrutamiento,


OSPF consigue optimizar el proceso de enrutamiento e intercambio de tablas
de rutas, consiguiendo así también una estructura jerarquizada.

Las áreas se identifican mediante un valor numérico basado en 32 bits, por lo


que se puede identificar mediante un valor en formato IPv4 o ponerlo
directamente en formato decimal. Así pues, llamar a un área 0.0.1.0 o llamarla
256 es, en definitiva, lo mismo.

Al configurar OSPF en un router, a cada interfaz se lo ubica dentro de un


área, pudiendo poner a todos los interfaces dentro de la misma área o en

17
áreas separadas. Sin embargo, un mismo interfaz no puede estar en varias
áreas distintas.

Las áreas se clasifican en dos áreas principales para el CCNA (A nivel de


CCNP existen más).

o Área backbone: es el área principal de la topología de OSPF y se


identifica mediante el valor 0 o bien 0.0.0.0, dependiendo del formato.
Siempre debe existir un área backbone en la topología de OSPF.

Todas las áreas generadas en la topología de OSPF tienen que tener


conectividad con el área backbone, es decir, siempre tiene que haber
un enlace para cada área que conecte con el área backbone. Si se
configura un área sin tener un enlace con el área backbone, ésta
quedaría aislada y no existiría convergencia en el protocolo.

o Área regular: son el resto de áreas y su objetivo no es otro que realizar


una subdivisión y, por consiguiente, optimización del enrutamiento.
Recordar que siempre deben tener algún tipo de conexión con el área
backbone.

Siempre que exista enlace con el área backbone, el intercambio de tablas de


rutas entre áreas regulares se dará de manera automática a través del área
backbone. De ahí la importancia de tener una conectividad siempre con el
área backbone.

Esto es debido a que una vez el DR o maestro de un área regular ha


ejecutado el algoritmo de Dijkstra y, por tanto, ha construido la tabla de rutas
definitiva, automáticamente buscará al DR o maestro del área backbone, a fin
de pasarle su tabla de rutas y que ejecute el algoritmo de Dijkstra final para
que exista una convergencia a nivel de topología completa. Una vez ejecute
el algoritmo de Dijkstra definitivo, el DR o maestro del área backbone
distribuirá la tabla de rutas definitiva a los DR de las áreas regulares y éstos, a
su vez, a los routers vecinos de sus respectivas áreas.

• ABR (Area Border Router): es un router que se encuentra entre varias áreas
y será el encargado de establecer o permitir esa comunicación entre cada una
de las áreas regulares y el área backbone.

• Elección de DR: la elección del DR se hará de manera automática dentro del


proceso de envío de paquetes hello. El DR será aquel router que tenga el RID
más elevado.

Una vez establecido el rol de DR, siempre deberá elegirse un router BDR. El
proceso de elección será igual, pero excluyendo al router DR del proceso. Por
tanto, el BDR será el router con el RID más elevado de entre todos los routers
de la topología, exceptuando al DR.

18
1.3.3. Estabilizar el RID

No parece muy lógico que el router elija el DR y el BDR de manera automática


basándose únicamente en la IP. Por ello, en muchos casos es necesario modificar el
comportamiento predeterminado de OSPF.

En todo ello influye el RID de los routers, ya que se parte de él para la elección del
router DR y el BDR. Por ello, parece lógico buscar un mecanismo que permita al
administrador asignar el RID de manera estable y como a él le convenga.

Para comprender el motivo de todo lo dicho anteriormente, se hará uso del siguiente
ejemplo:

Partiendo del esquema superior, el RID que tendrá asignado el R1 será la IP del
interfaz conectado a Internet (en rojo). En el supuesto caso de que ese enlace
cayese, automáticamente pasaría a ser el RID la 10.64.0.1 (en verde). Si el enlace
volviese a estar correctamente, el RID volvería a cambiar al 80.0.0.1. Como se
puede observar, la inestabilidad de un cierto enlace puede causar que el RID del
router esté continuamente cambiando, lo cual puede suponer un problema serio.

Además, si se tiene en cuenta la existencia de R2 y R3 dentro de la topología local


de red, éstos generarán una tabla de vecinos donde identifican al R1 con su RID.
Cuando el enlace cae, R2 y R3 no asumen que el R1 ha cambiado de RID, sino que
directamente piensan que tienen un nuevo vecino.

19
Por si fuese poco, en este caso, mientras el enlace de conexión a Internet esté
activo R1 será el DR de la topología multiacceso, pero cuando el enlace caiga, en
cambio, el DR pasará a serlo R3, que tiene el siguiente RID más elevado. Ello
conllevaría que sea R3 el que tenga que realizar algunas veces el algoritmo de
Dijkstra, redistribuir las tablas definitivas… y en otras R1, sin haber habido ningún
problema con el router DR principal, el R1.

Todo ella conlleva una ineficiencia en la red, se deberá ejecutar el algoritmo de


Dijkstra más veces de las estrictamente necesarias consumiendo muchos recursos,
las tablas de vecinos se actualizarán constantemente cuando realmente los vecinos
no han cambiado, etcétera.

En conclusión, es necesario que el administrador elija a dedo el router que debe ser
el DR y, para ello, establece mecanismos de estabilización del RID de los routers.

Para poder estabilizar el RID de un router, existen dos formas de hacerlo:

• Configuración manual del RID: el administrador determina cuál será el RID


del router. Siempre que se dé este caso, el router automáticamente lo coge
como válido y prevalece frente al RID que podría asumir el router en función
de las IPs de sus interfaces activos. De este modo, se evitan de una manera
sencilla posibles fluctuaciones.

En este caso el administrador deberá tener especial cuidado de no asignar el


mismo RID a dos o más routers diferentes dentro de la topología.

• Interfaces de loopback: loopback es el nombre que recibe la 127.0.0.1


(bucle invertido). El protocolo de TCP/IP debe tener conectividad con la tarjeta
de red de manera que, de alguna forma, cuando dentro del proceso de
comunicación llega al nivel físico y debe enviar los bits, exista un enlace entre
el protocolo (software) y el sistema físico (hardware). A ese enlace se lo
conoce como loopback o 127.0.0.1.

La 127.0.0.1 forma parte del protocolo, por lo que siempre estará en


funcionamiento mientras el protocolo esté activo. Asignando el RID al
loopback, lo que se consigue es que el RID sea completamente dependiente
de la existencia del protocolo y no de nada externo, como ocurría en el
ejemplo visto anteriormente. De esta forma, se logra una mayor estabilidad en
el RID del router.

Sin embargo, no es funcional utilizar la 127.0.0.1, ya que no se puede decir a


un router que para intentar conectar con otro router lo haga a través de la
127.0.0.1; ya que conectaría consigo mismo. Para evitar esa circunstancia,
existe la posibilidad de asignar segundas direcciones IP sobre la 127.0.0.1, a
modo de alias. De este modo, ligamos internamente esa dirección IP al
protocolo TCP/IP y los sistemas externos pueden acceder a ella a través de la
red.

20
Los interfaces de loopback permiten generar direcciones IP secundarias sobre
la 127.0.0.1 hasta un máximo de 100.

Cuando en un router se configuran interfaces de loopback, el RID del router


pasa a ser automáticamente la IP más alta de entre todos los interfaces de
loopback configurados, sea o no menor que cualquiera de las IPs de los
interfaces de red activos del router.

Cabe destacar que la dirección IP que se asigne a un interfaz de loopback


evidentemente debe ser una IP válida y debe pertenecer a una red distinta a
la de todo el resto de interfaces físicas del router.

No es necesario activar expresamente los interfaces de loopback, ya que van


asociados al protocolo TCP/IP y éste siempre se encontrará activo.

1.3.4. Prioridades

Al tener controlado el RID de un router, el administrador puede hacer que el DR de


un área sea un determinado router que a él le interese. Sin embargo, existe otra
forma de conseguirlo, que es mediante la modificación de prioridades.

Cada interfaz dentro de un dominio OSPF automáticamente lleva asociada una


prioridad que puede ir desde 0 a 255. De manera predeterminada, la prioridad de
un interfaz Ethernet es igual a 1 mientras que para los enlaces seriales es 0. Que la
prioridad sea 0 implica directamente que el router no entrará en la lucha por el DR a
través de ese interfaz.

Si se modifica la prioridad, el DR será el router cuyo interfaz tenga la prioridad más


elevada, prevaleciendo sobre el valor del RID de los routers de la topología. A
igualdad de prioridades, en cambio, el DR será el router que tenga el RID más
elevado.

1.4. Distancia administrativa

La distancia administrativa es el identificador numérico asociado a una ruta puede


variar de 0 a 255. De alguna forma, viene a valorar la fiabilidad de una ruta en
función de cómo la haya aprendido el router; de tal manera que cuanto menor sea la
distancia administrativa, más fiable es la ruta o, mejor dicho, la fuente a través de la
que se ha aprendido dicha ruta.

De entre todas las formas de enrutamiento vistas hasta ahora, el mejor siempre será
el estático y por ello tendrá la menor distancia administrativa (obviando las redes
directamente conectadas). Siempre va a prevalecer el criterio de un administrador a
cualquier protocolo de enrutamiento dinámico.

De establecer una clasificación con lo visto hasta ahora, sería la siguiente:

21
1. Conectada  0 Son valores que se asocian directamente y de manera
predeterminada al diseñar los protocolos.
2. Estático  1
No obstante, son modificables por el administrador en
3. OSPF  110 caso de requerir que un protocolo prevalezca, por
ejemplo, sobre el enrutamiento estático.
4. RIP  120

La importancia de la distancia administrativa entra en juego principalmente cuando


un router tiene que trabajar con tablas de rutas. Para explicar el razonamiento, se
utilizará el siguiente ejemplo:

Pongamos un caso en el que un router recibe el mismo destino (en este caso, el
segmento A) a través de diferentes fuentes de enrutamiento (estáticas y dinámicas).
Pues bien, este router se va a apoyar en la distancia administrativa para decidir cuál
de las tres fuentes es la más fiable, sin llegar ni siquiera a valorar la métrica. Se
quedará con la fuente cuya distancia administrativa sea la menor.

En este caso, por tanto, de manera predeterminada se quedará con el camino que le
indique el enrutamiento estático y descartará los otros dos.

A igualdad de distancia administrativa, sí se valorará la métrica, pero ese caso sólo


ocurrirá cuando el router esté recibiendo el mismo destino por diferentes caminos
con el mismo protocolo.

Como se ha dicho anteriormente, la distancia administrativa se puede modificar. No


obstante, cabe destacar que esa modificación sólo tendrá vigor en el router en el que
se modifica, manteniendo el resto de routers de la topología el valor predeterminado.
De ello se concluye que la distancia administrativa es un valor que no se
propaga.

Además, existen protocolos que modifican su distancia administrativa en función del


dominio donde se esté ejecutando. Tal es el caso de EIGRP (protocolo de
enrutamiento propietario de Cisco), que incrementa su distancia administrativa a 170
cuando es redistribuido a un dominio de enrutamiento externo, ya que es un
protocolo de enrutamiento interior y, por tanto, su eficiencia se ve reducida al
redistribuirse hacia sistemas autónomos externos.

22

You might also like