You are on page 1of 23

HACIENDO COLA Despus de que el trfico est clasificado, los mdulos del procesador QoS usan marcar informacin

para influir en el planificador de trfico. Cuando no hay argumentacin para la transmisin la capacidad en la misma interfaz de egreso, el hacer cola paquetes no ocurre. Es nicamente cuando no todos los paquetes pueden ser transmitidos fuera del mismo canal lgico determinado momento que el arbitraje de trfico necesita ocurrir. En este punto, cuando el trfico con prioridad ms alta es reenviado, el trfico prioritario inferior o puede ser descartado o sujet en una cola para la posterior transmisin. Uno de los sellos de garanta de una implementacin QoS debe poder moderar paquetes de bits en una cola si necesitan estar sujetos hasta que los medios esten disponibles para enviar trfico moderado. No necesita necesariamente ser un todo la interfaz que est congestionada. Una subinterfaz pudo estar congestionada o una coleccin de subinteracta compartiendo a un S-VLAN tambin pudo estar congestionado. La cola de trmino viene de cada paquete guardndose uno tras otro adentro uno la primera parte En / la Primera Parte Fuera de (la salida en orden de entrada) la moda hasta la cola se vuelve completa. Tan pronto como esto ocurre, los paquetes son a los que se dej caer puesto en la cola (acomodados en la cola). En un panorama tpica, las colas continuamente vara sus tasas de utilizacin a merced de cmo reacciona el trfico siendo moderado. Por ejemplo, si un cliente recibe un trafico TCP. Como el HTTP o el FTP que fue demorado en el reembarque debido a enlace moderando alguna parte en el camino, ste es a menudo un signo que la congestin ocurri. Como consecuencia, el servidor puede disminuir su tamao de la ventana de congestin para evitar ms congestin. Esto se desencadena por un producto aumentado de retraso de ancho de banda, lo cual se calcula basado en el Tiempo de Viaje Redondo (el tiempo de viaje redondo, tambin el Tiempo de Viaje Redondo Suavizado designado (SRTT) y el ancho de banda de transmisin. El tiempo de viaje redondo es cunto tiempo toma para un paquete para ser enviado al otro extremo de la red y para la aceptacin correspondiente para llegar de regreso. Bajo condiciones normales sin congestin, el promedio el tiempo de viaje redondo no vara mucho. Pero cuando hay congestin en alguna parte de la red, los paquetes es inicialmente amortiguado en una memoria de la guimbarda, lo cual lleva la delantera para uno promedio incremento de tiempo de viaje redondo. Con tal de que el paquete sea amortiguado en la memoria de la guimbarda slo deseo bastante para que el paquete sea a la larga tratado por el aparato receptor y un protocolo de control de transmisin la aceptacin a ser recibida por el remitente, el remitente no tiene que retransmitir cualquier paquetes de bits. En un peor escenario, los amortiguadores de la guimbarda seran excedidos. En otras palabras, la utilizacin de la cola se convierte tambin paquetes grandes,

causantes para ser a la que se dej caer del fin de la cola (conocido como la cada de la cola). Esta accin causa una disminucin ms dramtica en lo la tasa de despacho del servidor, porque tiene que reiniciar el protocolo de control de transmisin rpido mecanismo de recuperacin (Con protocolo de control de transmisin NewReno) 6 o la evitacin de congestin de protocolo de control de transmisin (con protocolo de control de transmisin Tahoe). La Nota de Tecnologa: El recorte de protocolo de control de transmisin y el Start Lento El mecanismo como parte del proceso de apretn de manos de protocolo de control de transmisin de tres formas, los dos puntos finales intercambian un parmetro designado uno reciba el tamao de la ventana (RWIN). ste es el nmero de bytes que pueden ser enviados al otro dispositivo antes de una aceptacin (El reconocimiento) es necesario para afirmar que los datos han sido recibidos. Por ejemplo, entre anfitrin Uno y la anfitriona B, Patrocine Uno anuncia un 16K reciba ventana para patrocinar a B, y la B anfitriona anuncia un 10K reciba ventana para patrocinar UNO. Adentro aun este caso, base puede enviar 10,000 bytes de datos a patrocinar B antes de que tenga que esperar B anfitriona para el punto de vista que tiene admitido por la mayora todos los datos. Esta ventana de datos puede ser hendidura a travs de paquetes mltiples de protocolo entre redes. Una ventana corrediza es un tamao de la ventana que cambia con el paso del tiempo. Si los dos anfitriones estn conectados a travs de un enlace del satlite o cul es sabido como una Red (LFN) Bastante Gorda, el retraso significativo puede ocurrir entre los dos puntos finales. As, es ventajoso para transmitir una ventana grande de datos para el otro extremo antes de esperar un reconocimiento a cambio. De otra manera, el rendimiento especfico global estara limitado por una necesidad continua para esperar ACKs. Las ventanas corredizas son tambin usado para aumentar la tasa de transmisin cuando que hay ancho de banda disponible, tan con el mecanismo lento de principio. El principio lento es una solucin para el siguiente problema: Si un anfitrin le enva bastantes datos al otro anfitrin a llenar su protocolo de control de transmisin la ventana entrante, eso las hace posibles que el otro anfitrin est en un enlace de velocidad mucho ms lenta. Por consiguiente, muchos paquetes son dejados caer, y subsiguientemente necesitan ser retransmitidos. El principio lento es ms misericordioso difiriendo velocidades del enlace. Surte efecto transmitiendo un segmento de datos basado en ya sea un parmetro del otro anfitrin o algunos se atrasa en el pago del valor. Basado

en cada reconocimiento exitoso, el aspecto transmisor aumenta lo que las llamaron su ventana de congestin. Cuando la prdida ocurre, las implementaciones de protocolo de control de transmisin que se basan en protocolo de control de transmisin Reno disminuyen a la mitad la ventana de congestin y entre en el estado rpido de recuperacin. Las implementaciones mayores basaron en el protocolo de control de transmisin Tahoe deja caer la ventana de congestin para uno segmente y vuelva a arrancar el algoritmo de principio lento. Este estado de quedarse retrasado para la mitad de tamao actual de la ventana o una se segmenta es evitacin designada de congestin. Es detectado cuando los ACKs duplicados son recibidos por el lado remitente. Si los datos nunca llegaron al lado receptor, el lado receptor se mantiene agradeciendo el ltimo segmento vlido que recibi. Idealmente valdra ms evitar a cualquier las cadas y aprovecharse de paquete haciendo cola para atrasar trfico hasta eso puede ser enviado confiando adelante las retransmisiones. Si uno o ms paquetes para una sesin sola de datos es al que se dej caer, slo una sesin sola es afectado. Pero si la congestin del enlace repentinamente ocurre en una escama ms ancha (en una columna vertebral el enlace, por ejemplo), las cadas del paquete pueden afectar muchas sesiones de datos. Con protocolo de control de transmisin las aplicaciones, todos los servidores transmisores simultneamente detectan esta prdida y parte de atrs fuera de sus tasas de transmisin para evitar ms congestin. Hasta ahora, tan buen. El problema recae sobre el siguiente paso, cuando la mayor parte de los dispositivos gradualmente incremento su transmisin evala en la misma tasa (debido a implementaciones comunes de protocolo de control de transmisin a travs de los sistemas operativos) hasta paquetes para la mayor parte de las sesiones son descartadas otra vez. Esta sincronizacin ciclista, designada y global, contina repitiendo hasta lo infinito. Varios algoritmos han estado propuestos para romper el ciclo de todos los datos para muchas sesiones siendo a lo que se dej caer de inmediato. Uno de estos es Aleatorio Anterior Descarte (el ROJO), o uno la variante ms complicada Oprimi a Aleatorio Anterior Discard (WRED). El ROJO es un algoritmo de administracin de cola en ejecucin que las guimbardas implementan como parte de sus mecanismos de la gerencia de amortiguador. Un sistema COMUNISTA tiene dos variables importantes. La primera parte es la longitud promedia de la cola, lo cual indica qu tan lleno la cola de los paquetes son sobre un tiempo dado (el tiempo estando en la orden de microsegundos, cul esencialmente la manera instantnea). El segundo es la proporcin de descarte, lo cual indica Qu tan agresivamente los paquetes son descartados, o qu tan probable son que paquetes debajo de uno cierto umbral ser descartado. Para mitigar el problema de sincronizacin global, Los paquetes son al azar descartados de la cola segn lo configurado el valor en vez de en la cola de la cola. Este descarte ms sutil el acercamiento evita afectar varios flujos de inmediato.

Resuelva 8.8 funciones una grfica de rojo diferente de colores del paquete, verde, y el amarillo y sus tasas de descarte. Estos colores del paquete son los mismos de lo de dos tasas tricolor la marca descrita tiempo atrs. WRED le permite paquetes puestos en la cola tener uno correspondiente la prioridad (el amarillo verde,, o el rojo), que est acostumbrado a decir la guimbarda que los paquetes tienen mejor probabilidad de ser a los que se dej caer como la utilizacin de la cola aumenta. Para el ejemplo, una cola podra contener trfico prioritario alto tan pasado a travs de un ratelimiter por encima de una tasa cometida y es amarillo colorido. Simultneamente, el mejor esfuerzo El trfico podra ser rojo colorido por su prioridad inferior en la configuracin que delimita tasa. Cuando el mecanismo WRED funciona, en 30 % de la cola la longitud, los paquetes verdes podra tener una tasa de cada de 10 %, y el amarillo que los paquetes podran tener una tasa de cada de 20 %.

Resuelvo 8.8 Descarte Ponderado de ROJO. La teora de colas aparte de un mecanismo simple de salida en orden de entrada involucra algoritmos que est complicado para entender y aun ms complejo a probar, administrar, y el implemento. En la prctica, el ROJO y WRED son destacados en algunas redes del trasportador con nmeros grandes de flujos del micro para mitigar el efecto de sincronizacin global. Desafortunadamente, la configuracin COMUNISTA es una fuente continua de gerencia para un pas proveedor de servicios, porque hay ninguna una frmula a quo para derivar uno la configuracin. Uno de los principales motivos es porque una gran cantidad de conocimiento es necesario acerca de los tipos de trfico conllevado en una red para destacar un ROJO efectivo o la implementacin WRED. La prueba emprica utilizadora del campo es la mayor parte de la forma comn para afinar configuracin de la cola.

El trfico de protocolo de control de transmisin es por lejos el protocolo de transporte ms prevaleciente en la Internet, con el protocolo de datagrama de usuario llegando segundo. El protocolo de datagrama de usuario es un protocolo ms ligero que no implementa cualquier del flujo controla o emite el protocolo mecanismos de apretn de manos de protocolo de control de transmisin. Las aplicaciones que usan protocolo de datagrama de usuario son en su mayor parte VoIP, en lnea jugando, el video fluyendo, y las aplicaciones del videoconferencing. Generalmente hablando, fuera alguna clase de adicional a capacidad de control de funcionamiento de la red construida adentro, aplicaciones que el uso el protocolo de datagrama de usuario no responda a la congestin de la red como el protocolo de control de transmisin y disminuya la transmisin La tasa. Los flujos de datos de estas aplicaciones son inelsticos; As es que si all es insuficiente el ancho de banda, ellos el alto surtiendo efecto a menos que protocolos superiores del estrato puedan alimentarse de regreso la informacin de actuacin de la red y la accin de la toma, como aminorar la transmisin La tasa intrincarse tiene importancia, estas aplicaciones a menudo tienen requisitos escasos de oportunidad del momento. Aunque algunos es razonablemente tolerante de retraso coherente VoIP trfico siendo encaminado sobre un enlace del satlite, pues _ el temblor de ejemplo marcadamente afecta estos Las aplicaciones. Como mencionado el temblor anterior, es paquetes logrando intervalos imprecisos, que lo dificulte para una aplicacin a reproducir un soporte lgico informtico de tiempo real la corriente. Los amortiguadores de temblor son usados en dispositivos de fin para reducir el impacto de temporal las irregularidades. Trabajan almacenando la corriente del soporte lgico informtico para una suficiente cantidad de el tiempo para permitirle cualquier retrasos y las retransmisiones ser aclarado antes de salida de ser para el usuario. Al mismo tiempo, tales amortiguadores no deberan ser demasiados grandes. De otra manera, el retraso necesitado para llenarlos adversamente afecta la aplicacin. Una fuente de primera de el temblor es red haciendo cola. Demasiado puede querer decir que un paquete tiene que esperar uno inadecuado la cantidad de tiempo antes de volver a jugar la corriente. ITU Recommendation G.114 considera un retraso de un forma de hasta 150ms aceptables para aplicaciones de voz. Por regla general, el trfico de aplicaciones que necesitan tiempos de respuesta rpidos (Como jugar y VoIP trafique) debera ser moderado menos de aplicaciones que es ms misericordioso de latencia de la red. Si ambas aplicaciones comparten lo mismo haga cola (Y, en caso del trfico de la Internet bsico, hacen), la necesidad para un amortiguador grande para las aplicaciones interactivas para evitar prdida deberan ser simtricas en contra de la necesidad para las aplicaciones interactivas a tener tan poco tiemblan de miedo tan posible. Como consecuencia, el amortiguador a longitud es un punto que cambia a menudo de dato en una red. Usualmente las aplicaciones de protocolo de datagrama de usuario se forjan para maniobrar algunos paquetes a los que se dej caer, especialmente si el protocolo utiliza alguna clase de Correccin Anticipada de Errores (FEC). FEC da

rienda suelta a que Una corriente de datos a ser fielmente recreada en el acontecimiento de prdida del paquete por ah pero postantes de informacin adicional (o empareja acuses de recibo con derecho preferente) dentro de la corriente original para permitirle errores ser detectado y corregido. Un ejemplo de FEC interpagina, lo cual es usado en muchas aplicaciones de transmisin de datos, Incluyendo mdemes de lnea de subscripcin asimtrica digital. La imbricacin trabaja esparciendo los datos verdaderos entre varios marcos, cul todo contiene bastante informacin suplementaria para ser capaz para recrear los datos originales si algunos marcos fueron corrompidos. Lo adicional la redundancia en contra de datos perdidos llega a un precio, lo cual es latencia aumentada en lo el bucle local, porque los datos verdaderos no puede completamente ser transmitido hasta bastante redundante o los datos interpaginados son enviados. Tambin hay el rendimiento especfico reducido de la extra los datos que necesitan estar incluidos como parte del esquema FEC. Una cosa a recordar es que la mayora de flujos en la Internet hoy son TCPbased. Como mencionados los flujos anteriores de protocolo de datagrama de usuario, son usualmente inelsticos, a menos que haya una cierta cantidad el mecanismo de informacin retroactiva de la capa superior comunicando actuacin de la red para lo enviando aplicacin. Como consecuencia, los flujos de protocolo de datagrama de usuario usualmente no responden para el ROJO o WRED se cae. Entonces, la llave debe identificar trfico de protocolo de datagrama de usuario y de protocolo de control de transmisin tan mejor tan la posible y la separata ellos en colas diferentes. Las colas con protocolo de datagrama de usuario trafican puede tener WRED omitido. Las colas que contienen trfico de mejor esfuerzo pueden implementar RED/WRED para evitar sincronizacin global.

PLANIFICACIN La planificacin es uno de los conceptos ms importantes en QoS. Despus del trfico ha sido clasificado y distribuido entre varias colas, trae entre manos un proceso de planificacin en la guimbarda a asegurar que todos los PHBs es mantenido. La clasificacin no tiene uso a menos que la guimbarda realmente puede implementar los datos clasifican arbitraje. La planificacin de trmino en una guimbarda basada en paquetes est el principio de un planificador ubicando o programando uno el nmero de paquetes para ser enviado a un enlace. Por ejemplo, si un proveedor configura uno la guimbarda que le provee a VoIP y acceso de mejor esfuerzo de la Internet a un suscriptor, dos las colas sujetan trfico moderado un para cada clase. Un planificador traba un embargo para lo las obras e interfaz fsica en una velocidad muy alta, procesando paquetes como llegue a ser enviado fuera de la interfaz. Normalmente los paquetes VoIP reciben prioridad estricta (O el Reenvo Facilitado en DiffServ llama) la planificacin, que los causa para ser enviado

fuera de la interfaz sin demora. Slo cuando no hay datos VoIP para transmita hace la clase de mejor esfuerzo obtiene una oportunidad para ser transmitida apagada lo la interfaz. Por supuesto, esto todo ocurre en una tasa muy rpida. Para bastante como hay no demasiado trfico prioritario estricto, demasiado trfico de mejor esfuerzo puede ser enviado en medio estricto los paquetes. El trfico prioritario estricto debera estar limitado para no negar otro trfico clasifica acceso para el enlace sociable si que hay tambin el trfico muy estricto. Porque la planificacin es un tema tan sustancial, con muchos mecanismos trabajando a la vez, los conceptos son introducidos paso a paso en este captulo, con cada edificio en la caracterstica previa. El planificador de circuito cclico se discute primero. Es un algoritmo simple para transmitir datos fuera de un recurso congestionado, como un puerto o subinteractuar. Entonces este captulo discute planificador de circuito cclico ponderado, lo cual es un realce del planificador de circuito cclico bsico. Como mencionado en el prrafo precedente, la prioridad estricta, LLQ, y Reenvo Facilitado son trminos que se refieren al trfico que es temblor y sensitivo en retraso, tal como la voz. Todos los tres trminos se refieren a lo mismo. La primera parte dos son usados por Junpero y Cisco, respectivamente, y la tercera parte est definida por ah el Grupo de Trabajo Especial de Ingeniera Internet como parte de la arquitectura DiffServ. El trmino a todo lo largo del que la prioridad estricta es usada este captulo, excepto se refiere a lo mismo como el Reenvo LLQ y Expedited. Jalar estas tcnicas conjuntamente en una configuracin jerrquica QoS es explicado despus, de ambos una perspectiva terica y prctica. Los ejemplos prcticos incluyen configuraciones jerrquicas QoS de muestra y su la implementacin en una arquitectura de red de acceso DSLAM. Finalmente, hay un cortocircuito el debate de gastos generales del paquete y sus relaciones con tasa limitando y forjando algoritmos. La Planificacin de Planificador de Circuito Cclico es importante para programar trfico prioritario estricto a fin de que es enviado tan pequeo demrese tan posible. Usualmente un algoritmo de Planificador de Circuito Cclico Weighted (WRR) es usado adentro las implementaciones QoS. En vez de dar al trfico prioritario alto el tratamiento estricto, WRR lo entrega un peso alto programando clculos. Antes de correr a velocidad delante tambin rpido con acrnimos y terminologa, una explicacin de WRR y planificador oprimir es necesario. WRR es una versin realzada de planificador de circuito cclico programando, cul es parecido a cmo WRED est un realce de ROJO anticido haciendo cola. Si todos los paquetes son de iguale tamao, un planificador del paquete de planificador de circuito cclico de sustento bsico transmite uno iguale nmero de paquetes de cada objeto QoS necesitando acceder a para el egreso la interfaz. Por ejemplo, un BNG podra estar relacionado a un DSLAM que tiene 100 Los suscriptores de la Internet de obra teatral sola, cada uno con QoS permiti. Cada suscriptor tiene su corriente abajo evala moldeado para 15Mbps en el BNG. En realidad, la voluntad moldeadora de tasa probablemente est menos de 15Mbps para considerar como para en lo alto, sino por el bien de

simplicidad, doy por supuesto que la tasa moldeadora es 15Mbps. Pero si todos los suscriptores estn tratando de hacer un download en las tasas cerca de 15Mbps, habra argumentacin en el Ethernet Gigabit ponga a babor porque 1.5Gbps de trfico les daran mucho trabajo ser enviados fuera de unos 1Gbps el puerto. Esto incentiva a QoS en la accin. Asegurar que todos los suscriptores obtienen acceso igual para el puerto, el planificador calcula una tasa garantizada que cada suscriptor har reciba, lo cual termina estando menos de 15Mbps. Este clculo es la tasa portuaria Dividido por el nmero de suscriptores: 1000Mbps / 100 = 10Mbps de usuarios por usuario la mejor forma a imaginar cmo surte efecto el planificador es describir a los suscriptores siendo arreglado en un lazo, con el planificador transmitiendo trfico para cada suscriptor para un el corto tiempo y luego pasando al siguiente uno. Tan pronto como alcanza el fin de los suscriptores, est hacia atrs en el principio del lazo y contina con el primer suscriptor. El planificador procesa todas las colas del suscriptor, transmitiendo los paquetes muchas veces por segundo. El resultado final es que cada suscriptor recibe un promedio igual aproximado de 10Mbps, lo cual tambin quiere decir que nadie puede alcance la tasa culminante de 15Mbps. Hay dos formas que el BNG debe calcular lo la tasa garantizada. Uno est configuracin implcita directa, lo cual es lo que lo previo el ejemplo mostr usar valores de megabit-per-second diversos basados en uno congestionado el puerto de 1000Mbps. Cada suscriptor recibi la misma tasa media. La segunda forma est configuracin explcita directa, que conduce a la siguiente seccin describiendo planificacin WRR. En software del JUNOSe Juniper, la configuracin explcita puede ser ya sea una tasa asegurada o un peso. En principio, una tasa asegurada es lo ms simple para entender porque es configurada en bits por segundo. La tasa asegurada es la tasa garantizada en la cual la guimbarda enviar trfico. El peso es ms el extracto y es un peso relativo comparado con otros planificadores. Los JUNOS del junpero el software lo llama lo transmite tasa y puede ser mandada por va urgente como un porcentaje de la velocidad de la interfaz o en mega/gigabits-per-second de kilo. Cisco IOS usa el trmino la distribucin de ancho de banda. Para la simplicidad, ser designada la tasa asegurada para lo el descanso de este captulo. En el otro extremo del espectro, la _ tasa moldeadora limita el salto superior de la tasa de datos. Continuando con el ejemplo previo, si en comn la mayora de clientes Haga un download de en nicos 5Mbps, la tasa total de trfico egresando el puerto es 500Mbps la mitad de aptitud portuaria. Sin embargo, uno o dos clientes podran estar tratando de hacer un download En una tasa muy superior con mirada fija a mirar con atencin aplicaciones; Esto puede poner a un suscriptor aplquele delineador a en su mxima aptitud de descarga. En este caso, el moldeador de 15Mbps estira la pata para impedir trfico excedente de ser enviado al DSLAM y de ser descartado debido a exceder la tasa del puerto de sublenguaje de base de datos. Una alternativa

para el moldeador en lo BNG modera tal trfico en el DSLAM si el nodo tiene suficiente amortiguador la aptitud. Para resumir, dos conceptos importantes han sido introducidos hasta ahora: "Forjando manera limitando la tasa culminante de una suscriptora s PPPoE, sesin de protocolo entre redes, o otro objeto (como un VLAN o S-VLAN). "La tasa asegurada y transmite tasa son trminos sinnimos para asignar uno garantizado La tasa mnima para un objeto (como un VLAN, haga cola, o SVLAN). Esto podra ocurrir explcitamente a travs de la configuracin o implcitamente basado en el defecto la configuracin. Bastante ancho de banda debe estar disponible en el enlace sociable para realmente provea la tasa asegurada. El Planificador De Circuito Cclico Ponderado el planificador de circuito cclico simple es un buen mecanismo para prorratear apenas a igual tiene importancia de el ancho de banda entre unos cuantos o muchos suscriptores. Un requisito igualmente comn debe dar a algunos suscriptores el ancho de banda ms asegurado que otros. Por ejemplo, los proveedores a menudo destacan un par de servicios de la Internet bsicos, pero con diferente las tasas aseguradas, a ceder mejoran actuacin cuando las partes de la red estn congestionadas. Esta congestin puede ser deliberada para deteriorar actuacin de la red para el poco premio repara o durante por de coaccin inesperada de la red. Otro uso de un planificador redondo oprimido del petirrojo (WRR) es proveer un premio garantice para usuarios comerciales y un afianzamiento del poco premio para residencial los clientes. Esto es comn pues los proveedores que usan una red cambiada de agregacin y S-VLANs de uso para aislar a suscriptores entre DSLAMs. (Vea la seccin "1:1 VLANs" en el Captulo 4 para un ejemplo de esta arquitectura.) Los suscriptores dentro de un S-VLAN estn tasas aseguradas diferentes asignadas para garantizar mnimo el rendimiento especfico cuando el camino para el DSLAM est congestionado. Los usos del planificador WRR las tasas mnimas o pesos a calcular cunto suscriptores de rendimiento especfico adentro el SVLAN reciba. Los proveedores con un servicio VLAN pueden usar a un planificador WRR, tambin. En vez de tener un S-VLAN como un camino de agregacin entre el DSLAM y BNG, el VLAN son el Estrato 2 el camino. En este caso, las sesiones del suscriptor en vez de VLANs son configuradas con la tasa asegurada que refleja la proporcin de exceso de suscripcin a la que se vendi el cliente. Otro uso de un planificador WRR es prorratear ancho de banda entre colas dentro de una sesin sola del suscriptor. Por ejemplo, un cliente podra tener un besteffort La Internet y el servicio de datos del premio. El PHB de mejor esfuerzo est asignado uno el peso inferior en el planificador para abrir paso para el premio hace un download de cuando demasiados datos contienden para el mismo enlace de salida. La planificacin jerrquica, cul es una caracterstica deseable en hoy implementaciones QoS, est explicada ms tarde adentro este captulo. Ilustra cmo los componentes previamente describieron ataque

conjuntamente en una moda jerrquica del planificador para una implementacin robusta QoS. La Estricta Planificacin Prioritaria de Latencia y Baja la planificacin prioritaria estricta de trfico (tambin la latencia baja designada haciendo cola o DiffServ el reenvo facilitado) es una caracterstica de casi todas las implementaciones contemporneas QoS. Le permite trfico importante ser enviado fuera de un puerto con mnimo haciendo cola el retraso. Resuelva 8.9 funciones un ejemplo de una implementacin prioritaria estricta en la cual uno el cliente tiene un servicio VoIP y un servicio de datos de mejores esfuerzos. La ronda cargada el planificador del petirrojo est hacia la mitad un paso de programar trfico para todos los suscriptores en el puerto. Sin un planificador prioritario estricto, el trfico VoIP tendra esperar a que el RR o el planificador WRR ha terminado de reparar todos los dems suscriptores antes de enviar paquetes VoIP. En lugar de eso, el planificador se excusa de La planificacin de planificador de circuito cclico normal y empieza a tramitar trfico VoIP. Como pronto como estos paquetes estn ya no en la cola, el planificador regresa hacia donde fue Cortado el hilo a y contina con la planificacin de planificador de circuito cclico. Cuando un paquete choca la cola VoIP otra vez, le corta el hilo al proceso de planificador de circuito cclico y vuelve a empezar El ciclo estricto de planificacin.

Figura 8.9 la planificacin prioritaria Estricta. Uno de los efectos secundarios de planificacin prioritaria estricta es ese sin uno correctamente configurado el limitador de tasa, el planificador siempre pudo estar ocupado reparando trfico de prioridad estricta en perjuicio de otro

trfico. Por consiguiente, todo trfico estricto debera tener un limitador de tasa configurado en caso de que no por suscriptor (idealmente), luego un limitador global en el puerto.

Los QoS Jerrquicos Las implementaciones QoS en redes de jugadas que pone fuera a tres corredores de base estn en una ventaja si pueden ingeniarse trafique en una moda jerrquica. El documento del Foro de sublenguaje de base de datos TR597 describe las arquitecturas QoS para redes de sublenguaje de base de datos. Uno de sus condiciones es un planificador jerrquico en el BNG. Un uso para un planificador jerrquico est si las colas mltiples contienden para el acceso para la tubera para el suscriptor. El planificador jerrquico acta como rbitro entre las colas antes de alimentar las colas en un VLAN global el moldeador (si una N (si una arquitectura del 1:1 es usada) o un moldeador del suscriptor:1 arquitectura es usado). Ambos de estas configuraciones VLAN son dados aclaraciones en el Captulo 4. Antes de que el advenimiento de redes basadas en Ethernets de agregacin, las redes del cajero automtico fueron el estndar el transporte del backhaul. Los caminos Virtuales permanentes (PVPs) identificaron a un DSLAM, y Permanente los circuitos virtuales (PVCs) identificaron a los grupos familiares individuales. Los PVPs fueron consider una tubera para transportar circuitos a travs de la red en una moda agregada. El PVP usualmente sera vigilado en la red del cajero automtico segn el tamao de lo el camino para el DSLAM y optionally sera moldeado en el BNG tambin. El BNG fue ms perdonando de bursty trafican haciendo cola en vez de reproducirse explota para lo la red. Un acomodamiento jerrquico QoS tomara todo trfico de por suscriptor los planificadores y el pienso los paquetes para los moldeadores PVP. La planificacin jerrquica ha sido tarifa estndar QoS durante algn tiempo. Como redes de sublenguaje de base de datos emigre para DSLAMs basados en Ethernets y redes de agregacin, lo reemplazando la tecnologa necesita capacidad equivalente para el mundo del cajero automtico. Los BNGs deberan tenga programar capacidad en C-VLANs, S-VLANs (si aplicable), troncos fsicos e idealmente en una base de aplicacin del agregado (ms en esto ms tarde). Como discutido adentro Los captulos previos, una arquitectura del backhaul de Ethernet que las planillas un C-VLAN y la estructura S-VLAN es anloga para la estructura del cajero automtico de PVCs y PVPs. Por consiguiente, los pases proveedores de servicios con DSLAMs, que est conectado para uno cambiado la red de agregacin, puede implementar una una reposiciones de varios cajero automtico los mecanismos QoS. Por ejemplo, la Figura 8.10 muestra una red de agregacin del cajero automtico, usando PVPs para representar DSLAMs y PVCs para representar a los suscriptores. El segundo en parte de la figura demuestra la misma arquitectura del 1:1, pero en un contexto de Ethernet.

Resuelva 8.10 analogs Architecture entre cajero automtico y las redes de sublenguaje de base de datos de Ethernet. Resuelva 8.11 funciones cmo pueden ser estos objetos de lo que se traz un mapa en lo que se llama un planificador El diagrama de jerarqua. Toma puntos potenciales de congestin (el protocolo entre redes interacta, CVLANs, Y S-VLANs) y las rdenes ellos en una moda jerrquica. La razn para Los puntos potenciales representadores de congestin en un planificador en el BNG estn tan ese La priorizacin efectiva de trfico puede ser manejada en el BNG. Esto evita congestin En la agregacin y redes de acceso. El trfico desemboca en las colas en lo La parte superior del diagrama y para el moldeador del suscriptor VLAN. Luego est de paso uno El moldeador S-VLAN antes de egresar el puerto fsico. Resuelva 8.11 funciones una jerarqua Con una arquitectura 1:1 VLAN, que asigne un C-VLAN para cada grupo familiar y Un S-VLAN para cada camino para un DSLAM.

Figura 8.11 Una jerarqua del planificador QoS basada en una arquitectura de Ethernet del 1:1. Si la arquitectura de acceso es una N:1 o la topologa de servicio VLAN, quiere decir eso todo Los suscriptores en una parte DSLAM el mismo VLAN y son multiplexed por el Control de Acceso a Medios La direccin. Los suscriptores son separados por interfaces de protocolo entre redes (la terminologa JUNOSe) o El acceso virtual interacta (la terminologa Cisco IOS). Para manejar trfico del agregado para Un puerto de sublenguaje de base de datos, un planificador puede ser aplicado al protocolo entre redes o interfaz virtual de acceso. La figura 8.12 funciones una jerarqua del planificador diagraman para una N:Arquitectura VLAN de 1 servicios.

Figura 8.12 Una jerarqua del planificador QoS basada en una N:1 arquitectura de Ethernet. Para manejar trfico del agregado hacia un DSLAM, un planificador puede ser adjuntado a lo VLAN. Todo trfico de las interfaces apilaron por encima de los flujos VLAN hasta lo VLAN, cul es el punto de argumentacin que representa el tronco en la red de acceso Para el DSLAM. De una perspectiva QoS, ambos la arquitectura de topologa en Figura 8.10 y lo La jerarqua QoS en Figura 8.12 tenga apenas las mismas capacidades de ingeniarse Trafique adelante por bases del suscriptor y de per-DSLAM. Una excepcin no enseada est de moda El caso de PPPoE mltiple o las sesiones DHCP de cada grupo familiar. En este caso, Es difcil de crear un moldeador global del puerto de sublenguaje de base de datos que eficazmente puede compartir ancho de banda Entre todas las sesiones proviniendo de un grupo familiar solo. Por supuesto, es Posible para identificar las sesiones que comparten un puerto solo de sublenguaje de base de datos por ah usar el PPPoE Intermedie encabezado Agent u opcin DHCP 82 (ambos describieron en el Captulo 5, "Escogiendo el Protocolo Correcto de Acceso"), pero esto no los somete uno El moldeador comn. Eso _ las s rumore que las mejoras vienen pronto a algn BNG

Los vendedores que pueden agrupar estas sesiones en un dominio que delimita tasa comn. En El tiempo de escribir, esta capacidad no fue penetrante en el mercado. La mayor parte de los puntos de congestin en el acceso y la red de agregacin son representados Por QoS objeta en una configuracin del planificador BNG _ s a fin de que la conformacin puede ser Aplicado anterior en el camino de trfico y consecuentemente evita cadas de trfico ms tarde adentro lo La red. C-VLANs es usada en la jerarqua para representar el puerto de sublenguaje de base de datos y as Permita por el trfico del suscriptor tomando forma. Como por la utilizacin de ancho de banda del suscriptor Los incrementos, una eleccin comn son privarse de una red de agregacin y conectar Los DSLAMs directamente para el BNG usando Multiplexaje Denso por Longitud de Onda (El multiplexaje denso por longitud de onda), Coarse Agite Multiplexin de Divisin (CWDM), o fibra oscura. En esto El caso que no hay estrictamente que no usar a un S-VLAN y por consiguiente no forma en lo El nivel DSLAM. Una excepcin est donde los DSLAMs subtendidos son usados. El Foro de sublenguaje de base de datos llama estos Nodos 2 nivelados de acceso. En esta panorama, los nodos subtendidos comparten el mismo enlace GE De regreso al BNG como el estante del padre. Si hay una disparidad grande entre el suscriptor La ocupacin del padre y los estantes subtendidos, eso es una buena idea agrupar Los suscriptores de cada estante dentro de un S-VLAN y la forma basada en lo exterior La etiqueta del 802.1Q. En el cajero automtico que el mundo, esta arquitectura subtendida estaba comnmente Destacado para prolongar cobertura de sublenguaje de base de datos para las regiones apartadas. Esto quiso decir tan Ras con Ras 2 y Estantes 3 nivelados fueron alimentados con aptitud inferior de transmisin como E1/T1 y E3/ T3 se relaciona. Al mismo tiempo, el padre pone en un estante estaba vinculado con STM-1 o STM-4 interacta. Esta disparidad lo hizo de suma importancia para operar agregado El ser trficos envi al nodo de aptitud inferior a evitar descartes innecesarios despus Efectuar una transicin de SDH/SONET de velocidad ms alta para el PDH inferior acelera. Basado En observaciones hasta ahora, la mayora de proveedores optan por volverse slo tan lejanos como subtender Para Derribar 2 porque los anchos de banda requirieron para IPTV y unihaga una fundicin VoD hgalo

Desaconsejado para mltiple demasiados DSLAMs encima de un enlace solo. Un requisito emergente de pases proveedores de servicios es la habilidad para operar agregado El trfico evala, pero con ms capacidad que simplemente en un nivel lgico del camino. Tome El ejemplo de un DSLAM directamente se conect a un puerto de Ethernet BNG Gigabit encima La fibra oscura. Si hay alguna vez un delito en aprovisionar o los perodos de poco normativo El trfico de mejor esfuerzo evala egresar el puerto GE, puede sesgar aptitud Las estimaciones planificadoras y consecuentemente el afecto videograban y expresan trfico. El exceso de suscripcin Confa en cada suscriptor consumiendo un ancho de banda promedio, preplanificado Evale para cada clase. Si esto es una tasa de kilobits por segundo para datos hace un download o en trminos de El nmero de corrientes concurrentes del video, el principio es apenas lo mismo. Si esto Promedie incrementos ms de lo debido, comenzara a apropiarse con maa de recursos portuarios Normalmente confidencial para otros servicios. sta est donde gerencia de trfico del agregado Entra. Consiente un ms nivel de priorizacin despus del C-VLAN y posiblemente Los planificadores S-VLAN en el BNG. El JUNOSe del junpero llama estos trafficclass de capacidad Agrupe priorizacin. La priorizacin del grupo de trfico permite mejor exceso de suscripcin En la red de acceso. En una jerarqua normal del planificador, si un S-VLAN es Congestionado debido a cantidades grandes de trfico de mejor esfuerzo, esto afectara todos los tipos de El trfico del suscriptor dentro de ese S-VLAN, voz inclusiva y esos servicios de vdeo. El establecimiento de prioridades Trafique antes de que ser enviado adentro para el S-VLAN sea ms efectivo de un trfico La perspectiva de servicio de la gerencia. Los siguientes prrafos salen a la vista que un centro comn moli implementacin para El junpero E-Series y Cisco IOS para ilustrar una cierta cantidad de los conceptos QoS que tienen Estado descrito. Cree 8.13 y 8.14 muestran JUNOSe y diagramas del planificador IOS, Respectivamente. Resuelva 8.13 funciones una jerarqua en la cual cada suscriptor tiene Dos clases de trfico y estn relacionadas al BNG usando C-VLANs. El slido da vueltas Es de una cadena sola de jerarqua QoS, representando objetos que constituyen uno Singularice al suscriptor. Los crculos arrojados son otros suscriptores y moldeadores S-VLAN

Eso comparte el mismo puerto GE.

Figura 8.13 Una jerarqua del planificador del JUNOSe implementando a C-VLAN tomando forma. En ambos diagramas, el trfico fluye de arriba abajo. El puerto est en la raz, Y el trfico menos agregado est en la cima. Como el trfico progresa abajo a travs La jerarqua, pasa a formar parte de corrientes ms agregadas. El flujo de datos en lo La cola basada en la clasificacin de trfico arriba ras con ras. Los perfiles WRED pueden ser Aplicado para las colas. Para clasificar trfico y luego dirjalo al trfico correcto La clase, JUNOSe realiza que la accin de clasificacin en una poltica de protocolo entre redes, cul es luego Usado por el motor QoS. Asegurar ese trfico del premio se pone ms garantizado El ancho de banda (100Kbps) que el mejor esfuerzo (50Kbps) durante la congestin C-VLAN, uno El planificador de perfil es aplicado a cada cola. Ambos contienen tasa asegurada Los parmetros (100Kbps y 50Kbps) y tambin podran contener una tasa moldeadora, cul Sera la tasa mxima que la cola puede enviar. Excepto en este caso, la conformacin Las tasas no son usadas en tampoco de las colas, porque el C-VLAN provee esto

Forjando capacidad. Porque cada cola tiene una tasa asegurada diferente, dos diferentes Los perfiles del planificador son usados en la configuracin enseada en Listar 8.5. En trminos tcnicos, la siguiente fila de abajo es el nivel 2 nivelado del nodo; Representa a cada uno De la C-VLANs. Otro planificador de perfil est encariado en este punto CVLAN, Que moldea el VLAN para el puerto de sublenguaje de base de datos evalan _ 5Mbps. El siguiente nivel de jerarqua Abajo es nivelado 1, cul est tpicamente acostumbrado a representar trfico altamente agregado. Si los DSLAMs estn conectados por un interruptor red, los caminos para los nodos lo pueden hacer Representado por S-VLANs, los grupos de clase de trfico, o, como una alternativa ms simple, nada En absoluto. Resuelva 8.13 funciones un moldeador S-VLAN limitando el trfico global para Los 100Mbps. Capacidad que forma S-VLAN disiente en plataformas Cisco. Tpicamente una separata El dispositivo (como un interruptor) forja el trfico agregado hacia el DSLAM. Idealmente, el interruptor tambin debera tener amortiguadores grandes si debe representar tomar forma adelante El trfico de mejor esfuerzo que excede la tasa de contrato. sta es la diferencia principal Entre el Cisco y ejemplos del Junpero. Resuelva 8.14 funciones una jerarqua parecido al ejemplo del Junpero pero sin el SVLAN El estrato de agregacin. La fila sobresaliente es designada la poltica de nio nivelada en centro. Eso Las hendiduras trafican en las clases respectivas y luego aplican repara acciones de poltica Como vigilar, la conformacin, o los afianzamientos asegurados de ancho de banda. En lo llegar al fondo La poltica de nio (no mostrada en el ejemplo), nica vigilando puede ser realizada. La clase Las acciones Justas Weighted basadas Queuing (CBWFQ) como el ancho de banda moldeador, asegurado Los afianzamientos, y WRED necesitan terminar en la poltica de nio nivelada en centro. La capacidad combinada de la poltica de nio que se llega al fondo ras con ras y lo nivelado La poltica de nio equivale apenas al nivel de la cola de guimbardas Juniper ESeries.

Figura 8.14 Una jerarqua del planificador Cisco IOS holgadamente bas en Figura 8.10, pero sin moldeadores S-VLAN. La siguiente etapa de la jerarqua es moldear la subinterfaz del cliente. En Un 1:1 La arquitectura VLAN, este punto moldeador es un C-VLAN; En una N:1, esto es lo virtual Interacte encima del CVLAN. En Figura 8.14, la fila final se llama lo del ms alto nivel La poltica del padre. Est donde la orden moldeadora es aplicada para limitar trfico para lo La tasa del puerto de sublenguaje de base de datos del cliente. Como S-VLAN mencionado, subsiguiente tomando forma es generalmente Realizado por dispositivos externos. Los ejemplos de configuracin en Listados 8.5 y 8.6 demuestran configuracin QoS para Ambos los Juniper E-Series y guimbardas Cisco IOS, despus de los ejemplos en cifras 8.13 y 8.14, respectivamente. Ambos configuraciones de incluido oprimi planificador de circuito cclico Los planificadores en la cola a actuar como rbitro entre el premio y las clases de mejores esfuerzos. Cada uno de las configuraciones estn anotadas para explicar lo que cada lnea hace. Listando 8.5 Juniper JUNOSe QoS Configuration para la Priorizacin de Cola y del Suscriptor 1: Tc-premium de clase de trfico

2: El mejor esfuerzo de clase de trfico 3: 4: 50k del perfil de planificador 5: La tasa asegurada 50000 6: 7: El 100k del perfil de planificador 8: La tasa asegurada 100000 9: 10: El 100m del perfil de planificador 11: Moldeando tasa 100000000 12: 13: El cvlan del perfil de planificador 14: Moldeando tasa 5000000 15: 16: El perfil de suscriptor de qos-profile bsico 17: 50k del perfil de planificador de mejor esfuerzo de clase de trfico de la cola del vlan 18: El 100k del perfil de planificador de tc-premium de clase de trfico de la cola del vlan 19: El cvlan del perfil de planificador del nodo del vlan 20: 21: Svlan-profile-100m de qos-profile 22: El 100m del perfil de planificador del nodo del svlan 23: 24: La interfaz gigabitEthernet 2/0/0 25: Svlan 20 svlan-profile-100m de qos-profile 26: 27: La interfaz GigabitEthernet 2/0/0.100 28: Svlan id 20 100 29: El perfil de suscriptor de qos-profile bsico La siguiente lista explica Listar 8.5: " Las Lneas 1 y 2: Cree las dos clases de trfico _ un tc-premium y un besteffort. La clase de trfico de mejor esfuerzo existe por defecto. " Las Lneas 4 y 5: El perfil del planificador de 50Kbps se usa para proveer un mnimo El afianzamiento de 50Kbps para la cola de mejor esfuerzo. " Las Lneas 7 y 8: El perfil del planificador de 100Kbps se usa para proveer un mnimo El afianzamiento de 100Kbps para la cola del premio. " Las Lneas 10 y 11: Este planificador de perfil est acostumbrado a formar al S-VLAN global para Los 100Mbps. " Las Lneas 13 y 14: Este planificador de perfil forma al C-VLAN para 5Mbps. " Las Lneas 16 a Travs de 19: Cree el perfil QoS que es aplicado al suscriptor La interfaz. Los QoS de perfil vinculan las clases de trfico y planificador Los perfiles. " Las Lneas 21 y 22: Un QoS separado de perfil est definido para el moldeador S-VLAN.

" Las Lneas 24 y 25: La agregacin S-VLAN QoS de perfil necesita ser aplicada en La interfaz fsica. " Las Lneas 27 a Travs de 29: El suscriptor QoS perfil a moldear para los 5Mbps es aplicado Para la subinterfaz C-VLAN. Listando 8.6 Cisco IOS QoS Configuration para la Priorizacin de Cola y del Suscriptor 1: El mapa de clase cm-prec-4 que se corresponde a ms 2: La precedencia del ip del fsforo 4 3: 4: Pm-vlan-shape-middle del mapa de poltica 5: La clase cm-prec-4 6: El ancho de banda 100 7: La clase predeterminada en la clase 8: El ancho de banda 50 9: 10: Pm-vlan-shape-top del mapa de poltica 11: La clase predeterminada en la clase 12: El pico de la forma 5000000 13: Pm-vlan-shape-middle de poltica de servicio 14: 15: La interfaz GigabitEthernet 2/0/0.100 16: La encapsulacin dot1q 20 second-dot1q 100 17: Pm-vlan-shape-top de salida de poltica de servicio La siguiente lista explica Listar 8.6: " Las Lneas 1 y 2: Cree un mapa de clase que corresponde a _ el protocolo entre redes de trfico del premio La precedencia 4. " Las Lneas 4 y 5: Cree la poltica de nio nivelada en centro y el primer fsforo de clase para El trfico precedence-4, y le da un afianzamiento mnimo de 100Kbps. " Las Lneas 7 y 8: Configure la siguiente clase para corresponder a todos los dems trfico, y darla Los 50Kbps de garantiz tasa. " Las Lneas 10 a Travs de 13: La poltica del ms alto nivel forma al VLAN. Slo una clase Puede estar presente en esta poltica _ predeterminada en la clase. Esto forja trfico para 5Mbps y Tambin los enlaces el nio ecunime en centro lo reparan pliza para eso. " Lnea 17: Asgnele la poltica de servicio a la interfaz. Los listados 8.7 y 8.8 demuestran la salida CLI para comprobar que la configuracin tiene Sidos aplicados para las sesiones del PPPoE basadas en las configuraciones mostrado en Listados 8.5 y 8.6. Listando 8.7 Verifying Juniper JUNOSe QoS Configuration para la Priorizacin de Cola y del Suscriptor Gig2/0/0.100 de la interfaz de jerarqua de planificador BNG #show qos La jerarqua del planificador para el grupo predeterminado de clase de trfico

Compartido confiado La conformacin forjando tasa La tasa de tasa del recurso de la interfaz o el peso Puerto de Ethernet de Ethernet Eth2/0/0 wgt 8 El nodo svlan 100000000 ar 100000000 El nodo vlan Eth2/0/0.100 vlan 5000000 wgt 8 Tc-premium cola vlan Eth2/0/0.100 vlan ar 100000 Mejor esfuerzo cola vlan Eth2/0/0.100 vlan ar 50000 BNG # Listando 8.8 Verifying Cisco IOS QoS Configuration para la Priorizacin de Cola y del Suscriptor Gig2/0/0.100 de la interfaz del mapa de poltica BNG #show GigabitEthernet2/0/0.100 La salida de poltica de servicio: Pm-vlan-shape-top El mapa de clase: Predeterminado en la clase (que se corresponde a ms) 315 paquetes, 18900 bytes 5 que el minuto le ofreci evalan 0 bits por segundo, descartan tasa 0 bits por segundo El fsforo: Cualquier El Trfico Tomando Forma El Byte del Blanco /promedio Sostiene Incremento Excedente de Intervalo Pedacitos de / int de pedacitos de Lmite de tasa / int (ms) (los bytes) 10000000/5000000 31250 125000 125000 25 31250 Adapte Bytes de Paquetes de Bytes de Paquetes de la Cola Tomando Forma La Profundidad en Ejecucin Retardada Retardado Activo - 0 315 18900 0 0 no La poltica de servicio: Pm-vlan-shape-middle El mapa de clase: Cm-prec-4 (que se corresponde a ms) 0 paquetes, 0 bytes 5 que el minuto le ofreci evalan 0 bits por segundo, descartan tasa 0 bits por segundo El fsforo: La precedencia del ip 4 0 paquetes, 0 bytes 5 el minuto evala 0 bits por segundo Queueing La Cola de Salida: La conversacin 137 El ancho de banda 100 (kilobits por segundo) el Umbral Max 64 (los paquetes) (Los pkts / bytes coincidentes a los que se correspondi) 0/0 (La profundidad /total no descarta cadas del amortiguador) 0/0/0 El mapa de clase: Predeterminado en la clase (que se corresponde a ms) 315 paquetes, 18900 bytes 5 que el minuto le ofreci evalan 0 bits por segundo, descartan tasa 0 bits por segundo El fsforo: Cualquier Queueing La Cola de Salida: La conversacin 138 El ancho de banda 50 (kilobits por segundo) el Umbral Max 64 (los paquetes)

(Los pkts / bytes coincidentes a los que se correspondi) 0/0 (La profundidad /total no descarta cadas del amortiguador) 0/0/0 BNG # Mesa 8.2 resume la terminologa usada en lo que va de este captulo. Mesa 8.2 Sumaria de Programar Protocolos y Terminologa

You might also like