Professional Documents
Culture Documents
HÀ NỘI 2006
1
MỤC LỤC
6.3 Cấu hình triển khai MPLS QoS trên mạng SPT............................ 107
6.4 Kết luận ................................................................................. 109
KẾT LUẬN VÀ KIẾN NGHỊ ............................................................. 110
TÀI LIỆU THAM KHẢO .................................................................. 112
6
A
API Application Program Interface
ARQ Admission Request
ATM Asynchronous Transfer Mode
AF Assured forwarding
ASN Autonomous System Number
B
BGP Border Gateway Protocol
BA Behavior Aggregate
C
CAR Commited Access Rate
CPE Customer Premise Equipment
CIR Committed Information Rate
CATV Community Antenna Television
cRTP compressed Real-time Transport Protocol
CQ Custom Queuing
CBWFQ Class-Based Weighted Fair Queuing
CL Controlled Load
CS Class – Selector
CPU Central Processing Unit
CDT Congestive Discard Threshold
D
DWDM Dense Wavelength Division Multiplexing
DWFQ Distributed Weighted Fair Queuing
DiffServe Differentiated Service
7
O
OSPF Open Shortest Path First
P
PSTN Public Switched Telephone Network
PE Provider Edge
POP Point Of Presence
PVC Permanent Virtual Circuit
PLMN Public Land Mobile Network
PDH Plesiochronous Digital Hierarchy
PQ Priority Queuing
POS Packet over SONET
PHB Per-hop behavior
PPP Point – to – Point Protocol
R
RPT Resilient Packet Transport
RFC Request for Comment
RSVP Resource Reservation Protocol
RESV Reservation request
RTP Real-time Transport Protocol
RIP
S
SDH Synchronous Digital Hierarchy
SMTP Simple Mail Transfer Protocol
SS7 Signalling System No 7
SVC Switched virtual circuit
SONET Synchronous Optical Network
SLA Service Level Agreement
10
STAC Stacker
SQL Structured Query Language
T
TCP Transmission Control Protocol
TDM Time Division Multiplex
TTL Time-to-Live
TAC Technical Assistance Center
U
UDP User Datagram Protocol
V
VC Virtual Circuit
VPN Virtual Private Network
VRF VPN Routing and Forwarding
VoIP Voice over IP
VIP Versatile Interface Processor
Vd Ví dụ
W
WDM Wavelength Division Multiplexing
WFQ Weighted Fair Queing
WAN Wide Area Network
WRED Weighted random early Drop/Detect
WRR Weighted Round Robin
11
Bảng 1-1 So sánh công nghệ mạng hiện tại và tương lai ........................... 22
Bảng 1-2 Thống kê các loại trễ từ đầu cuối đến đầu cuối .......................... 25
Bảng 2-1 Giá trị IP Precedence và DSCP trong các PHB .......................... 35
Bảng 2-2 So sánh đặc điểm cơ bản của hai mô hình QoS .......................... 39
Bảng 3-1 Giá trị IP Precedence tương ứng với 3 bits ToS ............................. 46
Bảng 3-2 Phạm vi sử dụng của các giải thuật nén..................................... 51
Bảng 3-3 Hiệu quả nén tiêu đề TCP ...................................................... 53
Bảng 5-1 Chức năng của các kiểu LSR................................................... 94
Bảng 5-2 Mô tả mối liên hệ giữa giá trị IP DSCP và MPLS EXP .............. 97
Bảng 6-1 Thống kê chính sách QoS ............................................................ 107
12
Môi trường kinh doanh ngày càng mang tính cạnh tranh và phức tạp hơn
bao giờ hết. Trong đó chất lượng dịch vụ là chìa khoá để có thể dẫn tới thành
công. Song song với xu thế này, công nghệ viễn thông và công nghệ thông tin
phát triển cũng có nhiều ảnh hưởng đến mạng viễn thông, đòi hỏi mạng viễn
thông phải hội tụ được nhiều loại hình dịch vụ khác nhau. Để đáp ứng các yêu
cầu này, một số nhà sản xuất thiết bị viễn thông và một số tổ chức nghiên cứu
về viễn thông đã đưa ra các ý tưởng và mô hình về cấu trúc mạng thế hệ mới
(Next Generation Network – NGN).
NGN không phải là mạng hoàn toàn mới, mạng này dựa trên cơ sở chuyển
mạch và truyền dẫn gói IP và hướng tới là MPLS. Tuy nhiên bên cạnh những
ưu thế nổi bật, một yêu cầu đặt ra đối với mạng NGN là đảm bảo chất lượng
truyền tải âm thanh và dữ liệu. Đây thực sự là một thách thức khó khăn về
mặt công nghệ, vì các dịch vụ khác nhau có các yêu cầu về chất lượng dịch vụ
khác nhau. Do vậy song song với tiến trình xây dựng mạng NGN thì việc
triển khai các kỹ thuật QoS cũng phải được thực thi đồng thời nhằm đảm bảo
các yêu cầu mà dịch vụ đưa ra.
Luận văn tốt nghiệp cao học của tôi là “Vấn đề chất lượng dịch vụ trong
mạng thế hệ mới và triển khai ứng dụng trên hạ tầng mạng của công ty SPT”
Nội dung gồm 6 chương:
Chương 1 – Mạng thế hệ mới (NGN).
Giới thiệu tổng quan về mạng thế hệ mới. Tác giả phân tích xu thế phát
triển của mạng viễn thông ngày nay. Các đặc điểm về dịch vụ, công nghệ và
kiến trúc mạng NGN triển khai trên hạ tầng các mạng riêng lẻ có sẵn. Phân
tích các tham số đánh giá chất lượng dịch vụ mạng và những yêu cầu cần
được giải quyết.
15
Trong những năm gần đây, công nghệ mạng và các dịch vụ viễn thông
phát triển hết sức nhanh chóng, trong đó lưu lượng các dịch vụ dữ liệu đã
vượt qua lưu lượng thoại. Sự phát triển nhanh của các dịch vụ dữ liệu đòi hỏi
có một sự chuyển biến trong việc xây dựng, quản lý và khai thác mạng. Có
thể nói sự ra đời của mạng thế hệ mới NGN (Next Generation Network) sẽ
thoả mãn được yêu cầu tăng trưởng nhanh của lưu lượng dữ liệu và cả lưu
lượng thoại trong thời gian tới. Trong chương này tác giả sẽ phân tích tổng
quan về các đặc điểm và kiến trúc mạng NGN cũng như các tham số đánh giá
chất lượng dịch vụ mạng.
1.1 Khái niệm
Cho tới nay, đã có rất nhiều các tổ chức viễn thông quốc tế cũng như các
nhà cung cấp thiết bị viễn thông trên thế giới đều quan tâm và nghiên cứu về
chiến lược phát triển mạng NGN nhưng vẫn chưa có một định nghĩa chính
xác và thống nhất nào cho mạng NGN. Sau đây là những khái niệm tương đối
chung nhất khi đề cập đến NGN
Mạng hội tụ (hỗ trợ cho cả lưu lượng thoại và dữ liệu, cấu trúc mạng
hội tụ).
Mạng phân phối (phân phối tính thông minh cho mọi phần tử trong
mạng).
Mạng đa dịch vụ (cung cấp nhiều loại dịch vụ khác nhau).
Mạng nhiều lớp (mạng được phân phối ra nhiều lớp mạng có chức năng
độc lập nhưng hỗ trợ nhau thay vì một khối thống nhất như trong mạng
TDM - Time Division Multiplex).
17
mạng, tập hợp các số liệu hay sử dụng, cung cấp việc gỡ rối, hoặc môi
giới các dịch vụ mới từ các nhà cung cấp khác,.…
Dễ dàng sử dụng. Đó là việc làm trong suốt đối với người sử dụng về
tính phức tạp của thu thập, xử lý, chế tạo và truyền thông tin. Nó cho
phép dễ dàng sử dụng và truy nhập các dịch vụ mạng, bao gồm giao
diện người sử dụng cho phép tương tác giữa người và mạng một cách
tự nhiên, cung cấp các thông tin, trợ giúp, lựa chọn động theo ngữ cảnh
(nhạy ngữ cảnh), quản lý một cách trong suốt các tương tác đa dịch vụ,
cung cấp các menu khác nhau cho những người chưa có kinh nghiệm
ngược lại với những người đã có kinh nghiệm, và cung cấp môi trường
thống nhất cho tất cả các dạng truyền thông.
Quản lý và chế tạo các dịch vụ cá nhân: Nó bao gồm khả năng của
người sử dụng để quản lý các thông tin cá nhân của họ, các dịch vụ
mạng cung cấp, giám sát thông tin sử dụng và tính cước.
Quản lý thông tin thông minh: Nó giúp người sử dụng quản lý tình
trạng quá tải thông tin bằng việc đưa khả năng tìm kiếm, sắp xếp, và
lọc các bản tin hoặc dữ liệu.
1.3 Kiến trúc dịch vụ của mạng thế hệ mới
Mạng thế hệ mới ra đời cùng với việc tái kiến trúc mạng, tận dụng tất cả
các ưu thế về công nghệ tiên tiến để phát triển, kiến trúc mạng NGN dựa trên
mạng chuyển mạch gói và cung cấp nhiều dịch vụ mới.
Mạng thế hệ sau được tổ chức dựa trên các nguyên tắc cơ bản sau:
Đáp ứng nhu cầu cung cấp các loại hình dịch vụ viễn thông phong phú,
đa dạng, đa dịch vụ, đa phương tiện.
Mạng có cấu trúc đơn giản.
Nâng cao hiệu quả sử dụng chất lượng mạng lưới và giảm thiểu chi phí
khai thác và bảo dưỡng.
19
Một kiến trúc NGN khả thi phải hỗ trợ dịch qua nhiều nhà cung cấp
khác nhau. Mỗi nhà cung cấp mạng hay dịch vụ là một thực thể riêng lẻ
với mục tiêu kinh doanh và cung cấp dịch vụ khác nhau, và có thể sử
dụng những kỹ thuật và giao thức khác nhau, nhưng tất cả đều phải
được truyền qua mạng một cách thông suốt từ đầu cuối đến đầu cuối.
Một mạng tương lai phải hỗ trợ tất cả các loại kết nối, thiết lập đường
truyền trong suốt cả cho hữu tuyến cũng như vô tuyến. Vì vậy, mạng
NGN sẽ tiến hóa lên từ mạng truyền dẫn hiện tại (phát triển thêm
chuyển mạch gói) và từ mạng Internet công cộng (hỗ trợ thêm chất
lượng dịch vụ QoS). Chiến lược phát triển mạng xem hình 1.2
Công nghệ ghép kênh bước sóng quang DWDM sẽ chiếm lĩnh ở lớp vật
lý.
IP/MPLS làm nền cho lớp 3
Công nghệ ở lớp 2 phải thỏa mãn các điều kiện như: Đơn giản, tối ưu
hóa truyền tải gói dữ liệu, có khả năng giám sát chất lượng, giám sát lỗi
và bảo vệ, khôi phục mạng khi có sự cố. Hiện tại công nghệ RPT
(Resilient Packet Transport) đang phát triển nhằm đáp ứng các chỉ tiêu
này.
Thứ 2 là chuyển dịch mạng đường dài (mạng truyền dẫn): Tín hiệu từ các
cổng trung kế tích hợp hoặc độc lập được chuyển đến mạng IP hoặc ATM
(Asynchronous Transfer Mode), rồi sử dụng chuyển mạch mềm để điều khiển
luồng và cung cấp dịch vụ. Sử dụng phương thức này có thể giải quyết được
vấn đề tắc nghẽn trong chuyển mạch kênh (Xem hình 1.3).
Hiện tại các mạng dịch vụ riêng lẻ Tương lai mạng đa dịch vụ
Điều khiển và quản lý các
dịch vụ truy nhập
PSTN/ Cellular
ISDN Data/IP CATV
PLMN
Network Wireline Wireless Cable
Access Access Access
`
Các mạng truy nhập, truyền dẫn,
chuyển mạch riêng lẻ Liên mạng trên cơ sở IP
Bảng 1-1 dưới đây so sánh công nghệ mạng hiện tại và tương lai
Thành phần mạng Công nghệ hiện tại Công nghệ tương lai
Mạng truy nhập Cáp xoắn băng hẹp Cáp xoắn băng hẹp
Truyền hình cáp số Truyền hình cáp số
và tương tự chuyên và tương tự chuyên
dụng dụng
GSM không dây GSM không dây
Cáp quang Cáp quang
Cáp xoắn băng rộng
Modem cáp
IP qua vệ tinh
Ethernet
Chuyển mạch và định Tổng đài PSTN Định tuyến IP
tuyến Chuyển mạch ATM Chuyển mạch quang
Chuyển mạch Frame
Relay
Định tuyến IP
Mạng truyền dẫn PDH DWDM
đường trục SDH
Bảng 1-1 So sánh công nghệ mạng hiện tại và tương lai
các gói trong một luồng không có cùng độ trễ trong mạng. Độ trễ của
mỗi gói biến đổi tuỳ theo điều kiện của từng chặng trên mạng. Nếu
mạng không bị tắc nghẽn, các router sẽ không cần có hàng đợi, do đó
trễ chuyển gói sẽ không còn. Điều này làm giảm rất nhiều độ trễ gói
trong mạng. Nếu mạng bị tắc nghẽn. trễ hàng đợi sẽ ảnh hưởng rất lớn
tới gói và gây ra sự biến đổi trễ của gói. Sự biến đổi trễ của mỗi gói là
khác nhau và điều này gọi là jitter. Tóm lại trễ mạng là biến đổi và khó
xác định trước nó phụ thuộc vào nhà cung cấp, trạng thái các tuyến
trong mạng, vấn đề tắc nghẽn,... Trong một số trường hợp nhà cung cấp
có thể giới hạn trễ này tùy theo thỏa thuận mức dịch vụ giữa nhà cung
cấp và khách hàng hay giữa các nhà cung cấp với nhau (xem hình 1.5).
Ngoài ra còn có các trễ cố định có thể xác định được như: Trễ mã hóa,
trễ hàng đợi, trễ sửa dạng và trễ nén.
vậy một vấn đề cần đặt ra là làm sao cho ảnh hưởng của Jitter không đủ để
làm suy giảm chất lượng dịch vụ.
1.4.4 Mất gói (Loss Packet)
Tỉ lệ mất gói chỉ ra số lượng gói bị mất trong mạng trong suốt quá trình
truyền dẫn. Mất gói do hai nguyên nhân chính: gói bị loại bỏ khi mạng bị tắc
nghẽn nghiêm trọng hoặc gói bị mất khi đường kết nối bị lỗi. Loại bỏ gói có
thể xảy ra tại các điểm tắc nghẽn do kỹ thuật QoS khi số lượng gói đến vượt
quá kích thước hàng đợi tại đầu ra.
Kết luận: QoS có thể giúp giải quyết một số vấn đề như: mất gói, jitter, và
xử lý trễ. Nhưng một số vấn đề mà QoS không thể giải quyết được như là trễ
lan truyền, trễ do mã hóa/ giải mã, trễ lấy mẫu và trễ do số hóa. Điều quan
trọng là phải biết phần nào không thể thay đổi và phần nào có thể điều khiển
được theo như bảng 1-2 (trích tài liệu: Tiêu chuẩn G.114 “One-way
transmission time”).
Trễ cố định Trễ thay đổi
Trễ mã hóa G.729 (5 ms) 5 ms
Trễ mã hóa G.729 (10 ms/frame) 20 ms
Trễ đóng gói bao gồm trong trễ mã hóa
Trễ xếp hàng trên trung kế 64 kbps 6 ms
Trễ chuyển nối tiếp trên trung kế 64 kbps 3 ms
Trễ truyền lan (trên các dây riêng) 32 ms
Trễ mạng (Vd Frame Relay)
Đệm loại bỏ Jitter 2-200ms
Tổng cộng – Giả sử Jitter Buffer 50 ms 110 ms
Bảng 1-2 Thống kê các loại trễ từ đầu cuối đến đầu cuối
Khuyến nghị G.114 của ITU-T cho rằng trễ từ đầu cuối đến đầu cuối
không vượt quá 150ms là duy trì được chất lượng thoại tốt.
26
Chúng ta cần quan tâm đến những dữ kiện sau khi xác định kỹ thuật QoS
sẽ được triển khai trong mạng:
Các ứng dụng hoặc vấn đề bạn đang cố gắng giải quyết.
Những khả năng bạn muốn cho phân chia tài nguyên.
Phân tích những lợi ích về giá, Vd giá thành cần thiết cho các phương
tiện và triển khai dịch vụ Differentiated services chắc chắn là đắt hơn
rất nhiều so với dịch vụ Best effort.
Các kỹ thuật Qos được mô tả trong hình 2.1
Cung cấp dịch vụ tốt nhất: mô hình IntServ cho phép nhà cung cấp
mạng tung ra những dịch vụ tốt nhất, khác biệt với các đối thủ cạnh
tranh khác.
Các bản tin
Setup đặt trước
• Điều khiển chấp nhận: Xác định các thiết bị mạng có khả năng hỗ
trợ QoS theo yêu cầu hay không.
• Thiết bị phân lớp (Classifier): Nhận dạng và chọn lựa lớp dịch vụ
trên nội dung của một số trường nhất định trong mào đầu gói.
• Thiết bị lập lịch và phân phối (Scheduler): Cung cấp các mức chất
lượng dịch vụ (QoS) ở kênh đầu ra của thiết bị.
Các mức QoS cung cấp bởi IntServ gồm:
Dịch vụ Best Effort
Dịch vụ đảm bảo GS (Guaranteed Service)
Dịch vụ kiểm soát tải CL (Controlled Load)
Sau đây chúng ta sẽ phân tích các dịch vụ được cung cấp bởi IntServ.
2.2.2.1 Dịch vụ đảm bảo GS (Guaranteed Service)
GS cung cấp các dịch vụ chất lượng cao như: Dành riêng băng thông, giới
hạn độ trễ tối đa và không bị mất gói tin trong hàng đợi. Các ứng dụng có thể
kể đến: Hội nghị truyền hình chất lượng cao, thanh toán tài chính thời gian
thực,....
2.2.2.2 Dịch vụ kiểm soát tải CL (Controlled Load)
CL không đảm bảo về băng tần hay trễ, nhưng khác với Best Effort ở điểm
không giảm chất lượng một cách đáng kể khi tải mạng tăng lên. Dịch vụ này
phù hợp cho các ứng dụng không nhạy cảm lắm với độ trễ hay mất gói như
truyền hình multicast audio/video chất lượng trung bình.
2.2.2.3 Kết luận
Mô hình dịch IntServ có thể sử dụng giao thức báo hiệu RSVP cung cấp
nhiều loại hình dịch vụ khác nhau:
Guaranteed Rate Service loại hình này cho phép dành sẵn độ rông băng thông
để phù hợp với những yêu cầu của chúng, Vd ứng dụng VoIP có thể dành 32
Mbps từ đầu cuối đến đầu cuối sử dụng loại hình dịch vụ này. QoS sử dụng
31
xếp hàng cân bằng trọng số (WFQ) kết hợp với giao thức dành sẵn tài nguyên
(RSVP) để cung cấp loại hình dịch vụ này.
Controlled Load Service, loại hình này cho phép các ứng dụng có độ trễ
thấp và tốc độ lưu lượng cao thậm trí ngay cả khi tắc nghẽn. Vd các ứng dụng
không nhạy cảm với thời gian thực như khi phát lại băng ghi âm cuộc hội
thoại có thể sử dụng loại hình dịch vụ này. QoS sử dụng RSVP kết hợp với
Weighted Random early Detect (WRED) cung cấp loại hình dịch vụ này.
2.2.3 Mô hình Differentiated Service
Việc đưa ra mô hình IntServ có vẻ như giải quyết được nhiều vấn đề liên
quan đến QoS trong mạng IP. Tuy nhiên trong thực tế mô hình này đã không
đảm bảo được QoS xuyên suốt (end to end). Đã có nhiều cố gắng nhằm thay
đổi điều này nhằm đạt một mức QoS cao hơn cho mạng IP, và một trong
những cố gắng đó là sự ra đời của DiffServ (xem hình 2.3).
DiffServ sử dụng việc đánh dấu gói và xếp hàng theo loại để hỗ trợ dịch vụ
ưu tiên qua mạng IP. Hiện tại IETF đã có một nhóm nghiên cứu DiffServ để
đưa ra các khuyến cáo RFC về DiffServ.
Nguyên tắc cơ bản của DiffServ như sau:
Phân loại và đánh dấu các gói riêng biệt tại biên của mạng vào các lớp
dịch vụ. Việc phân loại có thể dựa trên nhiều cách thức như sửa dạng
lưu lượng, loại bỏ gói tin, và cuối cùng là đánh dấu trường DS
(DiffServ) trong mào đầu gói tin để chỉ thị lớp dịch vụ cho gói tin.
Điều chỉnh lưu lượng này tại biên mạng. DS là mô hình có sự phân biệt
dịch vụ trong mạng có nhiều ứng dụng khác nhau, bao gồm cả lưu
lượng thời gian thực có thể được đáp ứng mức dịch vụ của chúng trong
khi vẫn có khả năng mở rộng các hoạt động trong mạng IP lớn. Khả
năng mở rộng có thể đạt được bằng:
• Chia nhỏ lưu lượng ra thành nhiều lớp khác nhau.
32
• Ánh xạ nhiều ứng dụng vào trong các lớp dịch vụ này trên biên
mạng. Chức năng ánh xạ này đựơc gọi là phân loại (classification)
và điều hoà (conditioning) lưu lượng.
Cung cấp các xử lý cố định cho mỗi lớp dịch vụ tại mỗi hop (được gọi
là Per-hop behavior - PHB) tương ứng với các yêu cầu QoS của nó).
PHB bao gồm hàng đợi, phân lịch, và các cơ chế loại bỏ gói tin.
mặc định), Class – selector PHB (PHB lựa chọn theo lớp), Expedited
Forwaring PHB (PHB chuyển tiếp ưu tiên nhất – EF PHB), Assured
forwarding PHB (PHB chuyển tiếp được đảm bảo – AF PHB). PHB không
đưa ra các cơ chế thực thi cụ thể cho gói tin. Để miêu tả cho một PHB cụ thể,
nhà quản trị mạng kích hoạt, điều chỉnh, và kết hợp các cơ chế phân lịch gói
tin thích hợp cũng như kích hoạt các cơ chế quản lý hàng đợi (như Priority
Queueing, Class-based Weight Fair Queue) hay các cơ chế tránh tắc nghẽn
như (WRED, CAR,...) được các router Diff-serv hỗ trợ.
Default PHB: Mặc định PHB tương ứng với tiến trình chuyển tiếp gói
tin best-effort, nó là mặc định trên tất cả các router. Nó chỉ đơn giản
phân phối càng nhiều gói tin càng tốt. PHB này không có sự cam kết về
chất lượng dịch vụ cho gói tin. Các gói tin được ánh xạ đến PHB này sẽ
có giá trị DSCP là 0.
Class – selector PHB: Trong một vài triển khai IP QoS, giá trị IP
Precedence thường được sử dụng vì tính đơn giản và dễ sử dụng của
nó. Do đó, để cho tương thích với các giá trị Precedence, các giá trị
DSCP được định nghĩa dưới dạng xxx000 (trong đó x có thể là 0 hay
1). Các giá trị đó được gọi là class – selector codepoint. Giá trị mặc
định là 0. PHB kết hợp với một class – selector codepoint được gọi là
Class – selector PHB. Các PHB này sẽ có cùng kiểu chuyển tiếp như
các node sử dụng giá trị IP Precedence. Ví dụ, các gói tin có giá trị
DSCP là 101000 (IP Precedence là 101) sẽ có độ ưu tiên chuyển tiếp
lớn hơn các gói tin có giá trị DSCP là 011000 (IP Precedence 011).
EF PHB: PHB chuyển phát nhanh EF PHB là PHB đáp ứng cho gói tin
các dịch vụ có việc mất gói tin thấp (low - loss), độ trễ thấp (low -
delay), độ jitter thấp (low - jitter). EF PHB đảm bảo rằng lưu lượng của
nó được phục vụ ở tốc độ ít nhất là bằng với tốc độ dịch vụ cam kết.
34
Các ứng dụng như VoIP, video, thương mại điện tử được sử dụng PHB
này. Bất kì lưu lượng nào vượt qúa hợp đông lưu lượng sẽ bị huỷ bỏ.
Giá trị DSCP (xem hình 2.4) cho EF là 101110.
AF PHB: PHB chuyển phát đảm bảo Đây là công cụ được sử dụng để
đưa ra các mức dịch vụ đảm bảo chuyển tiếp cho gói tin của người
dùng. Có tất cả 4 lớp AF. Trong mỗi lớp AF, một gói tin được đăng kí
một trong 3 mức ưu tiên đánh rớt, tức là gói tin có 3 giá trị ưu tiên đánh
rớt khác nhau trong cùng một lớp dịch vụ. Mỗi PHB sẽ tương đương
với một lớp khác nhau và được gọi là AFij, trong đó i là lớp AF, và j là
độ ưu tiên đánh rớt. Mỗi lớp AF được chỉ định với số lượng nguồn tài
nguyên nhất định phụ thuộc vào hợp đồng mức dịch vụ SLA (Service
Level Agreement) của khách hàng, gồm có băng thông và không gian
bộ đệm. Việc chuyển tiếp được thực hiện độc lập dọc mỗi lớp AF.
DSCP
EF 1 0 1 1 1 0 CU
DSCP
AFxy x x x y y 0 CU
Ví dụ, AF23 sẽ bị đánh rớt trước AF22, AF22 sẽ bị đánh rớt trước AF21.
Lớp AFx có thể được biểu diễn bằng giá trị DSCP xyzab0, trong đó xyz là
001, 010, 011, 100 và ab là bit ưu tiên đánh rớt.
Bảng 2-1 là giá trị của IP Precedence và DSCP trong các PHB
DSCP in Binary DSCP in Decimal Precedence PHB
000000 0 0 Default
001000 8 1 CS1
001010 10 1 AF11
001100 12 1 AF12
001110 14 1 AF13
010000 16 2 CS2
010010 18 2 AF21
010100 20 2 AF22
010110 22 2 AF23
011000 24 3 CS3
011010 26 3 AF31
011100 28 3 AF32
011110 30 3 AF33
100000 32 4 CS4
100010 34 4 AF41
100100 36 4 AF42
100110 38 4 AF43
101000 40 5 CS5
101110 46 5 EF
110000 48 6 CS6
111000 56 7 CS7
Bảng 2-1 Giá trị IP Precedence và DSCP trong các PHB
36
Hình 2.5 Sơ đồ cơ chế phân loại và điều hoà đến lưu lượng
Cơ chế phân loại gói:
Việc phân loại có thể dựa trên trường DS, có thể dựa trên các giao thức
được vận chuyển như SMTP, HTTP, hoặc là địa chỉ nguồn và đích. Phân loại
lưu lượng được sử dụng để chuyển tiếp gói tin đến trạng thái điều hoà lưu
lượng thích hợp. Bộ phân loại hoạt động ở hai chế độ:
Bộ phân loại tổng hợp hành vi (BA) phân loại các gói tin chỉ dựa trên
giá trị DSCP.
Bộ phân loại đa trường (multifield) phân loại các gói tin bởi nhiều
trường trong gói, như là địa chỉ, số cổng,….
Cơ chế điều hòa lưu lượng:
Điều hoà lưu lượng bao gồm các thành phần sau : hoạt động đo, hoạt động
đánh dấu, hoạt động sửa dạng, và hoạt động đánh rớt gói tin.
37
Hoạt động đo (meter): Sau khi gói tin được phân loại, meter sẽ đo tốc
độ luồng lưu lượng.
Hoạt động đánh dấu thiết lập trường DS của mào đầu gói tin dựa vào
kết quả có được từ bộ đo.
Hoạt động sửa dạng sẽ làm trễ vài gói tin trong luồng dữ liệu được
phân loại, định hướng lưu lượng trước khi đi vào miền DiffServ.
Hoạt động đánh rớt sẽ đánh rớt gói tin trong luồng dữ liệu đó (ví dụ các
gói tin vượt quá profile được nhận diện trong bộ đo), tiến trình này
được gọi là policing. Nghĩa là các gói tin được đưa đến bộ điều hoà lưu
lượng có thể là in-profile hoặc là out-of-profile. Các gói in-profile là
các gói tuân thủ theo hợp đồng mức dịch vụ giữa khách hàng và nhà
cung cấp. Các gói out-of-profile nằm bên ngoài hợp đồng SLA, hoặc do
hành vi mạng mà các gói này đến bộ điều hoà, tại đây bộ điều hoà sẽ có
những xử lý thích hợp.
2.2.3.4 Ưu nhược điểm của mô hình DiffServ
Với nguyên tắc này, Diffserv có nhiều lợi thế hơn so với IntServ:
Không yêu cầu báo hiệu cho từng luồng.
Dịch vụ ưu tiên có thể áp dụng cho một số luồng riêng biệt cùng một
lớp dịch vụ. Điều này cho phép nhà cung cấp dịch vụ dễ dàng phân
phối một số mức dịch vụ khác nhau cho khách hàng cho nhu cầu.
Không yêu cầu thay đổi tại các máy chủ hay các ứng dụng để hỗ trợ
dịch vụ ưu tiên. Đây là nhiệm vụ của thiết bị biên.
Hỗ trợ rất tốt dịch vụ VPN (Virtual Private Network).
Tuy nhiên có thể nhận thấy DiffServ cần vượt qua một số vấn đề như:
Không có khả năng cung cấp băng tần và độ trễ đảm bảo như GS của
IntServ hay ATM (Asynchronous Transfer Mode).
38
Thiết bị biên vẫn yêu cầu bộ Classifier chất lượng cao cho từng gói
giống như trong mô hình IntServ.
Vấn đề quản lý trạng thái Classifier của một số lượng lớn các thiết bị
biên là một vấn đề không nhỏ cần quan tâm.
Chính sách khuyến khích khách hàng trên cơ sở giá cước cho dịch vụ
cung cấp cũng ảnh hưởng đến giá trị của DiffServ.
2.2.3.5 Kết luận về DiffServ
Differentiated Service là một mô hình đa dịch vụ, chúng có thể làm thỏa
mãn các yêu cầu QoS khác nhau. Dẫu sao nó không giống mô hình dịch vụ
Integrated, một ứng dụng sử dụng mô hình dịch vụ Differentiated không cần
xác định rõ ràng tín hiệu tới bộ định tuyến trước khi gửi dữ liệu.
Bởi vì đối với dịch vụ Differentiated, mạng cố gắng phân loại dịch vụ dựa
trên lý thuyết QoS cho mỗi gói tin. Đặc điểm kỹ thuật này có thể thực hiện
bằng nhiều cách khác nhau, Vd sử dụng IP Precedence bit thiết lập trong gói
IP hoặc địa chỉ nguồn và đích, mạng sử dụng đặc điểm kỹ thuật QoS để phân
loại, đánh dấu, sửa dạng và chính sách điều khiển lưu lượng nhằm xếp hàng
đợi thông minh.
Mô hình dịch vụ Differentiated được sử dụng dành cho những ứng dụng
đặc biệt và để cung cấp đầu cuối tới đầu cuối QoS. Tiêu biểu cho loại hình
dịch vụ này phù hợp cho việc tập trung lưu lượng, bởi vì nó thực hiện việc
phân loại lưu lượng ở cấp độ thô.
QoS cung cấp các mô hình dịch vụ Differentiated sau:
Committed access rate (CAR), loại hình này thực hiện phân loại gói
thông qua IP Precedence và thiết lập nhóm QoS. CAR thực hiện đo và
điều khiển lưu lượng, quản lý độ rộng băng thông.
Xếp hàng đợi thông minh như WRED và WFQ và những đặc tính
tương đương dựa trên bộ xử lý giao diện đa năng – Versatile Interface
39
2.3 Các giao thức và cơ chế báo hiệu trong kỹ thuật QoS
Bên cạnh các đặc tính về xử lý lưu lượng, báo hiệu cũng là một thành phần
khá quan trọng của QoS. Cũng như các dạng báo hiệu khác, báo hiệu QoS là
một dạng của mạng thông tin mà cho phép các phần tử nút mạng, các trạm
đầu xa bắt tay nhau để thực hiện quá trình truyền dữ liệu.
40
Một mạng QoS end-to-end yêu cầu mỗi phần tử trong mạng, Router,
Switch, Firewall, Host..., đóng vai trò như là một phần của QoS và tất cả các
thành phần này được phối hợp liên kết bởi báo hiệu QoS.
Có nhất nhiều giải pháp báo hiệu QoS được áp dụng trong mạng, tuy nhiên
chúng thường bị giới hạn bởi phạm vi hoạt động của mạng.
Đối với mạng ứng dụng trên nền IP đưa ra các tính năng cho phép ứng
dụng báo hiệu QoS trên cơ sở của các mạng không đồng nhất. Đó là các giải
pháp báo hiệu QoS lớp 2 của RSVP (Resource Reservation Protocol) và
phương thức báo hiệu QoS IP lớp 3 dựa trên đặc tính về quyền ưu tiên IP.
Tương ứng là cơ chế báo hiệu trong băng (IP precedence) và báo hiệu
ngoài băng (RSVP). Báo hiệu IP Precedence phân biệt QoS, còn báo hiệu
RSVP nhằm đảm bảo QoS.
2.3.1 Giao thức dành sẵn tài nguyên (Resource Reservation Protocol)
RSVP là giao thức chuẩn cho phép cài đặt QoS đầu cuối đến đầu cuối trên
một mạng hỗn hợp. RSVP chạy trên nền IP rất hữu hiệu trong dự trữ băng
thông mạng. Sử dụng RSVP, các ứng dụng có thể yêu cầu mức QoS xác định
cho một luồng dữ liệu vận chuyển qua mạng.
Trên các nền ứng dụng của QoS, RSVP có thể được khởi tạo thông qua
RSVP proxy. RSVP cũng chỉ là một giao thức báo hiệu tiêu chuẩn được thiết
kế để đảm bảo băng thông từ đầu cuối này đến đầu cuối kia trong mạng IP.
Nếu 1 node mạng không hỗ trợ RSVP thì RSVP sẽ di chuyển đến node kế
tiếp. Một node mạng có tùy chọn là đồng ý hay từ chối sự dành riêng căn cứ
vào tải của giao tiếp mà dịch vụ yêu cầu.
RSVP không định tuyến chính nó và không hiệu chỉnh bảng định tuyến IP,
thay vào đó nó sử dụng các giao thức định tuyến để xác định ở đâu cần gửi
các yêu cầu dành riêng (reservation).
41
RSVP hoạt động trong mối liên kết với các cơ chế hàng đợi hiện thời.
Chúng ta có thể sử dụng RSVP để điều khiển tải trọng và đảm bảo tốc độ dịch
vụ.
RSVP là một đặc tính quan trọng của QoS nhưng nó không giải quyết tất
cả các vấn đề đưa ra bởi QoS, Vd như thời gian cần để thiết lập một sự đăng
ký dành riêng từ đầu cuối đến đầu cuối, khả năng phát triển, điều khiển chấp
nhận (admission).
Các host và router phân phối các yêu cầu QoS tới các router trên suốt
đường truyền dữ liệu và duy trì trạng thái cung cấp dịch vụ được yêu cầu từ
trước, thông thường đó là băng thông và yếu tố trễ. RSVP sử dụng tốc độ
truyền dữ liệu trung bình (mean data rate - lượng dữ liệu lớn nhất mà router
có thể lưu trữ trong hàng đợi) và tối thiểu hóa QoS (đảm bảo lượng băng
thông được yêu cầu) để xác định lượng băng thông dành riêng.
Khi một Host dùng RSVP để yêu cầu một dịch vụ QoS nó sẽ gửi yêu cầu
tới mạng trên một nửa của luồng truyền dữ liệu. Dịch vụ QoS được yêu cầu
bởi RSVP, tuy nhiên nó để cho các cơ chế hàng đợi thực hiện sự dành riêng
đó.
RSVP chuyên trở yêu cầu xuyên xuốt tất cả các nút trong mạng ở trên
đường truyền dữ liệu. Tại đó yêu cầu dự trữ tài nghuyên cho luồng dữ liệu
thông qua module điều khiển truy nhập của chính node đó.
Chú ý rằng với RSVP, một ứng dụng có thể được gửi với tốc độ lớn hơn
yêu cầu đưa ra bởi QoS, tuy nhiên dịch vụ đó chỉ được đảm bảo tại tốc độ yêu
cầu tối thiểu. Nếu băng thông khả dụng lưu lượng sẽ được truyền đi với tốc
độ lớn hơn tốc độ yêu cầu, còn nếu như không đủ toàn bộ phần lưu lượng
vượt quá sẽ bị rớt.
42
Hình 2.6 Mô hình mạng đầu cuối đến đầu cuối với RSVP
Hai bản tin chính được dùng cho bản tin báo hiệu RSVP. Khi cần thiết một
sự đặt trước, client gửi bản tin đường dẫn RSVP PATH trong mạng yêu cầu
một băng thông xác định nào đó tới đích. Mục đích của bản tin PATH là
khám phát tất cả RSVP-enable trên các router. Khi phía thu end-node nhận
bản tin PATH, nó sẽ xác định lại sự đặt trước bằng cách reply với bản tin
RSVP RESV. Bản tin RESV chuyển tiếp ngược về phía phát. Nếu bản tin
RESV đến phía phát thành công , mỗi hop trong kết nối end-to-end dành
trước tài nguyên và băng thông đặt trước được thiết lập end-to-end. Nếu
nguồn tài nguyên không có khả năng đáp ứng thì sự đặt trước bị từ chối.
Khi một phần của mạng không hỗ trợ RSVP, có nghĩa là khi bản tin RSVP
không được xử lý bởi tất cả các hop ở giữa 2 ứng dụng endpoints, một vài cơ
chế khác có thể được áp dụng để cố gắng đạt được yêu cầu của ứng dụng
trong non-RSVP network được gọi là pass-through RSVP.
Mạng từ đầu cuối đến đầu cuối pass-through RSVP được mô tả như hình 2.7
43
Hình 2.7 Mô hình mạng đầu cuối đến đầu cuối non-RSVP
Pass-through RSVP chỉ thực thi phân phát best-effort giữa 2 phần mạng
RSVP-enable.
Một ứng dụng khác là áp dụng CoS để phân phát các gói trên phần mạng
non-RSVP-enable. Trong trường hợp này, lưu lượng ứng dụng RSVP được
đánh dấu với các bộ đánh dấu lớp như IP Precedence hoặc bit DSCP ở trên
thực thể non-RSVP.
Sự đánh dấu gói của IP Precedence và DSCP dựa vào byte ToS trong IP
header, nó sẽ nhận dạng các lớp lưu lượng trên mỗi hop. IP precedence và
DSCP luôn được cấu hình ở phần biên của mạng, ở đó lưu lượng được đánh
dấu và phân lớp.
RSVP được áp dụng cho các ứng dụng trong đó băng thông và trễ quan hệ
đảm bảo với nhau là cần thiết. Các ứng dụng là VoIP, netmeeting, MPLS
traffic Engineering,....
44
Phân loại gói là cơ sở để từ đó ta xây dụng các ứng dụng kỹ thuật QoS
khác nhau. Tuy nhiên không phải lúc nào các gói dữ liệu đến cũng có kích
thước phù hợp, vì vậy trước khi phân loại, các gói có kích thước lớn sẽ được
phân mảnh thành các gói nhỏ hơn có kích thước phù hợp. Song song với việc
phân loại và phân mảnh gói, cơ chế nén gói dữ liệu cũng được đề cập đến
trong chương này. Có thể nói phân loại góp giúp chúng ta có thể áp dụng các
kỹ thuật QoS, thì phân mảnh và nén dữ liệu rất hữu ích trong việc giảm trễ
chuyển tiếp và xử lý, trễ mạng cũng như các hiện tượng trượt phát sinh bởi
trễ.
Như đã nói ở trên việc gán thứ tự ưu tiên cho các gói thông qua tổ hợp 3
bits ToS trong địa chỉ mào đầu IP để tạo ra các lớp dịch vụ khác nhau. Về lý
thuyết với 3 bits ToS có thể phân chia thành 8 loại CoS khác nhau. Tuy nhiên
chỉ phân 6 lớp dịch vụ tương ứng với 6 giá trị ToS, 2 giá trị còn lại được dành
cho sử dụng trong thông tin nội bộ mạng.
Giá trị IP Precedence tương ứng với 3 bits ToS được quy định trong bảng 3-1
IP precedence value IP precedence name
0 Routine
1 Priority
2 Immediate
3 Flash
4 Flash-override
5 Critical
6 Internet
7 Network
Bảng 3-1 Giá trị IP Precedence tương ứng với 3 bits ToS
Trong chế độ mặc định các phần mềm thường không thiết lập các gía trị
của IP Precedence. Như vậy để có thể sử dụng các phần tử mạng cần thực
hiện gán giá trị IP Precedence trong trường tiêu đề (header).
Chú ý rằng các gói đến từ các mạng khác có thể đã được gán giá trị ưu tiên
do đó nên thực hiện thiết lập lại giá trị ưu tiên cho tất cả các gói được gửi tới.
Bằng cách điều khiển giá trị IP Precedence chúng ta có thể ngăn chặn các
người dùng không mong muốn hay lựa chọn các dịch vụ thích hợp hơn.
PBR (Policy-based routing) cung cấp cơ chế định tuyến linh hoạt cho việc
định tuyến các gói tin dựa trên chính sách định tuyến cho các luồng lưu
lượng. PBR làm tăng khả năng điều khiển định tuyến bằng cách mở rộng hay
bổ sung các đặc tính của các giao thức định tuyến. Bên cạnh đó PBR cho
phép thiết lập các giá trị IP Precedence, ưu tiên cho loại dữ liệu nào đó trên
tuyến dành riêng.
3.1.2.1 Đặc điểm của PBR
Chúng ta có thể sử dụng PBR như một phương án định tuyến. Ví dụ như
chúng ta có thể cho phép hay từ chối các luồng dữ liệu dựa trên cơ sở nhận
dạng một dạng đặc biệt của điểm kết cuối, một giao thức ứng dụng hay dựa
trên cơ sở kích cỡ của các gói tin.
Nói chung PBR cung cấp các đặc tính sau:
Phân loại lưu lượng dựa trên cơ sở mở rộng danh sách truy nhập (ACL
– Access List), sau đó các ACL thiết lập tiêu chuẩn thích hợp.
Thiết lập giá trị IP Precedence, trên cơ sở đó thành lập các lớp dịch vụ
khác nhau trên mạng.
Định tuyến các gói tin tới tuyến xác định.
Định tuyến chính sách có thể dựa trên địa chỉ IP, các cổng (port), các giao
thức hay kích cỡ của các gói tin. Đối với các bài toán định tuyến đơn giản ta
có thể chỉ cần sử dụng một trong các đặc tính ở trên tuy nhiên với các phương
án định tuyến phức tạp chúng ta cũng có thể sử dụng tất cả các đặc tính đó.
3.1.2.2 Nguyên tắc hoạt động
Mỗi một PBR được xây dựng trên cơ sở thiết lập bảng định tuyến, các gói
tin được chuyển đến trên một giao diện mà có sử dụng cơ chế PBR sẽ được
chuyển tới bảng định tuyến từ đó xác định cơ chế chuyển tiếp đến đầu ra.
Bảng định tuyến được xây dựng từ các trạng thái, các trạng thái này có thể
48
được xem như quyết định chấp nhận hay từ chối. Cụ thể chúng được quy định
như sau:
Nếu các gói tin không phù hợp với bất cứ kỳ trạng thái nào của bảng
định tuyến thì tất cả các nguyên tắc định tuyến sẽ được áp dụng.
Nếu trạng thái từ chối thì các gói tin sẽ được gửi trở lại và cơ chế định
tuyến dựa trên cơ sở trạm đích (destination-based routting) sẽ được áp
dụng.
các yêu cầu về trễ của lưu lượng có độ nhạy trễ. Các gói tin có độ nhạy
trễ thấp sẽ không được đóng gói đa liên kết nhưng được chèn giữa các
bản tin được phân mảnh.
MLP (Multiling PPP) cho phép các gói phân mảnh được gửi tới cùng
một trạm đầu xa tại cùng thời điểm thông qua nhiều liên kết điểm điểm.
Tải trọng có thể được tính toán ở đầu vào, đầu ra hoặc cả hai để xác
định lưu lượng giữa các trạm xác định. MLP có thể phân phối băng
thông theo yêu cầu để giảm thiểu trễ truyền dẫn trên các liên kết WAN.
3.2.2 Nguyên lý hoạt động
Nguyên lý hoạt động của LFI được mô tả trong hình 3.2
lại, LFI bổ sung các tiêu đề đa liên kết vào các gói phân mảnh và sắp xếp
chúng vào hàng đợi để gửi đi.
Quá trình thực hiện thuật toán nén được minh họa trong hình 3.3
Hàng đợi
Bộ chuyển tiếp Thuật toán nén
Đầu ra
FH IP FH cIP
Hình 3.3 Minh họa quá trình thực hiện thuật toán nén
STAC, MPPC và Predictor là những thuật toán thường được sử dụng thực
hiện nén tải tin tại lớp 2 trên các liên kết point – to – point giữa các Router.
STAC và MPPC đòi hỏi tần suất hoạt động của CPU cao nhưng có hiệu
quả nén lớn (trong đó Stacker cho phép khả năng điều chỉnh). Tuy nhiên hai
giải thuật này thường phát sinh trễ nên hay được sử dụng trên các liên kết tốc
độ thấp.
Predictor được xem như là khá đơn giản nó có thể triển khai trên các liên
kết tốc độ cao, trễ và tần suất sử dụng CPU thấp tuy nhiên đòi hỏi bộ nhớ lớn
và hiệu quả nén là thấp hơn so với 2 thủ tục kia.
Phạm vi sử dụng của các giải thuật được mô tả theo bảng 3-2
Giải thuật
Công nghệ Ghi chú
STAC Predictor MPPC
PPP a∗ a a ∗ Cũng được cung cấp bởi
Frame Relay a∗ r r các Module nén phần cứng.
HDLC a r r
LAPB a a r
X.25 a r r
Bảng 3-2 Phạm vi sử dụng của các giải thuật nén
52
tải các dữ liệu thời gian thực RTP. Nó cung cấp các chức năng mạng truyền
dẫn đầu cuối đến đầu cuối phục vụ các ứng dụng như thoại, video hoặc dữ
liệu mô phỏng thông qua dịch vụ mạng đơn nhóm (unicast) hay đa nhóm
(multicast).
RTP bao gồm 2 phần tải tin và tiêu đề (header). Phần tải tin của RTP là
một giao thức nhỏ mà cung cấp khôi phục lại, phát hiện lỗi và nhận dạng nội
dung.
Phần tiêu đề của RTP là tương đối lớn, bao gồm IP header (IPH), User
Datagram Protocol (UDP) header, tạo nên IP/UDP/RTP header.
Để giảm thiểu lãng phí băng thông không cần thiết, nén RTP header là một
biến pháp hữu hiệu để tiết kiệm tài nguyên.
cRTP nén IP/UDP/RTP header trong gói tin RTP từ 40 bytes xuống còn
xấp xỉ 2 - 5 byte. việc giải nén có thể khôi phục lại trường tiêu đề mà không
gây mất mát thông tin. Cơ chế nén RTP được mô tả như hình vẽ 3.6
Kích thước
12 8 12
Hiệu quả Tải tin gói giảm *
RTP UDP IPH IP Data VOIP 20 bytes ~ 240%
5 SQL 256 bytes ~ 13%
IP Data FPT 1500 bytes ~ 2.3%
cRTP là cơ chế nén hop-by-hop tương tự như nén tiêu đề TCP. cRTP làm
giảm chiều dài của tiêu đề do đó nó làm giảm được độ trễ. cRTP đặc biệt hữu
ích đói với tải tin có cỡ gói nhỏ ví như thoại VoIP có cỡ gói 20 bytes sử dụng
nén cRTP có thể làm giảm cỡ gói xấp xỉ 240%. Nó cũng rất hữu hiệu trong
các ứng dụng truyền tải cả lưu thoại và backbone đa hướng trên các liên kết
tốc độ thấp.
Không nên sử dụng cRTP trên bất cứ liên kết tốc độ cao nào (lớn hơn E1).
Chỉ nên sử dụng cRTP trên giao tiếp WAN tại đó băng thông xác định và lưu
lượng chủ yếu là dữ liệu RTP.
Trên các giao tiếp serial sử dụng đóng gói Frame Relay, HDLC hay PPP
đều hỗ trợ tính năng với cRTP. Bên cạnh đó cRTP cũng được hỗ trợ trên các
giao tiếp ISDN.
Kết luận: Phương thức phân loại, phân mảnh và nén gói dữ liệu giúp giảm
kích thước các gói tin và sắp xếp chúng theo thứ tự ưu tiên khi qua mạng.
Điều này là hết sức quan trọng, vì các gói tin sẽ trở nên linh hoạt hơn rất
nhiều khi tìm đường qua mạng, làm giảm trễ chuyển tiếp và xử lý, trong
trường hợp xảy ra tắc nghẽn nó vẫn đảm bảo cho các gói có quyền ưu tiên cao
hơn (như thoại) và không bị các gói có kích thước lớn làm tràn bộ đệm. Tuy
nhiên các phương pháp này lại làm phát sinh thêm trễ xử lý của CPU.
56
Nói đến các kỹ thuật QoS người ta người nhắc nhiều đến cơ chế hàng đợi.
Ở trạng thái bình thường khi không có tắc nghẽn xảy ra các gói tin sẽ được
gửi đi ngay khi chúng được chuyển tới (đây còn gọi là quá trình bypass hệ
thống hàng đợi phần mềm). Trong trường hợp xảy ra tắc nghẽn trên một giao
diện nào đó, nếu như không áp dụng các kỹ thuật điều khiển tắc nghẽn, các
gói tin đến nhanh hơn có thể được gửi đi trước kết hợp với thời gian tắc nghẽn
kéo dài có thể phát sinh rớt gói, ảnh hưởng đến chất lượng dịch vụ. Trong một
số trường hợp hiện tượng tắc nghẽn kéo dài, khả năng xử lý của CPU bị quá
tải rất dễ dẫn đến hiện tượng “treo” mạng, hoặc các gói bị loại bỏ nhiều gây
ảnh hưởng đến chất lượng dịch vụ, do đó ngoài các cơ chế điều khiển tắc
nghẽn, các cơ chế tránh tắc nghẽn cũng cần được áp dụng trong các mạng hội
tụ. Tuy nhiên khi các dụng các kỹ thuật QoS này cũng làm phát sinh trễ mạng.
Trong chương này tác giả cũng giới thiệu một số lệnh cấu hình trên các thiết
bị của hãng Cisco để minh họa cho các cơ chế hàng đợi.
4.1 Tránh tắc nghẽn
Tránh tắc nghẽn là kỹ thuật giám sát tải trọng lưu lượng mạng nhằm tiên
đoán trước và ngăn chặn nghẽn mạch trước khi nó xảy ra trong mạng có “hiệu
ứng nút cổ trai” (bottlenect) thông qua biện pháp làm rớt gói. Có các phương
pháp tránh tắc nghẽn như sau:
Phương pháp bỏ đuôi (Tail drop).
Phương pháp loại bỏ ngẫu nhiên (RED).
Phương pháp loại bỏ cân bằng ngẫu nhiên (WRED - Weighted Random
Early Detection)
Tốc độ truy nhập cam kết.
57
Trong mạng NGN hay mạng ứng dụng trên nền IP (Internet Protocol),
việc loại bỏ gói là một cơ chế quan trọng của việc thông báo tắc nghẽn đến
các trạm (node) đầu cuối. Giải pháp về vấn đề đầy hàng đợi cho các router sẽ
làm cho các node đầu cuối đáp ứng được tắc nghẽn trước khi tràn hàng đợi.
Việc giải quyết trước này được gọi là quản lý hàng đợi động.
4.1.2 Phương pháp loại bỏ ngẫu nhiên (RED)
RED (Random Early Detection) được tìm ra bởi Sally Floyd và Van
Jacobson vào đầu những năm 90 của thập kỷ 20. RED là một phương thức để
báo hiệu tắc nghẽn. RED điều khiển cỡ hàng đợi trung bình bằng cách báo
hiệu cho 1 trạm giảm tốc độ hay ngừng truyền dữ liệu thông qua việc loại bỏ
một phần lưu lượng của trạm đó.
Khả năng loại bỏ gói trong cơ chế RED có thể được mô tả ở hình 4.1
Drop probability
Pmax
avg
minth maxth
đợi và nó tăng cho tới khi đạt tới ngưỡng tối đa (max). Khi vượt quá ngưỡng
này tất cả các gói sẽ bị rớt.
Giá trị nghưỡng tối thiểu nên gán đủ lớn để tận dụng tối đa liên kết. Khi
giá trị này đặt quá nhỏ có thể phát sinh rớt gói không cần thiết.
4.1.3 Phương pháp loại bỏ cân bằng ngẫu nhiên (WRED)
Thuật toán RED không phải lúc nào cũng đảm bảo cho các luồng chia sẻ
băng thông một cách cân đối nhau. Trong thực tế, RED không ưu tiên đối với
các luồng TCP tốc độ thấp. Điều này là bởi vì RED bỏ ngẫu nhiên các gói khi
ngưỡng bị vượt quá. WRED (Weighted Random Early Detection) là phương
pháp tránh tắc nghẽn dựa trên việc tổ hợp các thuộc tính của thuật toán RED
và ưu tiên IP. WRED có thể lựa chọn loại bỏ lưu lượng có mức ưu tiên thấp
khi trên giao diện bắt đầu xẩy ra quá trình tắc nghẽn và cung cấp các đặc tính
tiêu chuẩn khác nhau cho các lớp dịch vụ khác nhau.
Với các giao diện được cấu hình sử dụng đặc tính giao thức dành sẵn tài
nguyên (RSVP), khi quá trình nghẽn xẩy ra WRED ưu tiên các luồng RSVP
hơn là các luồng dữ liệu khác trong quá trình loại bỏ gói để tránh tắc nghẽn.
Cũng giống như RED trong cơ chế của mình WRED loại bỏ gói một cách
ngẫu nhiên, từ đó thông báo tới trạm gốc giảm tốc độ truyền dẫn. Nếu trạm
gốc sử dụng TCP, nó sẽ làm giảm tốc độ của chính các gói đó cho tới khi tất
cả các gói có thể đến được đích.
WRED làm rớt gói dựa trên giá trị ưu tiên IP được gán cho mỗi gói. Các
gói có giá trị ưu tiên thấp hơn có khả năng bị làm rớt cao.
WRED khắc phục các điểm yếu của cơ chế Tail drop khi đầu ra giao diện
có nguy cơ bị tắc nghẽn nó sẽ thực hiện lựa chọn làm mất một số gói thay vì
chờ cho tới khi các hàng đợi được làm đầy mới thực hiện quá trình cắt gói.
WRED tránh làm mất một lượng lớn các gói trong tại một thời điểm từ đó nó
cho phép các đường truyền được sử dụng hữu ích tại mọi thời điểm.
60
WRED tránh được các vấn đề về sự đồng bộ xẩy ra khi sử dụng Tail drop
để tránh tắc nghẽn. Sự đồng bộ toàn bộ là quá trình xẩy ra khi nhiều trạm TCP
giảm tốc độ truyền dẫn để ngăn cản quá trình mất gói và cùng tăng tốc độ
truyền dẫn trở lại khi khả năng tắc nghẽn được giảm đi.
Chú ý rằng WRED chỉ hữu ích khi phần lớn lưu lượng là dữ liệu TCP/IP,
khi đó các gói bị rớt sẽ phát sinh thông báo nghẽn mạch để từ đó trạm phát
giảm tốc độ truyền dẫn của mình. Đối với các gói tin được đóng gói theo một
giao thức khác có thể trạm gửi không phát hiện quá trình mất gói xẩy ra, như
vậy có thể không ngăn chặn được quá trình nghẽn mạch.
Với các dữ liệu mà không thuộc dạng gói IP, WRED coi đó như là dữ liệu
có mức ưu tiên thấp nhất, Precedence 0, bởi vậy khả năng bị mất gói của nó là
cao hơn các dữ liệu IP.
Cơ chế làm việc của WRED được minh trong hình 4.2
Hàng đợi
Các gói tin đến Tx Các gói tin ra
Phân Kiểm tra
lớp loại bỏ
Trong đó:
n: là hệ số trọng số và có thể cấu hình được.
average: Cỡ hàng đợi trung bình
old_average: Cỡ hàng đợi trung bình trước đó
current_queue_size: Kích thước hàng đợi hiện tại
Chúng ta nên chọn hệ số trọng số cho phù hợp nếu n quá lớn WRED sẽ
không tác động để chống tắc nghẽn, các gói tin sẽ được gửi hoặc bị rớt như
thể là không được cấu hình WRED, tuy nhiên việc lựa chọn n quá nhỏ WRED
sẽ phản ứng mãnh liệu với sự bùng nổ lưu lượng tạm thời và có thể làm mất
gói trong khi không thực sự cần thiết.
4.1.4 Tốc độ truy nhập cam kết (CAR)
CAR là một cơ cấu giám sát tốc độ cho phép người quản trị mạng đưa ra
các biện pháp xử lý để kiểm soát lưu lượng. Do CAR là một cơ chế kiểm soát
chứ không phải là cơ chế hàng đợi vì vậy nó không có bộ đệm (buffer) và nó
cũng không làm phát sinh trễ có thể cho phép truyền tốc độ cao.
4.1.4.1 Cơ chế hoạt động
Khi dữ liệu được gửi đến một giao tiếp, CAR thực hiện việc kiểm tra lưu
lượng sau đó so sánh tốc độ của lưu lượng với thông số thùng token “token
bucket” và đưa ra hành động tương ứng dựa trên cơ sở kết quả so sánh đó. Ví
dụ CAR sẽ làm rớt gói, sửa lại quyền ưu tiên IP hay cài khởi tạo lại các bit
ToS. Người quản trị mạng cũng có thể cấu hình CAR để truyền gói, loại bỏ
gói hoặc thiết lập quyền ưu tiên (xem hình 4.3).
62
Bộ đo
(Meter)
Bộ phân lớp Bộ đánh dấu Bộ rớt gói
Hướng vào (Classifier) (Marker) (Dropper)
(Inbound)
Chuyển tiếp gói
Hướng ra (Forwarding)
(Outbound)
Bộ đo
(Meter)
Bộ phân lớp Bộ đánh dấu Bộ rớt gói Hàng đợi
(Classifier) (Marker) (Dropper) (Queuing)
Lưu đồ thuật toán CAR được minh họa họa ở hình 4.4
Rớt
Truyền
Lớp 1? CAR
Tiếp
Rớt
.
. Rớt
.
Truyền
Lớp n? CAR
Đặt Precedence hoặc giá trị DSCP và phát đi- IP Precedence ToS hoặc
bit DSCP trong header của gói được viết lại. Sau đó gói được phát đi.
Hành động này có thể đánh dấu hoặc tái đánh dấu các gói.
Đặt bit MPLS experimental và truyền- bit experimental MPLS có thể
được thiết lập. Thường sử dụng các tham số QoS báo hiệu trong MPLS.
Đặt QoS group và phát-QoS group có thể được đặt. Nó chỉ được sử
dụng trong router nội tại (local router). QoS group có thể được dùng
trong cơ chế QoS cuối cùng và thực hiện trên cùng một router, như là
CB-WFQ.
4.1.4.3 Mô hình chiếc thùng và thẻ bài
Thưc hiện cơ chế đo lưu lượng bằng mô hình chiếc thùng và thẻ bài được
chỉ ra trong hình 4.5
Số thẻ được thêm vào cứ sau
mỗi khoảng thời gian Tc [ms]
Tc = Bc / CIR
Bc + Be
gói này không được nhận thẻ bài vì trong bucket chỉ còn có 200 thẻ cho gói
tiếp theo, nên gói này bị drop. Thực hiện token bucket dựa vào 3 tham số
CIR, Bc, Be.
CIR (Committed Information Rate) là tốc độ thông tin cam kết và cũng
được gọi là tốc độ cam kết hoặc tốc độ được định dạng.
Bc được biết đến như là khả năng bùng nổ nằm trong giới hạn,
Be là khả năng bùng nổ quá giới hạn.
Tc là chu kỳ mà số thẻ được thêm vào.
Sửa dạng lưu lượng cũng có thể sử dụng để giới hạn tốc độ truyền dẫn.
Người sử dụng có thể giới hạn tốc độ truyền dẫn theo một trong các đặc
tính sau:
• Tốc độ được thiết lập.
• Tốc độ của trạm gửi dựa trên mức tắc nghẽn
Sửa dạng lưu lượng làm “nhẵn” lưu lượng bằng cách lưu giữ lưu lượng
có tốc độ lớn hơn tốc độ được thiết lập trong một hàng đợi.
4.1.5.2 Cơ chế hoạt động của GTS
GTS bao gồm các khối chức năng (xem hình 4.6) như sau:
Bộ phân lớp lưu lượng: Phân loại các lớp lưu lượng khác nhau để có
thể có các chính sách được áp dụng khác nhau.
Bộ đo (Metering): Dùng cơ chế token-bucket để phân biệt lưu lượng
thỏa mãn và lưu lượng quá ngưỡng.
Định dạng: Dùng buffer để trễ những lưu lượng vượt quá tốc độ, và sửa
dạng chúng tới một tốc độ giới hạn đã được cấu hình. GTS được thực
hiện như cơ chế hàng đợi, trong đó có các hàng đợi trễ WFQ riêng biệt
được thực hiện cho mỗi lớp lưu lượng. Mỗi hàng đợi trễ các gói cho tới
khi chúng thỏa mãn tốc độ giới hạn, và cũng sắp xếp chúng theo thuật
toán WFQ. Sau đó lưu lượng được thỏa mãn sẽ được gửi tới giao diện
vật lý.
67
Quản lý nghẽn là cơ chế các phần tử mạng xử lý các luồng lưu lượng chuyển
đến nhằm hạn chế hay loại trừ các khả năng tắc nghẽn có thể xẩy ra. Các đặc
tính quản lý tắc nghẽn của QoS cho phép các cơ chế điều khiển tắc nghẽn
thông qua việc xác lập thứ tự các gói tin sẽ được chuyển tới đầu ra dựa trên cơ
sở thứ tự ưu tiên tương ứng. Trong chương này sẽ phân tích việc ứng dụng
công nghệ lập lịch và hàng đợi trong quản lý tắc nghẽn.
Trong kỹ thuật QoS có 4 loại cơ chế hàng đợi được sử dụng, mỗi một cơ
chế có các nguyên tắc sắp xếp hàng đợi và xử lý tắc nghẽn khác nhau:
FIFO (First In First Out).
WFQ (Weighted Fair Queuing).
CQ (Custom Queuing).
PQ (Priority Queuing).
FIFO mặc định được thiết lập trên các giao diện tốc độ lớn hơn 2M.
WFQ là mặc định được thiết lập trên các giao diện tốc độ nhỏ hơn 2M.
Lệnh này dùng để không cho phép WFQ và khởi tạo FIFO.
Hàng đợi FIFO cho phép tối đa 40 gói được lưu lại trong hàng đợi đầu
ra.
Câu lệnh này có thể được dùng để tăng hoặc giảm số lượng gói tối đa
trong bộ đệm gói.
Một giá trị lớn có thể được đặt để hỗ trợ sự bùng nổ dài hơn (drop ít
hơn, chiếm nhiều bộ đệm được dùng).
Giá trị nhỏ có thể được thiết lập để tránh sự bùng nổ (drop nhiều hơn).
71
Hình 4.10 Một trường hợp xấu nhất xảy ra đối với hàng đợi CQ
Theo ví dụ trên hình 4.10 tổng số bytes hai gói dữ liệu là 2999 byte mà
byte-count là 3000. Do đó router sẽ gửi tiếp các byte ở gói tiếp theo, nghĩa là
tại hàng đợi đó router sẽ gửi 4499 byte, sau đó mới phục vụ hàng đợi tiếp
theo. Đây cũng là một trong những nhược điểm của CQ.
Vậy ta phải xác định byte-count là bao nhiêu? Nếu tỷ số byte-count/MTU
quá nhỏ CQ sẽ không phân phối băng thông chính xác. Nếu tỷ số này quá lớn
CQ sẽ là nguyên nhân của trễ. Sau đây chúng ta phân tích một ví dụ về tính
toán băng thông và độ trễ tối đa.
Ta xét một hệ thống gồm 3 hàng đợi CQ như hình vẽ 4.11 trong đó:
Hàng đợi thứ nhất dùng byte-count là 4500.
Hàng đợi thứ 2 dùng byte-count là 3000.
Hàng đợi thứ 3 dùng byte-count là 1500.
Hàng đợi 1
Round Robin
5999 4500
Bộ lập lịch
Hình 4.11 Minh họa tính toán băng thông và độ trễ tối đa
74
Việc tính toán đảm bảo băng thông và độ trễ tối đa (theo công thức 4.1).
Thời gian hoàn thành một vòng phụ thuộc vào băng thông của giao diện, kích
thước MTU, và tổng số của tất cả byte-count hàng đợi.
Phép tính thứ nhất và thứ hai chỉ ra rằng hàng đợi đầu tiên sẽ nhận băng
thông xấp xỉ là 50% băng thông và thời gian trễ là 562ms. Phép tính thứ ba
chỉ ra rằng round-robin delay là 937ms cho hàng đợi thứ nhất khi tất cả các
lớp nghẽn và gửi số lượng byte tối đa (byte-count + MTU-1) trong một vòng.
Tính toán tương tự đối với hàng đợi thứ 2 ta có: Tỉ lệ chiếm băng thông
xấp xỉ là 33%, thời gian trễ là 750ms, thời gian trễ trong trường hợp xấu nhất
xấp xỉ là 1125ms.
Đối với hàng đợi thứ 3 ta có: Tỉ lệ chiếm băng thông xấp xỉ là 17%, thời
gian trễ xấp xỉ là 936ms, thời gian trễ trong trường hợp xấu nhất xấp xỉ là
1312ms.
Căn cứ vào số liệu được tính toán, ta thấy các tham số được cấu hình trong
hàng đợi thứ 1 là tối ưu hơn cả.
75
Phân lớp các gói dựa trên giao thức. Các gói không phân lớp sẽ được sắp
xếp vào hàng đợi mặc định
Phân lớp các gói thành lớp dựa trên giao diện đầu vào.
Xác định số gói tối đa trong một hàng đợi. Mặc định là 20.
76
Đặt hàng đợi thấp nhất: Q1 có ưu tiên cao nhất, hàng đợi mặc định Q0
luôn luôn được coi là “pre-emptive” chứa các thông tin về hệ thống và các
bản tin link-level.
Hình 4.12 minh họa một ví dụ cấu hình CQ trên router của một chi nhánh
văn phòng:
E0
Mạng lõi
(WAN)
Q3 được dùng cho tất cả các gói IP mà không phải là một trong 2 hàng
đợi đầu tiên.
Q4 được dùng cho tất cả các lưu lượng khác.
Hàng đợi
Các gói tin đến High Tx Các gói tin ra
Phân
lớp
Medium
Normal
Low
Theo hình vẽ 4.13, chiều dài tối đa của hàng đợi được định nghĩa thông qua
chiều dài giới hạn, khi hàng đợi dài quá chiều dài giới hạn thì tất cả các gói
nằm ngoài giới hạn hàng đợi đó sẽ bị rớt.
Việc phân loại các gói có thể dựa trên các đặc tính sau:
Kiểu giao thức.
Giao diện đầu vào.
Các thông tin của mạng luôn luôn được gán thứ tự ưu tiên cao nhất, tất cả
các thông tin về quản lý lưu lượng khác cũng phải được cấu hình. Các gói
không được phân loại bằng cơ chế danh sách ưu tiên sẽ được sắp xếp vào
hàng đợi thông thường.
4.2.3.2 Các ưu nhược điểm của hàng đợi ưu tiên
Ưu điểm:
Cho trễ truyền thấp đối với các gói có ưu tiên cao.
Hỗ trợ hầu hết trên các thiết bị.
Hỗ trợ trong hầu hết các phiên bản phần mềm (Cisco IOS 10.0 trở lên).
Nhược điểm:
Cấu hình phân lớp bằng tay trên các hop.
Sự thiếu hụt của mức ưu tiên thấp nếu mức ưu tiên cao bị nghẽn.
4.2.3.3 Cấu hình thực thi hàng đợi ưu tiên
Việc thiết lập cấu hình hàng đợi PQ được thực hiện theo 4 bước chính sau:
Bước 1: Cấu hình phân lớp.
Bước 2: Lựa chọn một hàng đợi.
Bước 3: Đặt kích thước tối đa hàng đợi.
Bước 4: Áp dụng danh sách ưu tiên trên lưu lượng đầu ra trên một hoặc
nhiều giao diện.
Bước 1: cấu hình phân lớp:
Phân lớp các gói vào PQ dựa vào giao thức
79
Dùng lệnh priority-list cấu hình phân lớp dựa vào các giao thức lớp 3.
Phân lớp dựa vào giao diện đầu vào.
Bước 2 + 3: Xác định kích thước tối đa của từng hàng đợi ưu tiên.
PQ dùng các thông số kích thước hàng đợi mặc định bao gồm:
High queue mặc định là 20.
Medium queue mặc định là 40.
Normal queue mặc định là 60.
Low queue mặc định là 80.
Bước 4: Áp dụng danh sách ưu tiên trên lưu lượng đầu ra trên một hoặc
nhiều giao diện:
E0
Mạng lõi
(WAN)
E1 Interface serial0
Một chi nhánh Priority - group 1
văn phòng
priority-list 1 protocol ip high list 101
priority-list 1 interface ethernet 0 medium
priority-list 1 default normal
priority-list 1 queue-limit 20 40 60 80
1 + 2 * 18 + 3 + 4 + 5 + 6 + 7 + 8 = 70
Lưu lượng ưu tiên mức 0 sẽ là 1/70, mức 1 sẽ là 2/70 và mức 7 sẽ là 8/70.
Có 2 kiểu luồng dữ liệu là:
Luồng dữ liệu cỡ nhỏ (Low-bandwith).
Luồng dữ liệu cỡ lớn (High-bandwith).
Các luồng lưu lượng cỡ nhỏ (như Telnet, dịch vụ ưu đãi) có mức ưu tiên
hóa cao hơn và được gửi đi ngay khi băng thông khả dụng, các luồng dữ liệu
cỡ lớn (như FTP) chia sẻ khả năng còn lại trên những phần băng thông tương
ứng hay một phần nào đó.
Trong các luồng dữ liệu lớn khi vượt quá ngưỡng cho phép các bản tin mới
đến sẽ bị loại bỏ. Tuy nhiên trong các luồng dữ liệu cỡ nhỏ nhờ có các gói
thông điệp “Conversation” quản lý bản tin, các bản tin mới đến vẫn tiếp tục
được gắn vào hàng đợi dữ liệu.
Ngoài ra WFQ còn có khả năng quản lý các luồng dữ liệu kép, ví dụ như
các thông tin thoại và video.
4.2.4.3 Hàng đợi cân bằng trọng số phân lớp lưu lượng (CBWFQ)
CBWFQ (Class – based Weighted Fair Queuing) mở rộng chức năng của
WFQ cung cấp phương thức định nghĩa các lớp lưu lượng dựa trên các tiêu
chuẩn phù hợp bao gồm loại giao thức, các danh sách điều khiển truy nhập và
các giao tiếp đầu vào (xem hình 4.16). Các gói tin thỏa mãn các đặc tính cho
một lớp cấu thành lưu lượng của chính lớp đó. Nghĩa là trọng số được dùng
cho các lớp chính là trọng số của các gói mà phù hợp với tiêu chuẩn của lớp
đó. Sau khi đã được gán trọng số, các gói sẽ được sắp xếp vào cuối hàng đợi.
CBWFQ sử dụng chính sách phân lớp được thiết lập để xử lý hàng đợi lớp đó
được phục vụ công bằng.
85
Với các lớp đã được định nghĩa người sử dụng cũng có thể gán các đặc
tính bao gồm băng thông, trọng số và giới hạn gói lớn nhất cho một lớp. Từ
đó có thể tính được băng thông khả dụng trên một giao diện.
Hình 4.16 Sự phân lớp WFQ dựa trên tiêu đề gói tin
Hàm băm được dùng để gán hàng đợi vào luồng. WFQ mặc đinh dùng 256
hàng đợi. Số lượng hàng đợi có thể được cấu hình trong dải từ 16 đến 4096.
Nếu một số lượng lớn luồng cùng diễn ra điều đó cũng giống như 2 luồng
cùng vào một hàng đợi giống nhau.
Chú ý thông thường việc phân phối băng thông trên một giao diện không
thể vượt quá 75% băng thông của giao diện bởi vì 25% còn lại được sử dụng
cho mục đích truyền tải các từ tiêu đề bao gôm tiêu đề lớp 2, thông tin định
tuyến lưu lượng, và các dịch vụ đặc biệt. Tuy nhiên trong từng ứng dụng
truyền tải ta có thể cấu hình vượt quá 75% băng thông cho tổng cộng cho tổng
lưu lượng của các lớp hay các luồng nhưng vẫn phải đảm bảo phần băng
thông khả dụng cho mục địch truyền tải các mào đầu nói trên.
4.2.4.4 Hàng đợi cân bằng trọng số tốc độ cao (DWFQ)
DWFQ là một dạng đặc biệt của WFQ tốc độ cao chạy trên nền bộ xử lý
giao diện đa năng (VIP - Versatile Interface Processor). Đối với DWFQ nó
86
lưu giữ số gói trong mỗi hàng đợi và tổng số các gói trong tất cả các hàng đợi.
Khi tổng cộng các gói là nhỏ hơn giới hạn tổng cộng, thì các hàng đợi có thể
làm đệm tạm thời mà không quan tâm đến giới hạn hàng đợi riêng lẻ. Nhưng
nếu như nó vượt qua giới hạn tổng cộng cơ chế giới hạn hàng đợi riêng lẻ sẽ
được kích hoạt khi đó tất cả các gói mới đến mà vượt quá giới hạn hàng đợi
sẽ bị loại bỏ. Tuy nhiên các gói đã được sắp xếp trong hàng đợi vẫn không bị
loại bỏ ngay cả khi hàng đợi đã vượt qua giới hạn cho phép.
Có 2 loại DWFQ:
Flow-based DWFQ
Class-based DWFQ
Với Flow-based DWFQ các gói được phân loại bằng luồng. Các gói có
cùng địa chỉ IP nguồn, địa chỉ IP đích, cổng nguồn TCP hoặc UDP, cổng đích
TCP hoặc UDP, loại giao thức và trường ToS (Type of Service) được sắp xếp
cùng một luồng (tất cả các gói non-IP được xử lý như luồng số 0) .
Mỗi 1 luồng tương ứng riêng rẽ một hàng đợi đầu ra. Khi các gói được gán
tới một luồng nó sẽ được đặt vào hàng đợi tương ứng với luồng đó. Trong
suốt quá trình tắc nghẽn, DWFQ phân phối băng thông như nhau cho mỗi
hàng đợi đang được gửi.
Với Class-based DWFQ các gói được gán tới các hàng đợi khác nhau dựa
trên nhóm QoS của chúng hoặc giá trị ưu tiên IP trong trường ToS. Nhóm
QoS cho phép người sử dụng thực hiện theo chiến lược QoS của mình. Một
nhóm QoS là một sự phân lớp nội bộ của các gói, được router dùng để xác
định cách thức xử lý các gói tin trên những đặc tính QoS xác định. Có thể sử
dụng CAR (Commited Access Rate) hoặc sự truyền bá chính sách QoS thông
qua BGP (Border Gateway Protocol) để gán các gói tin vào các nhóm QoS
khác nhau. Tuy nhiên nếu muốn phân loại các gói chỉ dựa trên 3 bits phân
quyền IP thì có thể sử dụng DWFQ dựa trên trường ToS. Các lớp được định
87
rõ một trọng số. Trong suốt quá trình tắc nghẽn, mỗi nhóm được phân phối
phần trăm băng thông tương ứng với trọng số của lớp đó. Ví dụ nếu 1 lớp
được gán trọng số là 50 thì trong suốt quá trình tắc nghẽn các gói tin từ lớp
này được phân phối ít nhất 50 phần trăm băng thông khả dụng. Trong trường
hợp các giao diện không có tắc nghẽn các hàng đợi có thể được gửi đi thông
qua bất cứ phần băng thông khả dụng nào.
4.2.4.5 Các ưu nhược điểm của hàng đợi WFQ
Ưu điểm:
Cấu hình đơn giản (không cần cấu hình sự phân lớp).
Đảm bảo thông lượng cho tất cả các luồng.
Khắc phục được hiện tượng “hiệu ứng dây truyền” (chuỗi liên kết các
gói) trong cơ chế hàng đợi FIFO
Drop gói trên hầu hết các luồng.
Hỗ trợ hầu hết các thiết bị (platform).
Hỗ trợ hầu hết các phiên bản phần mềm (Cisco IOS 11.0 trở lên).
Nhược điểm:
Đa luồng có thể kết thúc ở trong một hàng đợi.
Không hỗ trợ cấu hình phân lớp.
Không cho phép đảm bảo băng thông cố định.
Thực thi giới hạn tùy thuộc vào độ phức tạp của phân lớp và cơ chế sắp
xếp.
4.2.4.6 Cấu hình thực thi WFQ
Khởi tạo WFQ trên các giao diện:
đợi dài nhất. Giá trị CDT có thể lên 4096, mặc định là 64. WFQ tự động khởi
tạo (enable) trên các giao diện tốc độ thấp hơn 2M.
Dynamic-queues: Số các hàng đợi động dùng cho kiến trúc best-effort: giá
trị là 16, 32, 64, 128, 256, 512, 1024, 2048, và 4096 giá trị mặc định là 256.
Reservable-queues: Số hàng đợi đặt trước dùng cho các hội thoại đặt trước
trong dải giá trị 0 đến 1000 (dùng cho giao diện cấu hình các đặc tính như là
RSVP mặc định là 0).
Cấu hình thêm các tham số HQO cho WFQ.
Xác định số gói lớn nhất có thể trong tất cả các hàng đợi đầu ra trên
giao diện ở mọi thời điểm, giá trị mặc định là 1000.
Trong tình huống đặc biệt WFQ có thể tiêu thụ nhiều bộ đệm (buffer).
Ví dụ DoS (Denial of Service) tấn công làm tràn (flood) trên giao diện
với một lượng gói lớn nó có thể điền đầy các hàng đợi ở cùng một tốc
độ.
Kết luận: Mặc dù WFQ có thể phục vụ tốt đối với các gói tin có kích thước
nhỏ hoặc IP precedence cao, nhưng nó không phải là công cụ chính xác để
đảm bảo một lượng băng thông cố định.
89
ATM
Router nhân Router nhân
PVC
Hà Nội TP HCM
Switch ATM
Đà Nẵng
Router nhân
Đà Nẵng
Hình 5.2 Kiến trúc cơ bản của một node MPLS chạy trên nền IP
Thành phần chuyển tiếp gói sử dụng cơ sở dữ liệu chuyển tiếp nhãn (được
duy trì bởi một chuyển mạch nhãn) để thực hiện chuyển tiếp gói dữ liệu theo
92
nhãn đọc được trong gói. Thành phần điều khiển thực hiện việc tạo và duy trì
thông tin chuyển tiếp nhãn (được nhắc đến như là sự liên kết) trong một nhóm
các chuyển mạch nhãn kết nối với nhau.
5.3.2 Một số khái niệm trong chuyển mạch nhãn
Các thuật ngữ này mô tả các thiết bị cấu thành kiến trúc MPLS và vai trò
của nó.
5.3.2.1 Lớp chuyển tiếp tương đương (FEC)
MPLS không thực hiện quyết định chuyển tiếp với gói dữ liệu lớp 3
(datagram) mà sử dụng một khái niệm mới gọi là FEC (Forwarding
Equivalence Class). Mỗi FEC được tạo bởi một nhóm các gói tin có chung
các yêu cầu về truyền tải hoặc dịch vụ (thoại, data, video, VPN...) hoặc cùng
yêu cầu về QoS. Hay nói một cách khác, MPLS thực hiện phân lớp dữ liệu để
chuyển tiếp qua mạng. Nói cách khác lớp chuyển tiếp tương đương (FEC) là
một nhóm các địa chỉ IP có cùng yêu cầu về chuyển tiếp dữ liệu, tất cả lưu
lượng về một đích nào đó hoặc tất cả lưu lượng với giá trị ưu tiên
(precedence) nào đó có thể tạo thành một FEC.
5.3.2.2 Router chuyển mạch nhãn (LSR)
Bất kỳ router hoặc switch thực hiện thủ tục phân phối nhãn và có thể
chuyển tiếp gói dựa vào các nhãn đều được gọi là router chuyển mạch nhãn –
Label Switch Router. Chức năng cơ bản của LSR là phân phối nhãn và liên
kết với các LSR khác bên trong mạng MPLS. Tồn tại một số kiểu LSR khác
nhau như sau:
Edge-LSR là một router thực hiện gán nhãn và gỡ nhãn tại biên của mạng
MPLS. Gán nhãn là hành động gán một nhãn hoặc một chuỗi các nhãn đến
gói tin tại hướng vào của miền MPLS. Gỡ nhãn thì ngược lại, nó xóa bỏ nhãn
từ gói tin tại hướng ra trước khi nó được chuyển tiếp đến router lân cận bên
ngoài mạng MPLS.
93
Bất kỳ LSR nào mà có router lân cận không có chức năng MPLS thì LSR
đó được xem như là Edge-LSR. Nếu LSR có giao tiếp đấu nối mạng MPLS
đến mạng ATM thì nó được gọi là ATM edge-LSR. Edge-LSR sử dụng bảng
chuyển tiếp IP truyền thống để gán nhãn và gỡ nhãn gói IP. Hình 5.3 minh
họa kiến trúc của Edge-LSR
(control plane) và chuyển tiếp gói dữ liệu theo cơ chế chuyển mạch ATM
truyền thống.
Bảng 5-1 tóm tắt các chức năng của các kiểu LSR khác nhau. Một thiết bị
mạng có thể thực hiện nhiều chức năng (Vd, có thể thực hiện Edge-LSR và
ATM edge-LSR cùng một lúc)
Kiểu LSR Chức năng
LSR Chuyển tiếp gói được gán nhãn
Edge-LSR Có thể nhận một gói IP, thực hiện tìm kiếm lớp 3 và
gắn nhãn trước khi chuyển tiếp gói vào miền LSR
Có thể nhận một gói được gán nhãn, gỡ bỏ nhãn, thực
hiện tìm kiếm lớp 3 và chuyển tiếp gói IP đến chặng
tiếp theo
ATM-LSR Chạy thủ tục MPLS trong phần điều khiển để thiết lập
các VC ATM. chuyển tiếp gói được đánh nhãn như
cell ATM.
ATM edge-LSR Có thể nhận gói đánh nhãn hoặc không đánh nhãn,
phân mảnh nó thành các cell ATM và chuyển tiếp các
cell này đến ATM-LSR tiếp theo.
Có thể nhận các cell ATM từ ATM-LSR lân cận, tái tổ
hợp chúng thành gói tin ban đầu và chuyển nó đến
chặng tiếp theo, gói có thể được đánh nhãn hoặc
không đánh nhãn.
Bảng 5-1 Chức năng của các kiểu LSR
5.3.2.3 Giao thức phân phối nhãn (LDP -Label Distribution Protocol)
LDP là các giao thức phân bổ nhãn được dùng trong MPLS để phân bổ
nhãn và thiết lập các LSP thông qua mạng MPLS.
95
vụ có thể cung cấp nhiều lớp chất lượng dịch vụ cho một mạng riêng ảo
(VPN) và những ứng dụng khác nhau trong VPN sẽ thuộc về những phân lớp
dịch vụ khác nhau. Với cách thức này, dịch vụ mail sẽ thuộc về một lớp dịch
vụ (COS - Class of Service) nào đó trong khi những ứng dụng thời gian thực
có thể thuộc về một lớp dịch vụ khác.
Do vậy mạng MPLS đã lựa chọn mô hình dịch vụ phân biệt (DiffServ) để
cung cấp các giải pháp về chất lượng dịch vụ. Cơ chế hoạt động và các ưu
nhược điểm của mô hình DiffServ đã được phân tích ở chương 2. Trong mạng
MPLS mô hình này được ứng dụng để thực hiện các nhiệm vụ sau:
Phân lớp, đánh dấu và sửa dạng dữ liệu bằng cách copy trường IP
Precedence tới trường MPLS QoS tại biên mạng.
Thực hiện cơ chế tránh tắc nghẽn WRED bởi các bits Precedence, hoặc
DSCP, hoặc MPLS EXP trong lõi mạng.
Sử dụng MPLS QoS thực hiện cơ chế xếp hàng cân bằng trọng số dựa
trên sự phân lớp (CBWFQ – Class_base WFQ) tại mỗi nút mạng.
Kết quả thực hiện từ đầu cuối đến đầu cuối mạng MPLS cũng giống
như mạng non-MPLS.
5.4.1 Cấu trúc trường MPLS EXP trong gói IP được gán nhãn
Trong chương 2, chương 3 và chương 4 chúng ta đã phân tích cách sử
dụng trường IP Precedence và cấu hình thực hiện các cơ chế QoS trong mạng
IP. Hình 5.4 chỉ ra mối liên hệ giữa trường IP Precedence với trường MPLS
QoS trong mạng chuyển mạch nhãn.
Tại biên mạng router thực hiện gán nhãn, nhãn được chèn giữa mào đầu
lớp 2 và nội dung lớp 3 của khung lớp 2.
Ánh xạ (hoặc sao chép) nội dung trường IP Prec tới trường MPLS
EXP.
97
Hình 5.5 Gán nhãn và chuyển tiếp gói tin trong mạng MPLS
5.4.3 Chuyển tiếp gói MPLS
Khi một gói đi qua mạng MPLS, router chuyển mạch nhãn (LSR) sẽ thay
đổi nhãn vào bằng một nhãn ra. Mỗi LSR giữ hai bản lưu giữ thông tin liên
quan đến thành phần chuyển tiếp MPLS. Bảng đầu tiên là cơ sở thông tin
nhãn (LIB –Label Information Base) lưu tất cả các nhãn được gán bởi LSR và
ánh xạ các nhãn này đến các nhãn nhận được từ node lân cận. Bảng thứ hai là
cơ sở thông tin chuyển tiếp nhãn (LFIB – Label Forwarding Information
Base) được sử dụng để chuyển tiếp gói và chỉ giữ các nhãn mới được sử dụng.
5.5 Kết Luận
MPLS là một trong những giải pháp mạng đường trục cho mạng thế hệ
mới, hiện xu hướng phát triển của MPLS là ATOM (Any traffic Over MPLS),
nghĩa là có khả năng đáp ứng bất cứ loại dịch vụ nào: thoại, video, fax,
data,.... IP/MPLS sẽ là một giải pháp QoS hứa hẹn mang lại nhiều lợi ích cho
cả người dùng và nhà cung cấp dịch vụ viễn thông.
100
dịch vụ bằng cách thực hiện loại bỏ các cài đặt Frame Relay và thay vào đó
bằng các chính sách QoS để đảm bảo ưu tiên cho dịch vụ thoại. Cụ thể là triển
khai 2 kỹ thuật IP QoS và MPLS QoS cho mạng đường trục. Sơ đồ mạng SPT
được thiết kế như trong hình vẽ 6.2
Si
Si
Si
Lớp truy cập (Access Layer): Lớp này phục vụ việc truy cập Internet
cho khách hàng hoặc kết nối mạng khách hàng. Các khách hàng được
kết nối trực tiếp vào các router tầng truy cập.
Lớp phân phối (Distribution Layer): Lớp này tập hợp các kết nối từ các
router lớp truy cập và liên kết với lớp cao hơn.
Lớp nhân (Core Layer): Lớp này là tập hợp các router có tốc độ xử lý
cao, khả năng chuyển tải dữ liệu lớn. Lớp này thực hiện liên kết 3 miền
của mạng SPT và thực hiện kết nối ra miền Internet quốc tế.
• Mạng IP Core của SPT hiện nay chủ yếu cung cấp dịch vụ thoại
(VoIP), và hiện nay còn tách biệt một cách tương đối so với mạng
Internet.
• Mạng IP Core đang sử dụng nhiều kỹ thuật khác nhau, bao gồm tag-
switching (MPLS), IP forwarding và GRE tunnel để thực hiện việc
sử dụng chung băng thông kênh thuê riêng liên tỉnh và quốc tế cho 2
dịch vụ VoIP và Internet.
• Mạng IP Core vẫn chưa triển khai kỹ thuật tag-switching trên toàn
mạng.
Để cung cấp dịch Internet trên nền IP sử dụng công nghệ chuyển mạch
nhãn MPLS, chúng ta cần phải chuyển đổi mạng IP Core hiện hữu sang
MPLS tối thiểu là ở những POP dự kiến sẽ cung cấp dịch vụ Internet. Hiện
nay cấu trúc mạng SPT gồm 3 miền tương tự nhau, do vậy chúng ta có thể
phân tích một miền đại diện, ví dụ được phân tích ở đây là tuyến Hải Phòng –
Hà Nội – TP HCM (xem hình 6.3).
104
Hình 6.3 Mạng IP tích hợp nhiều kỹ thuật chuyển mạch khác nhau
Như vậy để xây dựng mạng MPLS QoS trên hạ tầng mạng SPT hiện
nay, thì các phân tử mạng phải được thiết kế như sau:
Router đặt tại POP Hải Phòng đóng vai trò router lớp truy cập Edge-
LSR (router chuyển mạch nhãn ở biên). Các router này trao đổi thông
tin định tuyến với mạng của khách hàng hoặc với mạng PSTN khác.
Router lớp truy cập trao đổi thủ tục phân phối nhãn (LDP) với router
lớp phân phối Hà Nội, router lớp phân phối trao đổi LDP với router lớp
nhân miền Bắc (đặt tại Hà Nội) và router lớp nhân trao đổi LDP với các
router lớp nhân trong các miền TP HCM và các miền khác.
6.2.1.1 Chính sách định tuyến
Công nghệ IP/MPLS hoạt động dựa trên một số giao thức định tuyến khác
nhau, do vậy khi triển khai chính sách định tuyến cần quan tâm tới một số vấn
đề sau:
Việc gán nhãn (label) cho các IP packet trên mạng MPLS có thể hoạt
động dựa trên một cơ chế định tuyến bất kỳ (như static, RIP, OSPF,..),
105
tuy nhiên theo khuyến cáo của Cisco thì giao thức định tuyến OSPF là
tốt nhất khi triển khai mạng MPLS. Ngoài ra, OSPF chỉ cấu hình một
area duy nhất cho toàn mạng.
Mạng IP core hiện nay hầu như sử dụng định tuyến tĩnh, khi kích hoạt
thêm định tuyến động OSPF trên các router P (router lớp nhân và lớp
phân lớp) tại các POP triển khai Internet vẫn không làm ảnh hưởng đến
dịch vụ VoIP đang khai thác vì cơ chế định tuyến tĩnh có độ ưu tiên
(administrative distance) cao hơn. Định tuyến động OSPF giữa các
router chạy MPLS chỉ để phục vụ cho việc gán nhãn đối với những
packet của dịch vụ Intenet và sau này là cho các dịch vụ khác như IP-
VPN, Internet,….
Để trao đổi bảng định tuyến của các lưu lượng Internet, định tuyến
động MP-iBGP (Multi-protocal iBGP) được kích hoạt trên các router
PE (router lớp truy cập). Định tuyến MP-iBGP dùng để trao đổi bảng
định tuyến của mạng Internet thông qua mạng MPLS của nhà cung cấp
dịch vụ. Mỗi nhà cung cấp dịch vụ Internet (ISP/IXP) được cấp một số
hiệu mạng (ASN – Autonomous System Number) và số AS là duy nhất
và có giá trị toàn cầu. Các bảng định tuyến của các nhà ISP/IXP trên
thế giới được trao đổi với nhau thông qua số AS này.
Luận văn tốt nghiệp cao hoc “Vấn đề chất lượng dịch vụ trong mạng thế
hệ mới và triển khai ứng dụng trên hạ tầng mạng của công ty SPT” thực hiện
nghiên cứu và giải quyết những vấn đề sau:
Giới thiệu tổng quan về mạng thế hệ mới (NGN). Tác giả phân tích xu thế
phát triển của mạng viễn thông ngày nay. Các đặc điểm về dịch vụ, công
nghệ và kiến trúc mạng NGN triển khai trên hạ tầng các mạng riêng lẻ có
sẵn. Phân tích các tham số đánh giá chất lượng dịch vụ mạng và những
yêu cầu cần được giải quyết.
Phân tích các nhóm giải pháp về chất lượng dịch vụ trong mạng NGN phát
triển trên môi trường mạng IP, cũng như các ưu nhược điểm của từng giải
pháp và đưa ra một số ví dụ cấu hình ứng dụng dựa trên các khuyến cáo và
thiết bị do hãng Cisco cung cấp.
Phân tích những mặt hạn chế của công nghệ IP và miêu tả kiến trúc của
chuyển mạch nhãn đa giao thức MPLS. Giới thiệu cách thức mà công nghệ
MPLS phát triển các kỹ thuật QoS.
Đề xuất giải pháp xây dựng mạng MPLS QoS trên môi trường mạng của
công ty SPT.
Tuy mạng NGN đáp ứng được sự hội tụ của nhiều dịch vụ nhưng trên thực
tế triển khai các hãng sản xuất thiết bị cũng như nhà cung cấp dịch vụ cần
phải nghiên cứu phát triển, nâng cấp phần cứng cũng như phần mềm, để đảm
bảo chất lượng dịch vụ cung cấp tới khách hàng. Trong khuôn khổ đề tài này
tác giả chỉ nghiên cứu các kỹ thuật QoS cho mạng đường trục IP. Hướng phát
triển tiếp theo của đề tài là nghiên cứu phát triển địa chỉ IPv6 thay thế địa chỉ
IPv4 với mục đích tăng thêm số bit của trường DSCP trong địa chỉ, nhằm mở
rộng các ứng dụng QoS dựa trên các bit đó và một xu hướng phát triển của
111
công nghệ IP/MPLS là ATOM (Any traffic Over MPLS) với mục đích phát
triển các giải pháp mạng đường trục tốt nhất cho mạng thế hệ mới.
Ngoài ra đối với từng mạng riêng lẻ trong một cấu trúc mạng tổ hợp cũng
cần có những kỹ thuật QoS dành riêng nhưng chưa được giới thiệu ở đây như:
“Wireless IP”, “Mobile IP”,….Do vậy song song với việc hoàn thiện thiết kế
mạng NGN, các giải pháp về chất lượng dịch vụ cũng cần được tiếp tục
nghiên cứu.
112
[1] Công ty Bưu chính viễn thông Việt Nam, “Mạng Viễn Thông Thế Hệ
Sau”, Nhà xuất bản Bưu Điện, 12/2002.
[2] Cisco DQOS Exam Certification Guide, Wendell Odom, CCIE No. 1624
Michael J. Cavanaugh, CCIE No. 4516, First Printing July 2003.
[3] Cisco TAC “IP QoS Intrduction” Website http://www.cisco .com
[4] Neill Wilkinson, “Next Generation Network Services”, John Wiley &
Sons INC, 2002.
[5] Richard D. Gitlin, Next Generation Networks The New Public Network,
http://www.cs.columbia.edu/IRT/papers/others/1999/Globecomm_99_Next_
Generation_Networks_Fi.PDF
[6] Cisco[1].Press.Advd.MPLS.Desgn.and.Impl,
www.cisco.com/cpress/cc/td/doc/cisintwk/ita/index.htm
[7] MPLS Products & Technologies Page http://www.cisco.com/go/mpls
[8] Chuck Semeria, “Multiprotocol Label Switching: Enhancing Routing in
the New Public Network” , www.juniper.net
[9] Tiêu chuẩn RFC 2205 “Resource ReSerVation Protocol” Version 1
Functional Specification của IETF, Web site http://www.ietf.org
[10] Tiêu chuẩn RFC 2474 “Definition of the Differentiated Services Field
(DS Field) in the IPv4 and IPv6 Headers” của IETF, Web site
http://www.ietf.org
[11] Quality of Service Solutions Configuration Guide
http://www.cisco.com/univercd/cc/td/doc/product/software/ios121/121cgcr/qo
s_c/index.htm
[12] Tiêu chuẩn G.114 “One-way transmission time” của ITU