You are on page 1of 32

Trang 1

CHƯƠNG 7
Ảo hóa chức năng mạng

Giới thiệu
Ảo hóa chức năng mạng (NFV) được xây dựng dựa trên một số chủ đề chính của SDN
đã nêu trong các chương trước, bao gồm phân tách mặt phẳng điều khiển / dữ liệu, ảo hóa, SDN
bộ điều khiển và khái niệm trung tâm dữ liệu (đặc biệt là các ứng dụng điều phối).
Hình 7-1 minh họa sự giao nhau của các chủ đề này.

Hình 7-1. Giao điểm giúp Ảo hóa Chức năng Mạng khả thi

Ảo hóa chức năng mạng có nguồn gốc từ một số mạng được mô tả trước đây
các vấn đề hoạt động, đặc biệt là các tác động của việc gói các dịch vụ theo mạng
các nhà sản xuất thiết bị trong hệ điều hành nền tảng của họ. NFV cũng áp dụng cho thiết bị

207
Trang 2

nhà cung cấp theo cách không tận dụng được quy mô xử lý / sự đổi mới đã thấy
bởi nhiều khách hàng trong trung tâm dữ liệu của họ.

Nhiều nhà cung cấp dịch vụ lớn đã có các dịch vụ đám mây của riêng họ và do đó, giả định về
điều phối máy ảo trong hoạt động của chúng. Họ cũng đang theo dõi I / O in‐
các đề xuất của Intel trong không gian này (hỗ trợ VT-d, DDIO, DPDK và SR-IOV). Những
các nhà cung cấp chính thức tuyên bố mong muốn của họ về ảo hóa dịch vụ và tài trợ
phát triển tiêu chuẩn xung quanh ảo hóa dịch vụ thông qua một bài báo được xuất bản tại
Hội nghị Layer123 SDN (Darmstaad, Đức) vào mùa thu năm 2012. 1 Công việc này ulti‐
cuối cùng đã được tài trợ trong ETSI. 2 Ngoài bài báo này, các nhà cung cấp có
nhiều lần bỏ phiếu bằng ví của họ trong các động thái hướng tới giá hàng hóa, ODM-
các công tắc hàng đầu được xây dựng với phần mềm có sẵn. Đằng sau hậu trường, các nhà cung cấp đã
cũng đã theo dõi các khả năng I / O đang phát triển của các nền tảng COTS và đánh giá
chiến lược cho thế hệ thiết bị dịch vụ tiếp theo và tương lai của mạng chuyên dụng‐
nền tảng làm việc kết hợp một thành phần dịch vụ lớn. Chúng bao gồm Rộng‐
băng tần Network Gateway (BNG), song song của nó trong không gian cáp (CMTS), nút-B trong
không gian di động và các nền tảng tổng hợp và truy cập theo hướng dịch vụ khác.

Những gì đã phát triển là một cuộc thảo luận về các dịch vụ mạng và chức năng thành ba
danh mục: dịch vụ ảo hóa đơn giản, chuỗi dịch vụ và dịch vụ hoặc nền tảng trinh‐
điều chỉnh. Trong tất cả các cuộc thảo luận này, bộ điều khiển SDN có liên quan, ít nhất là
trường hợp của các dịch vụ ảo hóa đơn giản và trong những trường hợp khác, nó được cho là bắt buộc.

I / O Virtualization và Data Plane I / O


Ảo hóa các dịch vụ mạng không nhất thiết có nghĩa là các bộ phận siêu giám sát riêng biệt‐
các máy ảo định thời có chứa từng phiên bản dịch vụ; thay vào đó, nó cũng có thể có nghĩa là:

• Các dịch vụ được triển khai trong một máy có (các) hệ điều hành nhiều ngăn / nhiều ngăn
• Các dịch vụ được triển khai trong hypervisor
• Các dịch vụ được thực hiện dưới dạng phân phối hoặc nhóm dưới dạng vật liệu tổng hợp
• Dịch vụ trên máy kim loại trần
• Các dịch vụ được triển khai trong vùng chứa ảo Linux

Các phương pháp này có thể chia sẻ trạng thái bằng cách sử dụng một số hình thức Lưu trữ đính kèm mạng (NAS)
hoặc các kiến trúc lưu trữ / bộ nhớ dùng chung khác. Xem Hình 7-2 để biết bản phác thảo minh họa
các phương pháp này.

1. http://www.tid.es/es/Documents/NFV_White_PaperV2.pdf ; http://www.lightreading.com/document.asp?
doc_id = 226204 &

2. ETSI là một SDO (Tổ chức Phát triển Tiêu chuẩn). Truy cập bên dưới bề mặt của cổng cho NFV
công việc yêu cầu thành viên ETSI.

208 | Chương 7: Ảo hóa chức năng mạng

Trang 3

Máy ảo cung cấp những lợi thế to lớn đối với quản lý 3 và
do đó được theo đuổi như một phương tiện chính cho NFV. Các thùng chứa Linux có lợi thế về mật độ
(nhiều phiên bản hơn trên mỗi máy chủ) và hiệu suất nhưng thiếu hệ sinh thái quản lý và
Hệ điều hành linh hoạt của máy ảo. Tất nhiên, máy kim loại trần vượt trội cả hai lựa chọn
khi nói đến hiệu suất nhưng thường được xem xét ở phía sau đường cong về
tính linh hoạt và quản lý.

Hình 7-2. Phương pháp khảo sát ảo hóa: hypervisor partitioned (A), compartmen
hệ điều hành talized (B), kim loại trần (C), nhúng siêu giám sát (D) và phân tán / nhóm
hàm tổng hợp (E); hai trong số các phương pháp này (A và B) cũng được mô tả trạng thái chia sẻ
thông qua bộ nhớ dùng chung (F)

Các công nghệ như phần mở rộng cổng Virtual Ethernet Port Extension (VEPA) cũng có thể
tạo cơ hội để cung cấp các dịch vụ per-VM trong ngữ cảnh bộ chuyển mạch / bộ định tuyến bằng cách sử dụng
dịch vụ tích hợp hoặc hỗ trợ.

Ảo hóa các dịch vụ mạng sẽ gây ra những lo ngại về độ tin cậy mà NFV thực hành
và các khuyến nghị cần giải quyết:

3. Danh sách ngắn các lợi ích quản lý (nếu bạn bỏ qua Chương 6 ): Quản lý vòng đời máy ảo, quản lý lưu trữ‐
đề cập, tối ưu hóa vị trí máy ảo, ảnh chụp nhanh máy ảo, di chuyển máy ảo, khôi phục thảm họa, giám sát hiệu suất‐
ing, quản lý tuân thủ và quản lý năng lực.

I / O Virtualization và Data Plane I / O | 209

Trang 4

• Sự ra đời của hypervisor và tiềm năng của nhiều dịch vụ ảo hóa


trên cùng một phần cứng vật lý có thể dẫn đến tranh giành tài nguyên vật lý, lại
ủ rũ trong tình trạng xuống cấp tiềm ẩn do các dịch vụ / chức năng riêng lẻ hoặc
toàn bộ chuỗi thông qua thành phần đơn lẻ đó. Không chỉ hệ thống dàn nhạc NFV‐
cần theo dõi sự xuống cấp như vậy, nó sẽ cần khả năng hiển thị vào hypervisor
và lưu trữ tài nguyên để khắc phục sự cố và có khả năng cô lập / giảm thiểu sự tranh cãi.
• Bản thân hypervisor đưa ra một điểm lỗi tiềm ẩn (SPOF) có thể
tác động đến nhiều máy ảo đồng thời trên một máy chủ lưu trữ và có thể có nhiều dịch vụ khác nhau
dây chuyền.
• Công tắc ảo hypervisor có thể bị tắc nghẽn trong khi cung cấp nhiều vNIC của
nhiều máy ảo khác nhau và cần có khả năng xác định và ưu tiên kiểm soát lưu lượng truy cập để tránh
ứng dụng và quản lý thất bại.
• Ngoài ra, hypervisor có thể cô lập các ứng dụng khỏi nhận thức về các thay đổi
ở trạng thái máy vật lý như hỏng cổng NIC. Nhận thức về quản lý này
cần được bắc cầu bởi bộ điều khiển SDN và hợp tác điều phối.
• Cuối cùng, các máy ảo cũng có thể được di chuyển trong khi hoạt động như một phần của
chiến lược sẵn sàng (HA). Hành vi này có thể ảnh hưởng đến một chuỗi dịch vụ trong các
và do đó, hành vi này đôi khi là cố ý hoặc vô ý như một phần của
chiến lược được sử dụng cho các khả năng HA.

Dữ liệu I / O
Nói chung, những tiến bộ trong I / O mặt phẳng dữ liệu là những yếu tố chính cho phép chạy
dịch vụ trên phần cứng COTS. Vì hypervisor vSwitch được sử dụng trong NFV / service vir‐
phương pháp điều chỉnh thêm chi phí hiệu suất bổ sung cho I / O đơn giản vì
ảo hóa / trừu tượng hóa không miễn phí, đã có những bước phát triển khó giảm nhẹ hình phạt‐
chiến lược kho và phần mềm. Các kỹ thuật tăng tốc I / O là phần mềm (OS hoặc hy‐
pervisor) dựa trên bao gồm Virtio và SR-IOV:

• Virtio là nền tảng chính cho ảo hóa I / O đĩa và mạng trong Linux,
FreeBSD và các hệ điều hành khác. Virtio cung cấp một lớp trừu tượng hơn
thiết bị trong một hypervisor / VMM 4 được ảo hóa và cung cấp các lợi ích I / O khi
so với ảo hóa hoàn toàn.
• SR-IOV (PCI-SIG Single Root I / O Virtualization) hoạt động với lớp I / O cứng‐
thiết bị được xây dựng dựa trên công nghệ PCIe. Đặc điểm kỹ thuật PCIe này chia một thiết bị thành
nhiều ID Người yêu cầu PCI Express (nó chia các chức năng vật lý thành trọng lượng nhẹ hơn

4. Paravirtualization cho phép chuyển vị trí thực thi các tác vụ quan trọng từ miền ảo sang
tên miền máy chủ lưu trữ bằng cách cung cấp các hook cho phép hệ điều hành khách và máy chủ tương tác (cho các tác vụ đó). Xen, VMware
(bên ngoài) và KVM (trình siêu giám sát) đều sử dụng Virtio để ảo hóa I / O.

210 | Chương 7: Ảo hóa chức năng mạng

Trang 5

chức năng ảo), cho phép I / O MMU phân biệt giữa các lưu lượng truy cập riêng lẻ
luồng, áp dụng bộ nhớ / dịch gián đoạn và thực hiện phân phối trực tiếp đến một
VM (mỗi chức năng ảo PCI Express, được ánh xạ tới một ID, có thể được gán cho một máy ảo).
Điều này bỏ qua lớp chuyển đổi phần mềm và giảm tác động của emula phần mềm‐
tion vào I / O. Tỷ lệ ánh xạ giữa thiết bị vật lý với thiết bị ảo là 1: 256.
Các chức năng ảo PCIE dường như là thiết bị phần cứng của máy ảo. Tất cả dữ liệu
các gói truyền trực tiếp giữa hệ điều hành khách cụ thể và chức năng ảo thông qua
một không gian bộ nhớ độc lập, ngắt và luồng DMA. Thông lượng I / O, CPU
việc sử dụng và độ trễ đều được cải thiện.
SR-IOV có cả yêu cầu hỗ trợ phần cứng (NIC) và phần mềm để dịch
vào BIOS cũng như trong phiên bản hệ điều hành hoặc hypervisor.

Tăng tốc I / O hơn nữa có thể bị ràng buộc trong các cải tiến I / O phần cứng của nhà cung cấp cụ thể
(NIC và CPU).

Intel đã và đang cải tiến một loạt các biện pháp tăng hiệu suất I / O cho các nhà phát triển đã
tiến bộ với các khả năng của CPU và NIC của chúng (những thứ dựa trên lưu trữ Intel‐
tecture), bao gồm:
• Cải tiến thiết kế phần cứng thuần túy — độ sâu đường ống, truy cập bộ nhớ cache trực tiếp, tích hợp‐
bộ điều khiển bộ nhớ và tích hợp băng thông cao PCIe Gen3. 5
• Công nghệ ảo hóa Intel (Intel VT) —VTx, c và d.
• VT-x cung cấp hỗ trợ phần cứng cấp CPU cho việc di chuyển máy ảo và khách 32-bit
(được hỗ trợ bởi VMware, Microsoft, Xen, KVM, Citrix, Red Hat, Novell và Paral‐
lels).
• VT-d tăng tốc ảo hóa I / O bằng cách cho phép gán trực tiếp thiết bị I / O
tới máy ảo (yêu cầu hỗ trợ BIOS trên nền tảng OEM và nhiều loại siêu
kính che mặt / hỗ trợ VMM).
• Phần cứng VT-c hỗ trợ Intel Ethernet cho kết nối mạng và lưu trữ, in‐
bao gồm VMDq và SR-IOV. Hàng đợi thiết bị máy ảo (VMDq) đề cập đến
phân loại / nhóm các gói mạng có nhiều hàng đợi sử dụng LAN silicon trong silicon
thay cho VMM.
• Công nghệ Intel QuickAssist cho phép Phần mềm trung gian để tăng tốc gói han‐
xử lý khối lượng công việc (ví dụ: DPI, mật mã). Các ứng dụng có thể tích hợp ở các
cấp độ: lập trình cho API công nghệ Intel QuickAssist hoặc chương trình cho nguồn mở
khuôn khổ (ví dụ: OpenSSL libcrypto, API mật mã nhân Linux — danh sách phân tán và zlib)
thông qua các bản vá / miếng dán.

5. Đề cập nhanh về chúng (thêm một chút về cỏ dại để xử lý bề mặt) Tiện ích mở rộng AVX — 256-bit
Kiến trúc Bộ hướng dẫn (ISA) được xây dựng trên SIMD 128-bit cũ (SSEx — với các cải tiến) và 64-bit
SIMD (MMX) ISA mở rộng; được hỗ trợ bởi GCC v4.6, nhân Linux 2.6.30 và Trình biên dịch Intel C ++ 12.1.

I / O Virtualization và Data Plane I / O | 211

Trang 6

• Các đối tác tích hợp thương mại (ví dụ: 6Wind 6 và Wind River 7 ) đưa ra kế hoạch
và các cải tiến khác dành lõi cho gói I / O được tích hợp thông qua
đóng gói (ví dụ, Wind River Linux và Wind River Hypervisor).
• Công nghệ I / O Trực tiếp Dữ liệu Intel (Intel DDIO) 8 —các làn PCIe tích hợp trung bình
trên CPU, giảm truy cập bộ nhớ và tăng tốc độ truyền dữ liệu CPU,
đôi khi được gọi là ghim lõi NIC.
• Intel DPDK 9 —Đổi mới gần đây nhất của Intel trong cải tiến ảo hóa I / O,
Bộ phát triển Dataplane ( Hình 7-3 ), cung cấp các thư viện mặt phẳng dữ liệu và tùy chọn
trình điều khiển NIC được giảm thiểu (chế độ thăm dò) (dành cho Intel NIC) trong không gian người dùng Linux cung cấp
quản lý hàng đợi và bộ đệm nâng cao và phân loại luồng thông qua một
Giao diện API (được hỗ trợ thông qua chuỗi công cụ tiêu chuẩn — gcc / icc, gdb và profiling
công cụ).
Hình 7-3. Intel DPDK

6. 6Wind giới thiệu một bộ sản phẩm vEPC dành cho các máy chủ Intel có các tính năng cải tiến I / O dataplane của họ.

7. Intel mua lại Wind River.

8. Được giới thiệu với CPU Sandy Bridge và các thiết bị I / O Intel Ethernet PCIe.

9. Intel đã phát triển phiên bản cải tiến DPDK của ovswitch cho miền công cộng và hoạt động với chính
dự án ảo hóa (KVM, Xen, UML và xVM).

212 | Chương 7: Ảo hóa chức năng mạng

Trang 7

Các nhà cung cấp NIC (ngoài Intel) không phải là không có các thủ thuật tăng tốc I / O của riêng họ:

• RoCE (RDMA qua Ethernet hội tụ) là ứng dụng có thể hữu ích của các API
cho tính toán cụm giữa / giữa các chức năng mạng ảo hóa 10 (I / O
kỹ thuật ảo hóa). Mellanox là người đề xuất chính của công nghệ RoCE
và khả năng sử dụng nó trong NFV. NIC của họ tăng tốc hỗ trợ RoCE và cung cấp
được liên kết động, các thư viện không gian người dùng giảm tải xử lý gói mạng
từ CPU bằng cách cho phép các ứng dụng truy cập trực tiếp vào NIC. 11
• Tương tự, tăng tốc ứng dụng ảo chuyên biệt, cụ thể khác (ví dụ: PCoIP—
Teradici cung cấp các NIC được tối ưu hóa cho PCoIP) có thể tìm thấy khả năng ứng dụng trong
không gian dịch vụ ảo NFV. 12

Có sự khác biệt giữa I / O trên mặt phẳng dữ liệu (thô) và xử lý trên mặt phẳng dữ liệu (ví dụ:
áp dụng Danh sách kiểm soát truy cập hoặc thực hiện chuyển đổi gói tại vSwitch hoặc
cầu) có thể có một số mang tính hiệu quả của một số chức năng / giải pháp ảo hóa.
Lịch sử phát triển định tuyến / chuyển mạch có nhiều ví dụ về thông lượng
khi có các hoạt động như vậy (đã được tối ưu hóa thành công theo thời gian).

Tóm tắt I / O
Trong khi một số chi tiết đã được trình bày ở đây, net-net là rất nhiều
sự giám sát và nỗ lực đang được áp dụng để giảm mật độ ngắt, chuyển đổi ngữ cảnh và
các bản sao bộ nhớ đệm (tức là, chiến lược không sao chép). Nỗ lực này chủ yếu được thúc đẩy bởi
bùng nổ phát triển các dịch vụ ảo hóa và khá thích hợp do
thành phần I / O vốn có và nhu cầu cải thiện hiệu suất và quy mô tổng thể. Đang đi
về sau, mục tiêu quan trọng nhất đối với NFV sẽ là tìm ra các phương pháp tối ưu hóa
cộng đồng được coi là cởi mở có thể chấp nhận được (nghĩa là không bị ràng buộc với phần cứng của một nhà cung cấp
công nghệ), trừ khi một tiêu chuẩn phần cứng rõ ràng trên thực tế phát triển, có khả năng như
những cái vừa được mô tả.
10. RDMA có thể sử dụng trong mạng Infiniband, nhưng những mạng này ít quen thuộc hơn bên ngoài môi trường trung tâm dữ liệu.

11. Tính khả thi của RoCE giả định một số thuộc tính có trong môi trường DCB (Cầu nối trung tâm dữ liệu)
trong đó các ưu tiên riêng biệt cho các luồng khác nhau có thể được coi là các đường ống riêng biệt và độ trễ có thể
hạ xuống hoặc giới hạn. Trong môi trường này, RDMA cung cấp API truy cập bộ nhớ từ xa (một sự thay thế cho
Chức năng Berkeley socket API) được giới hạn bởi miền phát sóng Ethernet (RoCE là một lớp liên kết
giao thức yêu cầu một số ánh xạ giữa hệ thống GID và MAC).

12. PCoIP chưa được đề xuất như một chiến lược ảo hóa cho NFV (cho đến nay) và chỉ được sử dụng để minh họa
tiềm năng tối ưu hóa mặt phẳng dữ liệu trong không gian NFV.

I / O Virtualization và Data Plane I / O | 213

Trang 8

Đường dẫn dịch vụ được thiết kế


Trong năm 2010, một đề xuất để tách cơ sở hạ tầng Dịch vụ và Mạng (mặt phẳng) là
được đề xuất bởi Jim Guichard, khi đó là kiến trúc sư chính trong Văn phòng CTO tại Juniper
Mạng. Khái niệm Đường dẫn được thiết kế dịch vụ (SEP) ( Hình 7-4 ) được giới thiệu như
một phương tiện cung cấp dịch vụ mới tiềm năng cho cộng đồng Nhà cung cấp dịch vụ — a
Giải pháp cụ thể của Juniper, nhưng giải pháp đã giải quyết được vấn đề trước bất kỳ tiêu chuẩn hóa nào
của một khái niệm như vậy.

Tuyên bố vấn đề được giải quyết trong SEP là các nhà cung cấp dịch vụ bị hạn chế
trong việc đưa ra các dịch vụ mới do nhu cầu triển khai các thiết bị dịch vụ (hoặc
cated services blade) sẽ bao gồm việc cung cấp dịch vụ. Dịch vụ cung cấp trong‐
tường lửa bao trùm, Hệ thống phát hiện xâm nhập (IDS), Hệ thống ngăn chặn xâm nhập
(IPS), bộ cân bằng tải và bộ ngắt tải SSL được chạy trong các bộ định tuyến biên
sẽ phục vụ thị trường dự kiến của họ.

Những hạn chế này khiến việc giới thiệu dịch vụ trở nên khó khăn và gây gián đoạn cho việc lựa chọn mạng‐
eration và đặt cao hơn vào việc dự đoán thị trường cho một dịch vụ mà bạn có thể
có quá ít người đăng ký và bạn có tài nguyên bị thiếu hoặc quá nhiều người đăng ký và
sau đó cần lắp thêm các thiết bị / lưỡi dao.

Động lực cho ý tưởng rất đa dạng:

• Các thiết bị mạng cung cấp Công nghệ hỗ trợ dịch vụ (SET) sẽ
minh bạch với cơ sở hạ tầng mạng chung.
• Thay đổi / bổ sung / nâng cấp cho một hoặc nhiều phiên bản dịch vụ sẽ không ảnh hưởng đến lộ trình ro
tham gia vào mạng, cung cấp một môi trường giới thiệu dịch vụ ổn định hơn.
• Cung cấp SET dịch vụ linh hoạt và vị trí phiên bản, và năng lực được sắp xếp hợp lý
lập kế hoạch của các dịch vụ.
• Thời gian tiếp thị dịch vụ nhanh hơn từ thiết kế, nâng cấp, thử nghiệm và triển khai
Góc nhìn cá nhân.
• Không cần nâng cấp bộ định tuyến cạnh mỗi khi dịch vụ mới được thêm vào hoặc nâng cấp
với chức năng mới.
• Cung cấp khả năng liên kết với nhau các dịch vụ thuộc các loại khác nhau, do đó cho phép
các dịch vụ đi kèm mới và sáng tạo.

Về cơ bản, các nhà cung cấp này có thể hưởng lợi cả về chi phí và hoạt động nếu các BỘ này có thể
được gộp cục bộ hoặc từ xa (sự hấp dẫn cơ bản giống nhau của ảo hóa máy chủ trong dữ liệu cen‐
ters).
Các dịch vụ mới có thể được tạo ra bằng cách xác định các luồng đủ điều kiện ở rìa và chỉ đạo
chúng thông qua các SET này thông qua SEP (Service Engineered Path), có thể là

214 | Chương 7: Ảo hóa chức năng mạng

Trang 9

được xây dựng bằng các công nghệ lớp phủ có sẵn tại thời điểm đó: VLAN, MPLS hoặc IP
đường hầm.

Hình 7-4. Khái niệm SEP cơ bản

Việc xây dựng dịch vụ là một hệ thống phân cấp của các thành phần sau:
Dịch vụ
Chức năng dịch vụ, ứng dụng hoặc nội dung được sử dụng riêng lẻ hoặc phối hợp với
các SET khác để kích hoạt một dịch vụ.

ĐẶT trình tự
Trình tự xác định trước của các SET tạo thành dịch vụ.

Đặt đường dẫn trình tự


Vì một phiên bản của SET có thể có sẵn tại nhiều điểm trong mạng, ở đó
có khả năng là một số tổ hợp các Nút dịch vụ có thể tạo thành một phần của
SET trình tự. Đường dẫn trình tự SET là danh sách các tổ hợp [Nút dịch vụ, SET]
có sẵn có thể được sử dụng để đáp ứng dịch vụ.

Một dịch vụ điều phối và đăng ký dịch vụ đã được hình dung để hỗ trợ việc cung cấp
và quản lý liên tục.

Lưu lượng truy cập ban đầu được xác định và hướng vào đường dẫn bằng Luồng dịch vụ động
Các bộ lọc và bản thân các đường dẫn được kiểm soát bởi tính năng đóng gói MPLS.

Theo thời gian, các công nghệ SDN — đáng chú ý nhất là PCE và OpenFlow — được giới thiệu‐
gây ra ( Hình 7-5 ). Ý tưởng này đã được hoàn thiện, mặc dù có một số lỗi với
khái niệm sử dụng phân phối nhãn LDP như một cách tiềm năng để tạo lớp phủ
trừu tượng / đóng gói.

Dịch vụ Đường dẫn được thiết kế | 215


Trang 10

Hình 7-5. Khái niệm SEP phát triển với OpenFlow, ALTO (cấu trúc liên kết) và PCE

Các kỹ thuật ảo hóa và cải tiến I / O ảo chỉ mới bắt đầu phát triển
khi khái niệm SEP được giới thiệu, vì vậy ảo hóa bán buôn của dịch vụ
máy bay trên COTS không phải là một phần không thể thiếu của đề xuất như bây giờ với ETSI NFV.
Tuy nhiên, nguồn gốc của các ý tưởng tách mặt phẳng dịch vụ, chức năng mạng
ảo hóa và chuỗi dịch vụ có thể được bắt nguồn từ khái niệm này (cũng như một số
sản phẩm thương mại).

Cuối cùng (và thật không may), ảo hóa chức năng mạng đã trở thành tập hợp siêu
thuật ngữ cho các khái niệm trước đó như những khái niệm được giới thiệu với SEP (cũng như tên của
nhóm làm việc ETSI).

216 | Chương 7: Ảo hóa chức năng mạng

Trang 11

Vị trí dịch vụ và chuỗi


Khái niệm chuỗi dịch vụ không nên giả định rằng các phần tử dịch vụ được đặt trong
trung tâmdài
mục tiêu dữ hạn
liệucủa
(hoặc
cáctất
nhàcả cung
các phần tử dịch
cấp dịch vụ vụ
chođều
việcđược
triểnảokhai
hóa), mặc
cạnh dù đây
/ truy cậpcó thểhọ.
của là 13

Các dịch vụ có thể được liên kết tự nhiên với các ranh giới mạng, ví dụ, bằng cách đính kèm
chính sách bảo mật đối với ranh giới mạng hoặc bằng cách chèn bộ cân bằng tải vào mạng
ranh giới. Như trong Hình 7-6 , ranh giới mạng này có thể là:

• Ranh giới giữa mạng của người thuê và mạng bên ngoài (Internet hoặc
VPN cho mạng doanh nghiệp)
• Ranh giới giữa mạng của một người thuê và mạng của người thuê khác
• Ranh giới giữa nhiều mạng của cùng một đối tượng thuê

Hình 7-6. Dịch vụ ở ranh giới mạng

Cuối cùng, các dịch vụ có thể được triển khai theo kiểu chi tiết hơn và được gắn với
các dòng chảy riêng lẻ hoặc các nhóm dòng chảy (tức là dòng chảy tổng hợp), như trong Hình 7-7 . Điều này

13. Nhiều nhà cung cấp dịch vụ đã có các trung tâm dữ liệu phân tán để hỗ trợ di động (cơ sở hạ tầng) và / hoặc video
bộ nhớ đệm (trong các trung tâm tàu điện ngầm lớn hoặc trung tâm khu vực).

Vị trí dịch vụ và chuỗi | 217

Trang 12

là mô hình quan tâm chính của các nhà cung cấp dịch vụ đám mây và trong mạng Edge / Access‐
miền làm việc cho mỗi người đăng ký dịch vụ.

Hình 7-7. Dịch vụ cho dòng chảy


Việc áp dụng các dịch vụ cho các luồng lưu lượng bao gồm một số bước:

1. Xác định các yếu tố và thứ tự và cấu hình cần thiết để triển khai
một dịch vụ. Định nghĩa này bao gồm các ràng buộc về việc bố trí dịch vụ
ments.
2. Xác định và điều khiển luồng lưu lượng truy cập vào nút dịch vụ hoặc trình tự
của các nút dịch vụ.
3. Các nhà cung cấp đã bắt đầu gắn nhãn các phương pháp luận hiện tại của họ để thực hiện chuỗi dịch vụ.
Trong trường hợp của Cisco Systems, điều này được gọi là vPath và trong trường hợp của Juniper Networks,
Đường dẫn thiết kế dịch vụ (SEP).
4. Điều khiển máy bay phát tín hiệu đến các nút dịch vụ để thông báo cho họ những dịch vụ nào sẽ áp dụng
dòng chảy đến, bao gồm các thông số dịch vụ.
5. Như chúng ta sẽ thấy ở phần sau, cũng có thể có những tối ưu hóa xung quanh vị trí ban đầu
của nút dịch vụ và / hoặc vị trí liên tục của các phiên bản dịch vụ bổ sung
để giảm bớt tắc nghẽn về hiệu suất.

Tất cả các tác vụ này rất phù hợp với bộ điều khiển SDN. Bộ điều khiển SDN có miền /
quan điểm trên toàn mạng về cấu trúc liên kết, kết nối với hệ thống điều phối (API) và khả năng
để quản lý / cung cấp lớp phủ mạng (hoặc phần trừu tượng có thể được sử dụng để so khớp
và lưu lượng truy cập trực tiếp).

Việc sử dụng bộ điều khiển SDN dường như là một kết luận hiển nhiên trong bối cảnh
chuỗi dịch vụ trong trung tâm dữ liệu, nhưng ít hơn trong các miền Edge / Access (nơi
chi phí bổ sung của một bộ điều khiển cùng vị trí có thể bị cấm nhưng tương tác tiềm năng
sự chậm trễ giữa tác nhân / bộ điều khiển có thể có vấn đề). Điều này đưa chúng ta trở lại ý tưởng về
một bộ điều khiển nhúng, được hiển thị trong Hình 7-8 (ban đầu được giới thiệu như một sự tối ưu hóa
đến vòng phản hồi kiểm soát trong các nghiên cứu liên quan đến việc xác định “chuột
và voi ”và quản lý kích thước bảng chuyển tiếp trong OpenFlow được kiểm soát
mạng). Ở đây, phần tử mặt phẳng dữ liệu kết thúc mạch ở cạnh nơi nó
có quy trình nội bộ hoạt động như một bộ điều khiển phụ nô lệ cho một bộ điều khiển chính, điều này sẽ

218 | Chương 7: Ảo hóa chức năng mạng

Trang 13

đến lượt giao diện với các ứng dụng điều phối và chỉ cần cung cấp trạng thái / quy tắc và con and
cập nhật hình tượng.

Hình 7-8. Đối với các vùng không phải trung tâm dữ liệu của mạng, quy trình điều khiển SDN được nhúng‐
es trong các phần tử mạng có thể thích hợp
Trong một môi trường hỗn hợp (tức là, các phần tử dịch vụ kế thừa và ảo hóa) hoặc hoàn toàn
môi trường kế thừa, các phần tử có thể không hỗ trợ một số đóng gói đường hầm
được sử dụng trong lớp phủ SDN hoặc tác nhân gốc kết hợp tốt với bộ điều khiển SDN. Do đó, một
hỗn hợp của các VLAN và đóng gói đường hầm, cũng như các giao thức cấu hình / điều khiển
giữa bộ điều khiển / bộ điều khiển và các phần tử mạng, có thể được yêu cầu để tạo dịch vụ
dây chuyền.

metadata
Các câu hỏi còn tồn tại vẫn còn liên quan đến việc tiêu chuẩn hóa encapsula lớp phủ‐
và (các) giao thức đối sánh lưu lượng được sử dụng để tạo chuỗi / đường dẫn dịch vụ. Những
các câu hỏi phức tạp bởi việc xem xét liệu một số loại siêu dữ liệu có thể
cần được cấy vào dòng chảy.

Sự cân nhắc sau này đến từ cả kiến thức về cách các ứng dụng dịch vụ
cho thuê được thiết kế trong các hệ thống tích hợp sử dụng siêu dữ liệu để chuyển manh mối từ một nhà cung cấp
chuyển khối sang khối khác trong hệ thống tích hợp, cũng như khối tiềm năng (như envi‐
được bố trí trong các nhóm làm việc ETSI NFV) phân rã một phần và ảo hóa
các chức năng dịch vụ (được trình bày sau trong chương này trong Hình 7-13 ).

Câu trả lời cho câu hỏi liệu có cần siêu dữ liệu hay không có thể phụ thuộc vào tầm nhìn
vai trò của bộ điều khiển và ứng dụng chuỗi dịch vụ của nó, đặc biệt là liệu
họ sẽ phải chịu trách nhiệm tạo ra một chuỗi ngăn chặn bất kỳ kiến thức liên khối nào. Nó
cũng có thể phụ thuộc vào việc liệu tầm nhìn ảo hóa có giới hạn việc phân hủy chức năng thành
cùng một thiết bị ảo hoặc tổ hợp và do đó tách một chuỗi nội bộ sử dụng một số

Vị trí dịch vụ và chuỗi | 219

Trang 14

Cơ chế IPC cho phép siêu dữ liệu nhúng nội bộ từ chuỗi bên ngoài / over‐
đặt nằm.

Các ví dụ phổ biến nhất được sử dụng làm yêu cầu mẫu cho siêu dữ liệu liên quan đến
ngữ cảnh không thể bắt nguồn từ tiêu đề gói luồng — ví dụ: dành riêng cho người đăng ký
chèn quảng cáo trong việc xử lý luồng video (trong đó một số manh mối khác được nhúng
phản ánh địa lý, sở thích hoặc các yếu tố kích hoạt khác cho việc chèn quảng cáo).

Nếu có yêu cầu về việc chuyển siêu dữ liệu giữa chức năng NFV
khối và nếu siêu dữ liệu được liên kết theo luồng so với liên kết từng gói, thì
có thể là một vai trò cho Điểm truy cập siêu dữ liệu (MAP) trong kiến trúc tổng thể. Hiện có
các thông số kỹ thuật như IF-MAP 14 có thể cung cấp các giải pháp máy chủ / giao thức để tạo và
phân phối siêu dữ liệu nhưng cần được tích hợp trong giai đoạn thiết lập luồng hoặc kiểm soát SDN
xây dựng chuỗi dịch vụ.

Siêu dữ liệu có thể là ẩn (ví dụ: được liên kết với nhãn MPLS) hoặc rõ ràng. Rõ ràng
thay vào đó, để nhúng siêu dữ liệu, có thể dẫn đến phần mở rộng hoặc chi phí trong các gói
chuyển siêu dữ liệu từ thành viên chuỗi này sang thành viên chuỗi khác mà gần như chắc chắn sẽ yêu cầu
tiêu chuẩn hóa để thúc đẩy một môi trường mở và có thể mang lại những lo ngại về tài sản thế chấp
về tính minh bạch của các luồng gia tăng như vậy đối với cơ sở hạ tầng mạng hiện có.

Phương pháp tiếp cận cấp độ ứng dụng


Điều gì sẽ xảy ra nếu chúng ta đang giải quyết khía cạnh chuỗi dịch vụ của NFV ở cấp độ sai? Chúng ta có nên
khám phá một giải pháp bằng cách sử dụng các giao thức dựa trên ứng dụng thay vì con‐ dựa trên mạng
cấu trúc? Chế độ xem cấu trúc mạng yêu cầu đường hầm vì các luồng dữ liệu có nội tại
định tuyến cần được che khuất (tức là không chuyển tiếp trên địa chỉ đích). Quan điểm này
giả định rằng các giao thức mạng có thể được điều khiển để hướng các luồng cũng như
quản lý siêu dữ liệu với sự hỗ trợ của bộ điều khiển.
Dạng xem cấu trúc ứng dụng ( Hình 7-9 ) coi các luồng dữ liệu là đầu vào ứng dụng và
kết quả đầu ra. Các ứng dụng chạy trên máy chủ (sử dụng ổ cắm rời) và những máy chủ đó có
tên có thể phân giải (DNS). Tên phiên bản dịch vụ đó với ràng buộc địa chỉ IP xác định
bộ cân bằng tải (hoặc một địa chỉ anycast cho một ngân hàng ADC / khả năng cân bằng tải —
giả định về một bộ cân bằng tải là khá phổ biến) đối với một tập hợp các thành phần chạy
dịch vụ và có nhiều cổng đầu vào và đầu ra đại diện cho các ứng dụng khác nhau
tính cách (tức là, cấu hình hoặc hành vi). Luồng hai chiều sử dụng hai
nhân cách.

14. http://www.trustedcomputinggroup.org/resources/tnc_ifmap_binding_for_soap_specification

220 | Chương 7: Ảo hóa chức năng mạng

Trang 15

Hình 7-9. Đề xuất cấp ứng dụng cho chuỗi dịch vụ thúc đẩy một
ngăn xếp để giao tiếp với các thiết bị ảo và cho phép môi trường thời gian chạy
một số dịch vụ mạng ảo hóa sử dụng bộ nhớ dùng chung để giao tiếp (một
tối ưu hóa)

Đường dẫn dịch vụ chỉ định ánh xạ từ các cổng dịch vụ nội bộ đến vận chuyển bên ngoài
các cổng cho từng dịch vụ và kết nối giữa các cổng vận tải. 15 Dịch vụ này
các đường dẫn được tạo ra từ một mô hình dữ liệu thể hiện các mối quan hệ giữa một dịch vụ
thành phần, dịch vụ và đường dẫn dịch vụ và được truyền / áp dụng từ một ban quản lý
hệ thống đến các phiên bản dịch vụ (thông qua một API chưa được xác định). Nói rõ hơn,
mô hình thể hiện mối quan hệ giữa các chức năng dịch vụ và cổng / ổ cắm bên trong
đến ánh xạ cổng bên ngoài, các thuộc tính chung hơn như chia tỷ lệ / ràng buộc và tải
cân bằng và cách các chức năng được kết nối với nhau để tạo ra một dịch vụ.

Trong khi chỉ ở giai đoạn khám phá / ý tưởng, cách tiếp cận này để xâu chuỗi thông qua một loạt các
các công nghệ khóa ứng dụng (ví dụ: DNS và ADC / LB) kết hợp với một số
công nghệ quản lý ứng dụng (ví dụ: bộ điều khiển và API của chúng) có thể được quan tâm‐
ing nếu số lượng chuỗi (và do đó đường hầm) trở nên quá tải. Như một lợi ích,
một trong những ý tưởng khác nhau được khám phá ở đây là ý tưởng rằng các yếu tố chức năng trên cùng một
thiết bị có thể sử dụng cơ chế IPC thông qua bộ nhớ dùng chung để cải thiện hiệu suất trong các trường hợp
nơi kết hợp giữa tương tác ứng dụng thông qua giao thức bên ngoài và biểu mẫu IPC nội bộ
chuôi.

15. Đây không phải là một mô tả chi tiết của ánh xạ bên trong đến ánh xạ bên ngoài.

Vị trí dịch vụ và chuỗi | 221

Trang 16

Tỉ lệ
Ngay cả khi trạng thái hiện tại của SDN làm cho việc xây dựng mạng trở nên dễ chịu, với điều kiện là nó
đã là một thực thể có sẵn mà chúng tôi có thể thử nghiệm và xây dựng, cân nhắc
xung quanh quy mô và độ phức tạp không thể bỏ qua. Quy mô và độ phức tạp cũng không thể thúc đẩy
cuộc trò chuyện tiếp cận cấp ứng dụng.

Các thành phần chính của cuộc thảo luận về độ phức tạp xoay quanh vị trí của dịch vụ
các nút và ràng buộc có thể hạn chế đường dẫn dịch vụ ( Hình 7-10 ):

• Sẽ có bao nhiêu chuỗi và những ràng buộc nào đối với việc lựa chọn đường dẫn
của chuỗi dịch vụ (ví dụ: độ trễ tổng thể của dịch vụ được cung cấp, hành chính
ranh giới và thuế quan)?
• Những ràng buộc đó ảnh hưởng như thế nào đến chính sách HA đối với một dịch vụ (ví dụ: nếu cá nhân
Các SET được thêm vào hoặc từ chuỗi nếu vị trí của chúng gây ra dòng chảy trombone trong
mạng, hay luồng không thành công với một chuỗi hoàn toàn mới)?
• Cấu trúc liên kết chuỗi sẽ thay đổi thường xuyên như thế nào và tải động / đàn hồi như thế nào
của các phần tử trong chuỗi?
• Có lợi ích nào đối với các thuật toán vị trí dịch vụ giúp giảm thiểu khả năng
tắc nghẽn mạng và đóng góp vào sự chậm trễ tổng thể trong một luồng dịch vụ?
• Chính sách đóng vai trò gì trong chuỗi dịch vụ được nhúng trong chuỗi như một
quyết định / điểm nhánh hoặc khi được biểu thị dưới dạng nhiều cấu trúc liên kết chuỗi khác nhau?
Khi nào các gói được gửi đến một dịch vụ nội tuyến từ xa (tức là không phải proxy)?

Quy mô thô cũng là một yếu tố trong cuộc thảo luận về độ phức tạp:

• Số lượng người đăng ký / phiên


• Độ dài / thời lượng của các phiên / luồng và hồ sơ độ dài gói
• Kỳ vọng về thông lượng gói và cả khả năng của chuỗi tổng thể và
từng phần tử riêng lẻ (ví dụ: bộ cân bằng tải)
222 | Chương 7: Ảo hóa chức năng mạng

Trang 17

Hình 7-10. Chuỗi dịch vụ sẽ phức tạp như thế nào? Cân bằng tải và giới thiệu HA
một yêu cầu đối với nhiều đường hầm được thiết lập giữa các nút dịch vụ. Độ co giãn và dy‐
đường dẫn namic yêu cầu khả năng tạo / xóa đường hầm quy mô lớn.

Với những tác động tiềm năng về quy mô và những hạn chế về dịch vụ tổng thể, việc bố trí trinh
các chức năng dịch vụ tual và chuỗi dịch vụ kết quả có khả năng được bản địa hóa cao.
Sự đa dạng đường dẫn cao nhất trong chuỗi có khả năng là kết nối giữa một
thiết bị miền cạnh / truy cập và ngân hàng tài nguyên COTS tập trung (trung tâm dữ liệu) —với
chuyển đổi dự phòng sang một ngân hàng tài nguyên khác.

NFV tại ETSI


Hoạt động của NFV trong ETSI hy vọng sẽ giải quyết những vấn đề này và những câu hỏi khác về dịch vụ ảo‐
sự đóng băng. NFV trong ETSI hoạt động như một Nhóm đặc điểm kỹ thuật (ISG). NFV
các nhóm làm việc ( Hình 7-11 ) sẽ không xác định các tiêu chuẩn. Thay vào đó, mục tiêu của họ là xác định
các yêu cầu, xác định các phương pháp hay nhất, xác định các lỗ hổng trong các tiêu chuẩn hiện hành, và đưa ra khuyến nghị
những lời khen ngợi về cách lấp đầy những khoảng trống đó. NFV có cơ quan tổ chức chính là công nghệ‐
ban chỉ đạo nical (TSC), và một số phân nhóm với các lĩnh vực trọng tâm cụ thể.
Các nhà cung cấp được mời đóng góp vào các cuộc thảo luận, nhưng các nhà cung cấp dịch vụ lớn thì không
quản lý danh sách các quan chức NFV theo thiết kế tổ chức. 16 Vào thời điểm cuốn sách này được viết,
không phải tất cả các nhóm đều xuất trình giấy tờ chức vụ, mặc dù tài liệu ban đầu có ghi
phạt giao diện và vai trò của họ.

16. Theo danh sách trực tuyến hiện tại của họ, chỉ có Huawei Technologies (Anh), Hewlett Packard và NEC (Châu Âu)
hiện có trạng thái "chính thức" trong bất kỳ nhóm công việc con nào.

NFV tại ETSI | 223


Trang 18

Hình 7-11. Cơ cấu / tổ chức nhóm làm việc ETSI NFV. Cả MAN và INF đều có
giao diện với NFV SWA cũng như với nhau. Các nhóm làm việc đa chức năng
(PER, REL và SEC) không có giao diện xác định với MANO, INF và SWA, nhưng
làm việc kết hợp với họ. NFV SWA dự đoán một giao diện cho OSS / BSS kế thừa
hệ thống (không hiển thị).

Quản lý và Điều phối (MANO) xác định một khuôn khổ có thể được sử dụng cho
cung cấp, cấu hình và vận hành các chức năng mạng ảo hóa (VNF) -
về cơ bản xác định một bộ điều phối kiểm soát tất cả các VNF. Người dàn nhạc MANO
có cả giao diện ứng dụng (hướng bắc) và giao diện phần tử (hướng nam).
Trong khi giao diện hướng nam được xác định trong một nhóm khác (cơ sở hạ tầng),
giao diện hướng bắc cung cấp các dịch vụ vòng đời VNF (khởi tạo, vận hành và
giám sát), lập chính sách (kiểm soát sử dụng), giám sát cơ sở hạ tầng (sẽ là
phần nào của một hàm truyền qua) và đăng ký / cấu trúc liên kết.

MANO củng cố khái niệm rằng các công cụ quản lý mới tiềm năng có thể cần phải
được thêm vào mô hình OAM & P truyền thống để xử lý các dịch vụ mạng ảo hóa (
điểm đã được đưa ra trước đó rằng bộ điều khiển SDN có thể được định vị duy nhất như một
chủ thể quản lý). Trong trường hợp MANO, điều này được đề xuất là Bộ dàn nhạc NFV
(NFVO), sẽ giao diện với OSS / BSS kế thừa.

Vẫn còn phải xem liệu điều này có ngụ ý rằng nhiều thông tin quản lý
mà có thể đã được thu thập bởi bộ điều khiển / cơ chế tác nhân SDN hoặc là đại diện
bực bội bởi giao diện ứng dụng này, giao diện ứng dụng khác hoặc một số nội dung
giao diện ở cấp bộ điều khiển SDN với OSS / BSS kế thừa. Trong ví dụ về DC Or‐
ngực, nền tảng MANO Orchestration có thể hoạt động kết hợp với Đám mây
Hệ thống Quản lý, được hiển thị một cách hợp lý bên dưới Dàn nhạc MANO trong một số
Tài liệu NFV.

224 | Chương 7: Ảo hóa chức năng mạng

Trang 19

Một phần của công việc MANO sẽ là xác định các mô hình dữ liệu (Yang, TMN) cho các
nhiệm vụ / giao diện và cung cấp một API mở. Công việc này bao gồm các mô hình mạng và đám mây
(hợp tác với NFV INF) có thể cho phép tạo ra một quản lý vĩ mô
ứng dụng (một Trình quản lý của Nhà quản lý?) cho cơ sở hạ tầng ảo.

khảđâu đó đáp
năng trongứng
chức
nhunăng
cầu điều
và cóphối, cần cócung
khả năng khả cấp
năng ánh
cấu xạ liên
trúc chứckết
năng
dịch vụ bao gồm cả
API và thành phần trực quan hóa. Bộ điều khiển SDN sẽ cần quản lý cấu trúc liên kết
và ánh xạ điểm cuối.

Hình 7-12. Tương tác của các nhóm công việc ETSI MANO, INF và SWA (SWA xem với
các nhóm chức năng bên trong được đề xuất)

Cơ sở hạ tầng— (NFV INF) xác định cơ sở hạ tầng chung cho NFV. Như được hiển thị trong
Hình 7-12 , mục đích là bao gồm cả phần cứng và phần mềm. Nhóm này đã được
rất tích cực trong việc biên soạn tài liệu và đã lập danh mục khoảng 14 liên
giao diện miền trong kiến trúc NFV. Họ chịu trách nhiệm giới thiệu
kiến trúc cấp siêu giám sát hợp lý hóa I / O và giảm thiểu chuyển đổi ngữ cảnh như
cũng như mô hình dữ liệu được đề cập trong phần MANO.

Đã có một cuộc thảo luận tốt về chiến lược tối ưu hóa I / O nào com
mon trong miền phù hợp nhất cho hiệu suất NFV (ví dụ: DPDK so với SR-IOV).
Chủ đề này phụ thuộc vào kiến trúc Độ tin cậy và Tính khả dụng được đề xuất,
vì cái sau có thể bao gồm khái niệm chuyển động VM, có thể loại trừ một

NFV tại ETSI | 225

Trang 20

chiến lược tối ưu hóa của SR-IOV. Trong cuộc thảo luận, trường hợp SR-IOV đã được thực hiện
ít thân thiện với VM-motion. 17

Kiến trúc phần mềm— (NFV SWA) xác định các trường hợp sử dụng và cách các giải pháp nên
có cấu trúc và có thể được phân rã thành các khối chức năng.

Một trong những câu hỏi thú vị đối với NFV nói chung là những dịch vụ nào có thể được ảo hóa
và theo phương pháp nào. Có một loạt các giải pháp tiềm năng, từ các
dịch vụ chạy như một máy ảo duy nhất thông qua nhiều phần (một dịch vụ bao gồm các chức năng
khối phụ), dịch vụ ảo hóa hoàn toàn cho dịch vụ phải chạy trên kim loại trần. Ghi chú
rằng cái sau vẫn có thể hưởng lợi từ điều phối từ góc độ hoạt động.

NFV SWA tin rằng các chức năng ảo hóa sẽ có thể tương tác trực tiếp
với INF hoặc gián tiếp thông qua MANO để thể hiện các yêu cầu hoạt động (ví dụ: com‐
pute, lưu trữ, bảo mật, QOS, tài nguyên bộ nhớ và các yêu cầu hỗ trợ (ví dụ: mon‐
itoring, đo sáng và thanh toán).

• Nhóm chức năng xử lý tín hiệu điều khiển được đề xuất của họ sẽ tập trung vào authen‐
quy định / ủy quyền, chính sách, quản lý nhà nước, liên quan đến di chuyển và di chuyển
hỗ trợ các chức năng, bao gồm thu thập hồ sơ cuộc gọi và chặn hợp pháp.
• FG Xử lý Dữ liệu Người dùng được đề xuất của họ sẽ tập trung vào chuyển tiếp gói tin, lặp lại
cation, đếm, xử lý, cân bằng tải và chỉ đạo lớp ứng dụng (ví dụ:
Ủy quyền).
• Dữ liệu và Lưu trữ được đề xuất của họ FG sẽ tập trung vào việc lưu trữ và quản lý dữ liệu.

Trong SWA, NFV xây dựng dựa trên khái niệm SEP của một SET (trong NFV, bây giờ được gọi là VNF), trong đó
một SET hoặc chức năng dịch vụ có thể được phân tách thành các bộ phận thành phần hoặc các khối chức năng
(giả sử tập hợp có thể bao gồm nhiều hơn một khối chức năng — ví dụ: tín hiệu
xử lý, quản lý giao dịch và xử lý nội dung).

Nếu được phân tách thành nhiều khối chức năng, các khối đó sau đó có thể chạy trong nhiều
sắp xếp có thể. Do đó, mô tả các mối quan hệ và com cũng được yêu cầu
giao tiếp giữa các bộ phận, hành vi hoạt động và các ràng buộc (ví dụ: cấu trúc liên kết).

Các bộ mô tả chức năng này tương tự như các chính sách được đính kèm với các ứng dụng SDN,
sẽ được thể hiện thành / áp đặt trên bộ điều khiển SDN. Các chính sách như vậy chỉ rõ từng
định tuyến của ứng dụng, bảo mật, hiệu suất, QoS, hàng rào địa lý, kiểm soát truy cập, consis‐
thời hạn, tính khả dụng / phục hồi sau thảm họa và các thông số / kỳ vọng hoạt động khác.

Một nhiệm vụ rất quan trọng đối với SWA là xác định các bộ mô tả theo cách cho phép
cung cấp dòng chảy. Đó là, trong khi hệ thống điều phối và bộ điều khiển SDN

17. Mặc dù chưa có gì được quyết định tại thời điểm này, nhưng ví dụ này được sử dụng nhiều hơn để chỉ ra tiềm năng
sự phụ thuộc giữa các nhóm con NFV. Có thể có thêm sự phụ thuộc vào kết quả từ NFV PER
thử nghiệm.

226 | Chương 7: Ảo hóa chức năng mạng

Trang 21

có thể cộng tác về vị trí, điều chỉnh và khởi tạo các chức năng mạng,
cấu hình riêng lẻ và cấu hình tổng hợp có thể khá phức tạp — và hiện đang
nhà cung cấp cụ thể.

Định dạng ảo mở (OVF) (hiện là tiêu chuẩn thực tế để đóng gói


máy ảo) có khả năng thể hiện một số siêu dữ liệu cấu hình ngày nay nhưng
không có khả năng cấu hình phức tạp tiềm ẩn của một số dịch vụ đã hình dung
và do đó cần được mở rộng hoặc tăng cường.

Mục đích là để người vận hành không phải thoát khỏi các thực thể cấu hình riêng biệt
sau tạo, tránh chỉnh sửa tập hợp các máy bao gồm
dịch vụ cá nhân hoặc tổng hợp.

Một trong những ví dụ được sử dụng là ứng dụng Evolved Packet Core (EPC) (nói chung),
có thể được chia nhỏ thành các chức năng sau: xử lý chính sách / bộ quy tắc, người dùng /
quản lý trạng thái phiên, xử lý gói lớp 3, chức năng chỉ đạo lưu lượng lớp 7,
và như thế. Sự phân rã chức năng này được minh họa trong Hình 7-13 .
Hình 7-13. Suy giảm chức năng. Nếu một dịch vụ (ví dụ: EPC) được ảo hóa, tất cả
các thành phần con chạy trong cùng một máy ảo, trong các máy ảo riêng biệt trên cùng một máy chủ, như riêng biệt
Máy ảo trên các máy chủ khác nhau trong cùng một miền logic (ví dụ: trung tâm dữ liệu) hoặc riêng biệt
Máy ảo trên các máy chủ khác nhau trong nhiều miền logic (ví dụ: trung tâm dữ liệu và tổng hợp)?

Bảo mật (NFV SEC)


Xác định cách bảo mật cả cơ sở hạ tầng và các chức năng dịch vụ ảo hóa
(bao gồm cả API). Điều này cũng sẽ bao gồm xác thực, quản lý danh tính,
giám sát, phát hiện và giảm thiểu các mối đe dọa.

Hiệu suất và quy mô (NFC PER)


Điều này là hiển nhiên. Nhóm sẽ thử và xác định các phương pháp thực hành cung cấp
hiệu suất, mô tả sự cân bằng hiệu suất / quy mô / tính di động và hiện tại

NFV tại ETSI | 227

Trang 22

dữ liệu kiểm tra hiệu suất (một số nhà cung cấp dịch vụ đã đề xuất các bài kiểm tra bao gồm cả tác động lên
hiệu suất của việc sử dụng các NIC của nhà cung cấp khác nhau và các loại I / O mech‐
anisms).

Độ tin cậy và tính khả dụng (NFV REL)


Xác định các phương pháp triển khai và quản lý đảm bảo độ tin cậy và khả dụng‐
sự nhanh nhẹn. Tại thời điểm này, họ đã xác định một số thuật ngữ hữu ích để diễn đạt
các yêu cầu và ràng buộc của ứng dụng: độ trễ / lưu lượng / gián đoạn / dung sai lỗi,
hiệu suất (ví dụ: yêu cầu QOS), bảo mật (không từ chối, bảo mật,
ủy quyền, v.v.), và độ tin cậy / đáng tin cậy.

Nhóm này cũng đã đề cập đến một số câu hỏi thú vị về thất bại trong chuỗi (một
phần tử hoặc chức năng không thành công trong chuỗi) và khả năng tham gia vào ứng dụng, elim‐
biểu hiện của các điểm thất bại đơn lẻ (ví dụ, hypervisor), nhu cầu về cơ chế nhịp tim
giữa các thành phần con và mô phỏng của các cơ quan giám sát (phần cứng / phần mềm)
có thể đã có mặt trong các giải pháp không ảo hóa.

NFV REL cũng sẽ giải quyết một số vấn đề tiềm ẩn trong môi trường ảo hóa
cần được giải quyết để triển khai cấp nhà cung cấp dịch vụ ( “Ảo hóa và dữ liệu
Máy bay I / O ”trên trang 208 ).

Các tài liệu ca sử dụng dường như đến từ một số nhóm bên cạnh SWA. Đó
là một Hội đồng Điều hành Mạng (NOC) xác định các trường hợp sử dụng và nhóm INF có
cung cấp các trường hợp sử dụng minh họa. Chúng chỉ bị giới hạn bởi trí tưởng tượng và bao gồm
chi tiết cụ thể (ví dụ: Tối ưu hóa mạng WAN, Tường lửa, Bộ định tuyến, IPTV Head-end, DPI, Khu dân cư
Gateway / CPE, Mobile Base Station và Mobile Packet Core) cũng như các loại chung chung hơn
mô tả dịch vụ (ví dụ: phân rã một phần chức năng, sử dụng mục đích xây dựng
phần cứng, tính toán chia sẻ thứ hai giữa các VNF).
Công
Sự tồn tại củaviệc không
nhóm làm phải
việc ETSI không ETSI
nên ngụ NFV
ý rằng đây là dịch vụ địa điểm duy nhất
Nghiên cứu ảo hóa và các tiêu chuẩn đang được tiến hành hoặc dịch vụ sản xuất đó còn trinh‐
các dịch vụ điều chỉnh vẫn chưa được tung ra thị trường. Điều này nằm ngoài dự đoán; cho
thí dụ:

• Cộng đồng học thuật đang bắt đầu nghiên cứu một số câu hỏi xung quanh NFV
như một phần của nghiên cứu SDN đang phát triển mà họ đang thực hiện.
• Nhiều nhà cung cấp bộ điều khiển / khung hiện tại đang nhắm mục tiêu chuỗi dịch vụ làm một
ứng dụng của họ và một số công ty khởi nghiệp (ví dụ: LineRate, Embrane) đang định vị
bộ điều khiển cho lớp 2 đến lớp 7 hoạt động với các dịch vụ ảo hóa của riêng chúng.
• Các nhà cung cấp hiện tại của các phần tử mạng tích hợp cao đang điều tra liên
trung gian hoặc ảo hóa toàn bộ nền tảng / giải pháp của họ.

228 | Chương 7: Ảo hóa chức năng mạng

Trang 23

• Mặc dù còn quá sớm để có một phần hoàn chỉnh trong bản sửa đổi này, IETF đã bắt đầu
thu hút sự quan tâm trong lĩnh vực chuỗi dịch vụ. Một nhóm công việc được đề xuất (Mạng
Service Chaining [NSC]) hiện đang thu thập các bản nháp trong BoF của mình (những con chim có lông)
giai đoạn 18 . Điều này bao gồm các dự thảo đề xuất các tiêu đề gói được chính thức hóa để thể hiện
bối cảnh dịch vụ và siêu dữ liệu cũng như nhu cầu về một dịch vụ chung được chuẩn hóa
máy bay điều khiển.

Nghiên cứu về hộp trung gian


Trong cộng đồng học thuật, các nghiên cứu gần đây đã tập trung vào việc tối ưu hóa Middlebox
thiết bị, 19 về cơ bản là các thiết bị dịch vụ ảo (hoặc một tập hợp con) được nhắm mục tiêu
bởi các nghiên cứu của NFV. Đặc biệt, các nghiên cứu tập trung vào khả năng tích hợp, quản lý và
mở rộng quy mô triển khai Middlebox hoàn chỉnh, với sự công nhận rằng chúng có thể nhiều hơn
hơn một thiết bị — một chuỗi dịch vụ.

Đại học Wisconsin có một quá trình nghiên cứu (Stratos, 20 tuổi , dường như
tiến bộ như CloudMB 21 ) đề xuất tối ưu hóa hiệu suất của các chuỗi như vậy bằng mon‐
bao gồm các luồng được phục vụ dựa trên chỉ số hiệu suất được ứng dụng báo cáo và
(sử dụng kinh nghiệm tham lam) xoay lên hoặc xuống các phiên bản của hộp trung gian cụ thể để
giảm bớt tắc nghẽn (được kích hoạt bởi sự thay đổi đáng kể về hiệu suất trong một thời gian
ngưỡng) trong khi vẫn duy trì mức hiệu suất ứng dụng được xác định trước.

Nghiên cứu cũng liên quan đến việc tối ưu hóa vị trí hộp trung gian ban đầu,
phân bổ heuristic (quy mô) và trong luồng cho các hộp trung gian để lưu lượng truy cập giữa các rack
đã được tránh (vị trí nhận biết mạng và phân phối dòng chảy) như một chai bổ sung‐
nguồn cổ.

Cũng nhấn mạnh vào việc không di chuyển các luồng hiện có (không làm gián đoạn dịch vụ hoặc làm
hành vi trước khi ngắt) trong giai đoạn tăng / giảm quy mô (giai đoạn giảm quy mô là một
hòa nhập vì có thể tiết kiệm chi phí trong thời gian mạng nhàn rỗi).

Có những khái niệm thú vị trong nghiên cứu xung quanh heuristic và một số
đơn giản hóa các giả định / xác nhận hoạt động (đối với chuỗi dịch vụ):
18. Đề xuất BOF (đề xuất cho IETF 87) và các giấy tờ liên quan hiện đang được đăng trực tuyến (mặc dù tài liệu
ments có thể chuyển sang trạng thái lưu trữ sau BOF).

19. Đây là những nghiên cứu được trình bày và công bố công khai và không có nghĩa là một danh sách đầy đủ các nghiên cứu về
đề tài.

20. http://minds.wisconsin.edu/bitstream/handle/1793/61606/stratos_tech_report.pdf?sequence=3

21. http://www.opennetsummit.org/pdf/2013/research_track/poster_papers/final/ons2013-final28.pdf

Công việc không thuộc ETSI NFV | 229

Trang 24

• Người vận hành không muốn can thiệp thủ công chút nào (giải quyết hoàn toàn tự động‐
tion) và bản chất hoặc chức năng của hộp trung gian phần nào không liên quan đến
quy trình (hoặc có thể được thực hiện bằng quy trình).
• Giải pháp ưu tiên cho sự tắc nghẽn trong chuỗi dịch vụ có thể được giải quyết tại chỗ
(tương đối), không chuyển hướng hoặc lưu lượng truy cập “trombone (ing)” đến một phiên bản hoặc chuỗi
phân đoạn ở một vị trí khác (tức là, giảm thiểu sự phân nhánh).
• Khẳng định rằng việc giám sát không thể bắt nguồn từ các bộ đếm lưu lượng truyền thống trong
cơ sở hạ tầng vì bản chất hoạt động của một số thiết bị. Cũng không
việc giám sát đơn giản việc tiêu thụ tài nguyên trong máy ảo có thể được giả định là
phản ánh hiệu suất ứng dụng end-to-end. Do đó, ứng dụng tham gia vào
giám sát được ưu tiên. 22
• Heuristic lặp đi lặp lại được lựa chọn so với các chiến lược khác: mở rộng tất cả các hộp trung gian trong
đường dẫn, phụ thuộc vào giám sát theo chức năng cụ thể, phụ thuộc vào xử lý gói tin
ước tính thời gian và giám sát tải CPU trên các phần tử dịch vụ.

Giải pháp sử dụng tính trừu tượng cấu trúc liên kết cấp cao để định nghĩa chuỗi dịch vụ,
và bộ điều khiển trung tâm để chuyển tiếp chương trình (ví dụ: sử dụng bộ điều khiển OpenFlow).
Bộ điều khiển đã được tăng cường với một tệp cấu trúc liên kết được điền vào hộp trung gian
và các phiên bản ứng dụng mà từ đó nó có thể tạo ra các quy tắc chuyển tiếp chuỗi dịch vụ cho
cơ sở hạ tầng chuyển mạch (theo các chuỗi cấu trúc liên kết được trừu tượng hóa). Trong một nữa
nghĩa chung, sự gia tăng này làm thay đổi cấu trúc liên kết (đơn giản) truyền thống và đường dẫn com‐
đặt bộ điều khiển để nhận biết dịch vụ.

Hệ thống / quy trình hoạt động cùng với hệ thống điều phối máy ảo để ban đầu
đặt các máy ảo dịch vụ và thêm / bớt các trường hợp khi heuristic quay lên / xuống
tỉ lệ.

Slick 23 có một cú đánh khác. Mặc dù ngữ nghĩa của các giao thức SDN đã hứa hẹn
khả năng chuyển đổi một (v) chuyển đổi thành một thiết bị dịch vụ mạng, hạn chế ở cả hai
giao thức và các triển khai hiện có đã ngăn cản việc nhận ra khả năng đó.
Slick điều hướng hai lĩnh vực rộng lớn: giải quyết các hạn chế của tĩnh hiện có
ngữ nghĩa của đối sánh luồng trong SDN và (có thể vô tình) chuỗi dịch vụ động‐
ing.

Trong dự án này, bộ điều khiển chuyên biệt nói chuyện với một tác nhân (bộ điều khiển và tác nhân Slick)
trên thiết bị có thể lập trình được (ví dụ: máy chủ, có khả năng có mạng lập trình được
phần tử — FPGA, NPU, GPU) để tải động các chức năng ứng dụng và cung cấp
trả về kích hoạt cho bộ điều khiển từ các chức năng đó.

22. Đây không phải là một quan điểm duy nhất cho các mạng lớp phủ nói riêng (ví dụ: Mạng Lớp phủ Phục hồi ).

23. http://www.opennetsummit.org/pdf/2013/research_track/poster_papers/final/ons2013-final51.pdf
230 | Chương 7: Ảo hóa chức năng mạng

Trang 25

Giao diện ứng dụng với bộ điều khiển để cài đặt các chức năng trong mạng cùng với
một tập hợp các thông số kỹ thuật của luồng. Kiểm soát viên có trách nhiệm bố trí
các chức năng (điểm chung với CloudMB) và thiết lập đường dẫn cho các luồng
chức năng.

Hình 7-14. Một kỹ thuật tối ưu hóa hộp trung gian lặp đi lặp lại; khi khách hàng web báo cáo
ngoài thời gian phản hồi thông số kỹ thuật, bộ điều phối (kết hợp với bộ điều khiển SDN
troller) lặp đi lặp lại cố gắng thêm dung lượng (bản địa hóa) vào các hộp trung gian khác nhau trong
đường dẫn dịch vụ để tháo gỡ nút thắt cổ chai

Khái niệm này dường như phá vỡ sự tích hợp theo chiều dọc của các hộp trung gian bằng cách loại bỏ
chỉ định chức năng ưu tiên (ví dụ: thiết bị không còn là tường lửa nữa, nhưng
có thể thực hiện một số chức năng của tường lửa). Vì vậy, Slick không chỉ giới thiệu dịch vụ
chuỗi nói chung mà còn là định nghĩa của một dịch vụ ảo hóa.

Embrane / LineRate
Mặc dù Embrane không được đưa vào chương khảo sát về bộ điều khiển của cuốn sách, nó có thể
được coi là một bộ điều khiển SDN rất chuyên biệt phù hợp với cuộc thảo luận của NFV.
Tiếp thị ẩn Heleos, một nền tảng cho phép cung cấp mạng ảo
các dịch vụ. Vì nó không phụ thuộc vào bất kỳ giao thức SDN chuẩn hóa nào và tích hợp
ứng dụng quản lý dịch vụ trực tiếp vào ứng dụng của họ, bộ điều khiển điều khoản,
hệ thống điều phối và quản lý hơi mờ. (Điều này đang trở thành một
chủ đề trong SDN nói chung!) Giống như một số kiến trúc bộ điều khiển / tác nhân SDN khác, Em‐
quy trình kiểm soát của brane (ESM — Trình quản lý dịch vụ đàn hồi) chỉ hoạt động với
thiết bị (DVA — Thiết bị ảo được phân phối). DVA về cơ bản là một dịch vụ ảo
phần tử cho máy tính COTS. Embrane hiện cung cấp tính năng cân bằng tải và tường lửa
các dịch vụ.

Công việc không thuộc ETSI NFV | 231

Trang 26
Một trong những câu hỏi lớn với giải pháp như Embrane và công bằng mà nói, với tất cả SDN-
như các giải pháp sắp được tung ra thị trường, liệu nó có phát triển một hệ sinh thái mở cho
phát triển và quản lý các ứng dụng của bên thứ ba hoặc tiếp tục giảm giá trị
con đường đạo đức. Nếu nó chọn cái sau, liệu khách hàng có chấp nhận giải pháp trong
những con số đủ lớn để tạo ra một số loại tiêu chuẩn thực tế cuối cùng là một câu hỏi công bằng
để yêu cầu giải pháp này.

Hệ thống LineRate đã được F5 Networks mua lại. 24 LineRate kéo dài ra khỏi công việc tại
Đại học Colorado và có một sản phẩm (công khai) vào thời điểm đó, Bộ cân bằng tải ảo
(LineRate Proxy). Dịch vụ ảo là một proxy lớp ứng dụng đầy đủ do ex‐
chính sách ternal với khả năng chỉ đạo giao thông. Đây là một sản phẩm rất liên quan đến
thảo luận về các dịch vụ ảo hóa / NFV. LineRate khác với Embrane ở chỗ
dường như không có kiến trúc bộ điều khiển / tác nhân hoặc cung cấp bộ điều khiển riêng biệt.
Thay vào đó, nó cung cấp một máy chủ chính sách bên ngoài. LineRate đã có một quan điểm thú vị‐
chú ý đến định nghĩa của SDN và sự phân rã của các chức năng mạng:

• LineRate có vẻ như là một cách tiếp cận giống DPI đối với SDN nhưng tuyên bố là
khác bởi vì nó không điều khiển lưu lượng truy cập dựa trên kết hợp / chuyển tiếp dựa trên gói
hành vi cư xử. Thay vào đó, nó sử dụng khả năng lưu vào bộ nhớ cache và phát lại các yêu cầu cấp ứng dụng
kết hợp với các chính sách áp dụng cho các phản hồi để thực hiện chỉ đạo. Điều này cho phép
giải pháp để có thể đưa lại yêu cầu đến một nguồn khác hoặc một cơ quan
dịch vụ nhật ký, ví dụ, tối ưu hóa video.
• LineRate chỉ ra trong tài liệu tiếp thị của mình rằng có lẽ là mạng tích hợp
dịch vụ (ví dụ: EPC) phân hủy, giải pháp LineRate được định vị để thậm chí còn
hiệu quả như một điểm kiểm soát.

NFV làm việc trong ETSI có những đóng góp cũng cho thấy rằng một số hỗn hợp
điều khiển chẳng hạn như đối sánh luồng tương tự như được tìm thấy trong OpenFlow và điều khiển cảm ứng cao
chẳng hạn như proxy đầy đủ, có thể cần thiết ở những nơi khác nhau trong luồng. Điều khiển cảm ứng thấp
sẽ hữu ích trong việc thiết lập luồng và thực hiện một số chỉ đạo vị trí và cảm ứng cao
kiểm soát sẽ được sử dụng để phân chia hoặc tổng hợp lưu lượng truy cập.

Cả Embrane và Linerate đều đã quảng cáo các mô hình cấp phép linh hoạt bao gồm keyless,
dựa trên việc sử dụng và các tùy chọn đăng ký (mỗi công ty sử dụng các thuật ngữ khác nhau cho
những mô hình này, nhưng ý tưởng giống nhau). Vì giá cả / cấp phép có thể khá linh hoạt, nó
có thể nhanh chóng trở thành lịch sử. Nhưng việc cấp phép vẫn là một vấn đề quan trọng khác trong
thảo luận về NFV hoặc ảo hóa dịch vụ. Ví dụ: mô hình định giá dựa trên mức sử dụng
sẽ đáng mong đợi hơn với các tối ưu hóa và tự động hóa như những gì được trình bày bởi
Stratos / CloudMB (hoặc các vòng lặp phản hồi giống như các vòng lặp được hiển thị trong các chương trường hợp sử dụng sau này
tối ưu hóa lưu lượng gửi đến các nút dịch vụ).

24. http://www.f5.com/about/news/press/2013/20130211/

232 | Chương 7: Ảo hóa chức năng mạng

Trang 27

Ảo hóa nền tảng


Các mạng nhà cung cấp dịch vụ hiện tại đã phát triển thành một tập hợp các
các yếu tố hoặc nền tảng tích hợp. Ví dụ: thiết kế cơ bản của định tuyến lõi
nền tảng là chuyển tiếp các gói với tốc độ cực cao và độ trễ thấp với gói‐
lão hóa nhạy cảm với dấu chân vật lý, tiêu thụ điện năng và nhiệt liên quan. Các
vị trí của nền tảng này ở cạnh mạng / nhà cung cấp, nơi có thể phải đánh đổi lại
phân vân giữa tốc độ chuyển tiếp, quản lý trạng thái phiên, quy mô phiên giao thức và
các dịch vụ khác — có thể khó khăn nếu không có một bộ lưỡi chuyển tiếp hoàn toàn khác
và lưỡi dao dịch vụ.

Theo thời gian, một số nhà cung cấp đã trở thành chuyên gia đóng gói một số loại nền tảng nhất định.
Các ví dụ phổ biến nhất là Cổng mạng băng thông rộng và Gói phát triển
Thành phần cốt lõi. 25

Khi SDN bắt đầu được khám phá bởi các nhà khai thác mạng, các đối thủ cạnh tranh với “ông lớn
nhà cung cấp ba hoặc bốn ”của các nền tảng này bắt đầu khám phá các mô hình đóng gói mới
giảm chi phí và tận dụng một số nguyên tắc của ảo hóa dịch vụ.

Các thiết kế chung được đưa ra là sử dụng Bộ điều khiển SDN (ví dụ: một OpenFlow
bộ điều khiển) sang trạng thái chuyển tiếp chương trình thành một chuyển đổi (đơn giản hơn và chi phí thấp hơn nhiều)
phần tử và tạo trạng thái cụ thể của ứng dụng (giao thức hoặc trạng thái phiên người dùng) trên as‐
ứng dụng dựa trên máy chủ được xã hội hóa. Ngoài ra còn có các dự án (đã đề cập trước đó)
để thay thế hoặc tập trung các chức năng của thế hệ bộ định tuyến hiện tại với giá rẻ hơn
các thành phần như RouteFlow (BGP và IGP trên OpenFlow) hoặc Flexinet (BGP trên Open‐
Flow) và công việc gần đây hơn với IP Infusion 26 (ZebOS BGPD).

Các nhà cung cấp truyền thống đang phản ứng bằng cách ảo hóa quả treo thấp trong mạng truyền thống‐
hoạt động công việc như BGP Route Reflector (vRR); Hình 7-15 . Những thiết bị này là
cố ý không nằm trong mặt phẳng dữ liệu theo thiết kế và do đó dễ dàng chuyển đổi nhất thành
chạy trong máy ảo.

Nếu vRR có giao diện lập trình chuẩn hóa và bộ điều khiển / tác nhân được chuẩn hóa
phiên kiểm soát, nó trở thành một điểm tập trung kiểm soát SDN tiềm năng. Sau đó, hiện tại
Triển khai Edge của nhà cung cấp bắt đầu giống như triển khai SDN (ngay cả khi chúng tiếp tục
để tận dụng mặt phẳng điều khiển phân tán hiện tại cho hầu hết các phần), cung cấp một cầu nối
giữa các hoạt động hiện tại và một hoạt động trong tương lai được ảo hóa hơn.

25. Xem http://www.virtualization.net/5653-carrier-sdn-solutions-virtualized-epc/ hoặc http://www.huawei.com/en/


about-huawei / newsroom / press-release / hw-196147-sdn.htm (Huawei cũng đã gửi vBNG dưới dạng sử dụng NFV
trường hợp.)

26. http://www.ipinfusion.com

Công việc không thuộc ETSI NFV | 233

Trang 28
Hình 7-15. Bộ phản xạ tuyến đường ảo khái niệm (vRR) làm điểm điều khiển có thể lập trình
cho mạng nhà cung cấp dịch vụ (ví dụ: đưa các tuyến vào mạng tổng hợp)

Mô hình này đã được khám phá trong Juniper Networks / Contrail và ALU / Nuage SDN con‐
xe đẩy và đang xuất hiện trong các bài thuyết trình của các phần tử mạng truyền thống, khác
của họ. Điều này đặc biệt dễ hình dung trong ngữ cảnh trung tâm dữ liệu, nơi một Pro‐ ảo
vider Edge (vPE) biểu hiện dưới dạng vRR và tác nhân dựa trên máy chủ đồng hành (chương trình nào
một thực thể định tuyến dựa trên siêu giám sát cho mặt phẳng chuyển tiếp / dữ liệu) như một mặt phẳng điều khiển và
các máy ảo của đối tượng thuê xuất hiện dưới dạng các thực thể Cạnh khách hàng (vCE) ảo. Tuy nhiên, vCE có thể
cũng được thành lập như một phần của việc cung cấp dịch vụ được quản lý cho thị trường VPN doanh nghiệp
để tập trung / tối ưu hóa quá trình xử lý cho WaaS, IPSec và các dịch vụ khác (bề ngoài là
sử dụng đường hầm của các dòng chảy). Xem Hình 7-16 để biết bản vẽ khái niệm của vCE
đề nghị.

234 | Chương 7: Ảo hóa chức năng mạng

Trang 29

Hình 7-16. Đề xuất vCE của Fang / Bitar từ MPLS & Ethernet World Congress 2013

Ngoài ra còn có các chiến thuật cho phép các nhà cung cấp phần tử mạng truyền thống tăng dần
tách danh mục dịch vụ khỏi phần cứng của họ. Ví dụ: một số nhà cung cấp có
các chương trình cho phép các dịch vụ của họ chạy trước trên các máy chủ được kết nối (sử dụng các phần mở rộng để
SDK / API của họ được sử dụng để chuỗi các dịch vụ trong nền tảng tích hợp) trước ulti ul
ảo hóa dịch vụ. Điều này cho phép một số quy mô tạm thời của dịch vụ trên com‐
mon tính toán trong khi điều phối chuỗi và các giao thức trở nên rõ ràng ( Hình 7-17 ).

Công việc không thuộc ETSI NFV | 235

Trang 30

Hình 7-17. Các chiến lược ảo hóa dịch vụ chuyển tiếp / tích hợp

Dịch vụ có thể chạy trên NPU nội bộ hoặc các lá CPU, COTS được kết nối bằng cách sử dụng các phần mở rộng API
cho phép quản lý nội bộ và các kỹ thuật chuyển tiếp / chuỗi được sử dụng trên
máy tính kết nối và cuối cùng là một thực thể độc lập được kiểm soát bên ngoài. Cấp độ này
ảo hóa và chuỗi, mặc dù độc quyền, cho phép một số quy mô trên COTS
tính toán và có thể được kết hợp với cân bằng tải cấp ứng dụng và tĩnh cục bộ hóa
định tuyến để tạo các dịch vụ mới (ví dụ: Cổng cung cấp dịch vụ của không gian di động). Trong
mô hình này, tuy nhiên, người quản lý dịch vụ ảo hóa có thể là bộ định tuyến / chuyển mạch
(đặc biệt là trong mô hình thiết bị kết nối). Thiếu bất kỳ tiêu chuẩn hóa tức thời nào
trong các giao thức chuỗi dịch vụ và đóng gói, các chuỗi dịch vụ thị trường sơ khai có thể
được tạo bằng kỹ thuật đóng gói GRE và kỹ thuật rò rỉ tuyến ( Hình 7-18 ).

236 | Chương 7: Ảo hóa chức năng mạng

Trang 31

Hình 7-18. Chuỗi dịch vụ sử dụng các phiên bản định tuyến

Nhiều nhà cung cấp dịch vụ công cộng (tổng hợp băng thông rộng) cũng đang tìm cách chuyển sang
thiết bị CPE ảo hóa (vCPE). Những khám phá này đã trở lại thành những ý tưởng
thiết bị PE (Cạnh nhà cung cấp) phân đoạn để tổng hợp băng thông rộng (BNG / BRAS) cũng có thể
có hiệu quả như một thực thể ảo (vPE). Động lực cho vCPE cho các nhà cung cấp dịch vụ là để kích hoạt
việc tạo ra các dịch vụ mới, giảm chi phí và giảm các cuộc gọi chăm sóc khách hàng bằng cách di chuyển
các chức năng của CPE lớp 3 (được cho là đã cạn kiệt) đến sự kết hợp của CPE lớp 2
và phần cứng COTS chạy các dịch vụ cơ bản CPE lớp 3 (ví dụ: NAT, DHCP, DNS) và
có thể là các dịch vụ nâng cao / trong tương lai (ví dụ: bảo mật, HTTP Proxy, v.v.); xem
Hình 7-19 .
Hình 7-19. Ảo hóa chức năng mạng được áp dụng cho CPE lớp 3 trong cung cấp dịch vụ‐
mạng er (bằng chứng về khái niệm)

Công việc không thuộc ETSI NFV | 237

Trang 32

Công việc này cuối cùng dẫn đến các cuộc điều tra xem liệu chức năng BNG có thể
tích hợp với chức năng vCPE ( Hình 7-20 ).

Hình 7-20. Một nền tảng tổng hợp băng thông rộng được xây dựng bằng cách tích hợp và ảo‐
phát huy các chức năng của cả BNG và CPE

Công việc trong lĩnh vực này (ngoài bằng chứng về khái niệm) bao gồm cả việc nghiên cứu kết quả hoạt động
vị trí của các chức năng ảo hóa (ví dụ: phía nam hoặc phía bắc của BNG, đồng
đặt với AN, v.v.) và cách chức năng tích hợp có thể được phổ biến cho
tạo ra một giải pháp có thể mở rộng theo chiều ngang. Điều này bao gồm các chiến lược vùng chứa và I / O opti‐
các chiến lược giảm thiểu cũng đang được nghiên cứu / thảo luận trong các diễn đàn ETSI NFV.

Các giải pháp tích hợp hiện tại (đối với ví dụ vCPE / vBNG) có giá rất thấp
điểm cho mỗi thuê bao mà các dịch vụ ảo hóa mới sẽ phải đáp ứng. Nên những
các thiết kế nền tảng ảo mới khả thi về mặt kỹ thuật, nó có thể chỉ ở một số điểm trong
trong tương lai rằng chi phí cho mỗi người đăng ký phù hợp với trường hợp kinh doanh (khi giá COTS / perfor‐
đường cong mance vượt qua các ngưỡng thích hợp).

Kết luận
Ảo hóa chức năng mạng là một ý tưởng hơi cũ khi lần đầu tiên được đưa ra
không thực sự có khả năng thành hiện thực, nhưng giờ đây với sự ra đời của SDN, điều phối
các kỹ thuật và tiến bộ ảo hóa hiện đang được hiện thực hóa. Cũng giống như nó làm cho
mặt phẳng điều khiển, các khái niệm và cấu trúc SDN cho phép nhà cung cấp dịch vụ và người dùng suy nghĩ lại
các giả định được xây dựng trong phương pháp hiện tại để cung cấp một mặt phẳng dịch vụ hoặc cung cấp
các dịch vụ sử dụng cấu trúc nền tảng dịch vụ mới được ảo hóa và có thể tạo ra. Ảo hóa
một mình không giải quyết tất cả các vấn đề triển khai dịch vụ và thực sự giới thiệu
vectơ vấn đề trách nhiệm pháp lý mà hệ thống hoặc kiến trúc điều phối dịch vụ phải
giảm nhẹ.

238 | Chương 7: Ảo hóa chức năng mạng


Trang 33

Mặc dù ảo hóa là trọng tâm của chương này và nỗ lực của NFV,
thực tế là sự phối hợp và chuỗi liên quan cần phải có
một phạm vi bao gồm dịch vụ tích hợp đầy đủ hiện tại và tương lai‐
(ít nhất là cho đến thời điểm mà các đặc điểm I / O của
các giải pháp ảo hóa làm lu mờ chúng và một số giai đoạn "đuôi" trong đó chúng
sẽ khấu hao).
Không rõ liệu chi phí xử lý mặt phẳng dữ liệu có tồn tại hay không
ngày nay trong môi trường ảo hóa sẽ làm cho một mức độ lớn
đa chức năng trong máy chủ dịch vụ ảo thực tế. Một trong những thực tế
đến của NFV sẽ là sự tích hợp của dàn nhạc và SDN cho
chỉ đạo giao thông và tăng / giảm quy mô theo yêu cầu.

Rất nhiều nghiên cứu đã bắt đầu phân rã các dịch vụ hiện có thành func‐
các yếu tố và ý kiến khác nhau về mức độ chi tiết của sự phân hủy này. Suy tàn‐
vị trí cuối cùng sẽ ảnh hưởng đến khả năng phục hồi chuỗi dịch vụ và yêu cầu về tính khả dụng‐
xu cho cả dịch vụ tổng thể cũng như các yếu tố riêng lẻ của nó. Nó tiếp tục tác động
quy mô và mức độ phức tạp của hoạt động. Tổng số các yếu tố chức năng, dịch vụ
chuỗi và các ràng buộc về cách các chuỗi đó được xây dựng và vận hành cần phải được
được xác định và chỉ có thể được biết thông qua triển khai thử nghiệm và thử nghiệm. Làm sao-
bao giờ hết, các chuỗi này sẽ phải kết hợp cả yếu tố dịch vụ ảo và không ảo.

Trong khi chuỗi dịch vụ được kết hợp với NFV, vẫn phải xem nếu
các nhà cung cấp dịch vụ sẽ triển khai các chuỗi dịch vụ với mức độ rộng rãi
iance ở vị trí thực của các phần tử hoặc tiếp tục xây dựng
cấu trúc tuyến tính / đường ống tương tự như cấu trúc chúng ta thấy ngày nay mà không có chuỗi‐
ing ,. Những cải tiến của đòn bẩy NFV chủ yếu nằm ở quy mô
lên và xuống (tại chỗ) của các dịch vụ.

Mặc dù vai trò của SDN trong việc kiểm soát ảo hóa dịch vụ dường như không đồng nhất
được chấp nhận một cách linh hoạt, loại điểm kiểm soát vẫn còn đang được tranh luận. Điều này đặc biệt đúng trong
sự khác biệt trong cách tiếp cận giữa các điểm kiểm soát không trạng thái và proxy.

Nghiên cứu như vậy ở Đại học Wisconsin 27 , càng nhấn mạnh vai trò của top‐
ology trong SDN (tức là vượt ra ngoài cách biểu diễn đơn giản, một lớp) và trong
loại trừu tượng mà chúng tôi cung cấp cho hoặc thông qua các ứng dụng (trong trường hợp này là ngôn ngữ để xác định

27. Nghiên cứu học thuật nói chung là một công cụ tuyệt vời cho SDN và các ứng dụng của nó — đây chỉ là một
thí dụ.

Kết luận | 239

Trang 34
chuỗi dịch vụ). Nghiên cứu này cũng đưa ra chủ đề (thường bị lãng quên) về rắc rối‐
bleshooting trong một mô hình hoạt động mới. 28

Giống như khắc phục sự cố, bảo mật hiện đang đứng sau cuộc trò chuyện quan trọng nhất về
ảo hóa dịch vụ (như nó thực hiện trong suốt cuộc trò chuyện SDN). 29 Đây có thể là một
các lĩnh vực mà cộng đồng người dùng tiềm năng có thể mang lại cái nhìn sâu sắc nhất / đóng góp /
sự nhiệt tình (đặc biệt là những người trong số các bạn làm việc trong các hành lang sâu hơn / tối hơn của chính phủ
và chuyên môn bảo mật mũ đen). Trong khi đó, thị trường cho các dịch vụ ảo hóa đã
đang phát triển. Các nhà cung cấp giải pháp SDN chuyên biệt như Embrane đang cung cấp chìa khóa trao tay
các giải pháp (phát minh lại khái niệm dịch vụ tường lửa và cân bằng tải) và hơn thế nữa
các nhà cung cấp bộ điều khiển / khuôn khổ tổng quát hiện nói chuyện cởi mở về chuỗi dịch vụ
là một ứng dụng đích cho các nền tảng của họ (một số hệ thống điều phối trung tâm dữ liệu
đã bao gồm nhận dạng thiết bị và vị trí trong ngữ cảnh miền cụ thể).

Điều phối có thể phân bổ các vùng chứa dịch vụ trong khi SDN cung cấp kết nối
trong các kiến trúc hoặc mô hình NFV này, bao gồm một số nội dung trừu tượng tiềm ẩn ẩn
một số phức tạp đi kèm với độ co giãn. Cả hai sẽ phải làm việc hợp tác
để cung cấp tính khả dụng cao và một chế độ xem quản lý / hoạt động duy nhất. Trong suốt thời gian đó,
đằng sau hậu trường, OSS / BSS truyền thống không thực sự được thiết kế để quản lý
các dịch vụ bị phân hủy của NFV và ghép nối NFV Orchestration / SDN sẽ phải
cung cấp một quá trình chuyển đổi. Các hệ thống này sẽ cần phải phát triển và thích nghi với tương lai mới
thực tế của các dịch vụ mạng ảo hóa mà NFV hứa hẹn.

Kết lại, rõ ràng là các nhà cung cấp truyền thống đang theo đuổi việc chuyển đổi trái cây thấp‐
kết hợp của các nền tảng dịch vụ tích hợp của họ thông qua ảo hóa nhằm theo dõi khi
đặc điểm giá cả / hiệu suất của việc làm như vậy có thể khả thi đối với những tương tác phức tạp hơn
điểm ở Cạnh nhà cung cấp (vCPE / vBNG / vPE). Chúng chắc chắn sẽ bao gồm sớm
cung cấp các chức năng tường lửa, DPI và cân bằng tải được ảo hóa (vì chúng rất thú vị‐
gây hại cho hầu hết các chuỗi trong sản xuất). Cuối cùng, Hệ thống phát hiện xâm nhập
(IDS), Hệ thống ngăn chặn xâm nhập (IPS), trình tắt tải SSL, bộ nhớ đệm và tối ưu hóa mạng WAN‐
ers sẽ được nhắm mục tiêu (đặc biệt đối với không gian mạng Doanh nghiệp / người thuê). Vết bỏng‐
câu hỏi đặt ra là liệu những biến đổi này có đủ sớm để cho phép tra‐
các nhà cung cấp thiết bị phần cứng khác nhau để bắt kịp với những xu hướng này hoặc nếu mới hơn
những người đương nhiệm sẽ có thể có một chỗ đứng vững chắc.

28. Hiện có các bản nháp để tạo một chức năng giống OAM trong lớp phủ VxLAN, nhưng sự cố tổng quát‐
các công cụ bleshooting tương đương với OAM, ipsla, ping, traceroute (vì chúng áp dụng cho điều khiển phân tán của
lớp phủ) vẫn cần phổ biến trong vô số môi trường lớp phủ.

29. Mặc dù vậy, theo ghi nhận của họ, cả diễn đàn ETSI NFV và ONF đều đã bắt đầu các nhóm con bảo mật (trước đây
công bố mục tiêu của một khuyến nghị thực hành tốt nhất vào năm 2013).

240 | Chương 7: Ảo hóa chức năng mạng

Trang 35

CHƯƠNG 8
Cấu trúc liên kết mạng và cấu trúc liên kết
Thông tin trừu tượng
Giới thiệu
Thông tin cấu trúc liên kết và tính khả dụng của nó đối với các ứng dụng muốn sử dụng những gì
lượng vàng hiếm trong thế giới mạng từ lâu đã có sẵn cho một số ít
các ứng dụng. Các ứng dụng này phải đáp ứng một số tiêu chí quan trọng. Đầu tiên, họ cần
thông thạo một trong nhiều giao thức định tuyến. Và thứ hai, họ phải được phép
tham gia định tuyến theo nghĩa đen: họ phải gắn trực tiếp vào mạng định tuyến—
điều này không chỉ tốn nhiều công sức của một máy chủ và cắm nó vào mạng.

Nó thường yêu cầu ứng dụng phải có cùng bảo mật và chất lượng khác
các rào cản đảm bảo mà bất kỳ thiết bị mạng nào khác trong mạng đó phải mắc phải. Điều này
thường mất nhiều năm thử nghiệm để hoàn thành. Và khi khoảnh khắc đó đến khi
ứng dụng đã được cho phép trên mạng, việc nắm bắt cấu trúc liên kết mạng của nó sau đó vẫn
giới hạn đối với cấu trúc liên kết đang hoạt động — cấu trúc này được sử dụng để thực sự định tuyến hoặc điều khiển lưu lượng truy cập
tại thời điểm đó trong thời gian.

Không hoạt động hoặc không hoạt động thông tin topo thường không cần thiết cho việc định tuyến cal-
cao điểm và do đó không được thực hiện trong bất kỳ trao đổi giao thức định tuyến nào. Thông tin này
là cần thiết cho một số ứng dụng, như được giải thích ở phần sau của chương này, và do đó, để đạt được
thông tin đó ứng dụng vẫn phải định vị nó theo cách thủ công bằng các phương tiện ngoài băng tần
chẳng hạn như giao diện dòng lệnh hoặc các giao thức quản lý khác.

Một nhược điểm cuối cùng của các phương pháp tiếp cận truyền thống đối với cấu trúc liên kết là định dạng của cấu trúc liên kết
thông tin chính nó. Thông tin, như người ta mong đợi, được định dạng sao cho
bộ định tuyến có thể nhanh chóng thu thập và xử lý cấu trúc liên kết để có máy tính định tuyến nhanh nhất‐
hoặc nếu được thu thập bằng cách sử dụng các phương pháp ngoài dải, ở một định dạng khác phù hợp với
giao diện dòng lệnh, chẳng hạn, nhưng không phải để thực hiện các phép tính khác. Không may
bẩm sinh, các định dạng này thường không tối ưu cho các mục đích sử dụng khác mà các ứng dụng này có,

241

Trang 36

và do đó họ yêu cầu xử lý thêm để làm cho nó trở nên hữu ích — đòi hỏi nỗ lực hơn nữa,
chi phí và kludges để làm cho nó hoạt động. May mắn thay, các cách tiếp cận gần đây và mới
trong lĩnh vực thông tin tôpô, việc khám phá, truy xuất và xử lý nó, đã được
thực hiện. Trên thực tế, đó là nỗ lực và cách tiếp cận mới đối với cấu trúc liên kết, cách nó được thực hiện
khả dụng cho các ứng dụng thông qua bộ điều khiển và khuôn khổ SDN, sau đó
có thể được thực hiện mà chúng tôi thảo luận trong cuốn sách này và chi tiết trong suốt chương này.

Cấu trúc mạng


Trước khi đi sâu vào chi tiết về ý nghĩa của việc thu thập, xây dựng và duy trì
cấu trúc liên kết mạng hiện đại, đặc biệt cho các mục đích của phương pháp tiếp cận SDN, hãy bước đầu tiên
trở lại và giới thiệu ngắn gọn về cấu trúc liên kết mạng.

Cấu trúc liên kết mạng là sự kết nối và mối quan hệ giữa các phần tử khác nhau
của các mạng. Cấu trúc liên kết mạng tóm lại hai yếu tố cơ bản: các nút và liên kết.
Các nút đại diện cho bất kỳ số lượng thiết bị mạng có thể có, chẳng hạn như bộ định tuyến, bộ chuyển mạch,
máy chủ, điện thoại, máy ảnh hoặc máy tính xách tay. Các nút có thể là thiết bị đầu cuối hoặc kết nối . Trong trường hợp
các nút đầu cuối, chúng tồn tại ở cuối biểu đồ và thường không kết nối với nhau
với các nút khác để chuyển tiếp lưu lượng truy cập giữa các nút khác (ví dụ: máy tính xách tay hoặc
iPhone). Các nút kết nối thực hiện những gì tên ngụ ý: chúng kết nối các nút khác với‐
gether, chẳng hạn như bộ định tuyến hoặc thiết bị chuyển mạch.

Cấu trúc tôpô của một mạng bao gồm các nút và các liên kết được kết nối với nhau
theo một trong hai cách: vật lý hoặc logic . Vật lý chỉ điều đó — mạng thực
các giao diện như cáp vật lý (tức là Ethernet) hoặc cáp quang được chạy giữa các nút.
Mặt khác, lôgic là một tập hợp các cấu trúc có chứa những thứ như ảo
giao diện hoặc đường dẫn mạng được xây dựng trên cơ sở hạ tầng vật lý. Ví dụ,
giao diện IP lớp 3 chỉ đơn thuần là một cấu trúc logic và đóng gói trên một
giao diện, chẳng hạn như Ethernet loại 5 cặp xoắn. Tất nhiên, khoảng cách giữa các nút,
kết nối vật lý hoặc tốc độ truyền của các giao diện có thể khác nhau giữa hai
các nút bất kể liên kết có logic hay vật lý hay không.

Một ví dụ về cấu trúc liên kết chứa cả liên kết logic và vật lý và các nút là
mạng cục bộ dựa trên Ethernet đơn giản (LAN) bao gồm sáu nút với vật lý
hoặc các liên kết logic giữa các nút. Trong trường hợp này, mỗi nút sẽ có ít nhất một
giao diện giữa mỗi nút, nhưng sau đó có thể là giao diện IP lớp 3 logic được xếp chồng lên
trên cùng của giao diện đó.

Nếu một người muốn hiển thị một cấu trúc liên kết như vậy một cách trực quan, nó sẽ giống như một trong số
các hình dạng hình học phổ biến như hình 8-1 . Sau đó người ta có thể lập bản đồ
luồng dữ liệu giữa các thực thể vật lý hoặc logic trên cấu trúc liên kết này như một lớp thứ hai
trực quan hóa cấu trúc liên kết trên cấu trúc liên kết cơ sở vật lý (giống nhau).

Bằng cách này, bạn có thể thấy cách cấu trúc liên kết không chỉ giúp theo dõi các thực thể thực tế như
dưới dạng các nút hoặc liên kết, mà còn cả cách những thứ đó được sử dụng hoặc trạng thái của chúng. Đối với

242 | Chương 8: Tôpô mạng và Tóm tắt Thông tin Tôpô

You might also like