You are on page 1of 15

Trả lời chương 16:

1. Sự khác nhau giữa độ tương thích tiến trình và độ tương thích của phép toán? Cái nào dễ thực thi
hơn, tại sao?
Trả lời : độ tương thích tiến trình là điểm cực trị của độ tương thích phép toán. Trong độ tương thích của
phép toán, một RPC được gởi đến vi xử lý do đó việc thực thi một phép toán hiệu quả hơn thực thi từng
node. Trong tương thích tiến trình, một tiến trình tác động mạnh đến các node ở xa, khi tiến trình tiếp tục
thực thi. Từ đó, một độ tương thích tiến trình là phần mở rộng của tương thích phép toán, cần chú ý nhiều
hơn trong việc cài đặt độ tương thích tiến trình. Đặc biệt, nó luôn là một thách thức để có thể tương thích
với tất cả các thực thi trong tiến trình, thỉnh thoảng có sự khó khăn trong quá trình mở file và mở thiết bị,
độ trong suốt và tính đầy đủ không yêu cầu một tương thích phép toán, nơi người lập trình có thể thực thi từ
xa.

2. Sự tương phản trong các mô hình mạng khác nhau theo tình thuộc tính sau:
a. Độ tin cậy
b. Băng thông khả dụng cho các giao tiếp đồng thời
c. Chi phí cài đặt
d. Cân bằng tải trong trách nhiệm định tuyến

Trả lời: mạng cung cấp kết nối đầy đủ cung cấp một mô hình tin cậy, bởi vì nếu một đường nào mất kết nối
thì sẽ có một đường nào đó tồn tại để đưa gói tin tới đích. Đối với mạng không hoàn chỉnh dễ xảy ra tình
trạng khi một đường bị mất thì gói tin không còn đường nào để định tuyến tới đích. Một cách riêng, mô
hình kết nối tồn tại nhiều mức độ tin cậy. trong mô hình cấu trúc cây, nếu bất kỳ link nào bị hỏng thì không
bảo đảm được gói tin được định tuyến. Mô hình mạng vòng thì yêu cầu hai lỗi link thì mới xảy ra trường
hợp như trên. Trong mô hình mạng sao thì một link bị lỗi sẽ không kết nối được với phần thừa, tuy nhiên
nếu node trung tâm mà hư thì tất cả mô hình mạng sẽ bị tê liệt.
Đối với tính khả dụng của băng thông trong giao tiếp đồng thời, mạng kết nối hoàn chỉnh cung cấp tính đa
dụng cao nhất bởi được cho phép bởi từng phần của kết nối mạng. cấu trúc mạng hình cây, sao, vòng có số
tuyến tính đường truyền mạng vì thế hạn chế khả năng liên quan tới độ cao của băng thông trong kết nối
đồng thời. Giá trị code cho phép tiến tới một hướng đơn giản, với kết nối đầy đủ được yêu cầu trong một
dự án lớn thì mô hinh cây, vòng hay sao ít được triển khai.
Mạng kết nối đầy đủ và mạng vòng tham gia đối xứng trong cấu trúc và không được hạn chế từ các máy
trạm. Cho kết nối ngẩu nhiên, định tuyến có thể đi cân bằng qua các node khác nhau, mạng hình sao và cây
chịu bắt đầu từ một điểm : node trung tâm trong mô hình sao và node gốc trong mô hình mạng cây phải
chịu sự hoạt động rất nhiều do phải route gói tin đi các node khác do đó làm xảy ra việc thiếu sự cân bằng
tải trong khả năng định tuyến.
3. Trong mô hình ISO có 7 tầng với các chức năng cụ thể, hầu hết các hệ thống mấy tình sử dụng các
tầng đó cài đặt mạng. Tại sao chúng sử dụng các tầng đó? Các tầng đó gây ra vấn đề gì khi sử
dụng?
Trả lời: Phương thức phân tầng mạng chính xác có thể hoàng thành giống chức năng của ISO trong các
tầng bằng cách sử dụng một tầng mà có thể thực thi giống như hai tầng liền kề trong mô hình ISO. Một mô
hình khác có thể giải quyết mà không cần tầng của ISO. Ví dụ tâng trình bày và phiên được nhập chung
trong phương thức TCP/IP. Một lý do khác mà các tầng trong mô hình ISO không được ứng đụng là để cho
việc thực thi chính xác. Lấy ví dụ cụ thể ở mô hinh TCP/IP thì không chia cụ thể thành tầng vật lý và
đường dữ liệu. Hãy nghĩ rằng chức năng của tầng cuối của TCP/IP giống với hai tầng vật lý và dữ liệu
đường truyề, nó đơn thuần chỉ là kết nối được cung cấp như là wiless, Ethernet, token ring..
Vấn đề điện áp khi cài đặt các tầng với chức năng chính xác thì không được cung cấp bởi các tính chất đặc
biệt của các tầng
4. Trả lời:
Các hệ thống có thể gửi các gói dữ liệu hơn trong một thời gian ngắn hơn. Mạng lưới sau đó sẽ có thêm các
gói tin trên nó, dẫn đến va chạm nhiều hơn, và do đó sự thông qua ít hơn tương đối so với số lượng các gói
tin được gửi đi. Các mạng khác có thể được sử dụng, với các hệ thống ít hơn mỗi mạng, để giảm số lượng
các vụ va chạm.
5. Trả lời:
Những ưu điểm của các thiết bị phần cứng chuyên dụng cho router và gateway là rất nhanh như tất
cả các logic của nó được cung cấp trong phần cứng (firmware.) Sử dụng một máy tính mục đích chung cho
một router hoặc gateway có nghĩa là chức năng định tuyến được cung cấp trong phần mềm mà không phải
là nhanh như cung cấp các chức năng trực tiếp vào phần cứng.
Nhược điểm A là router hoặc gateway là thiết bị chuyên dụng có thể tốn kém hơn bằng cách sử dụng off-
the-shelf với thành phần bao gồm một máy tính cá nhân hiện đại.
6. Trả lời:
Tên máy chủ yêu cầu giao thức riêng của nó, để nó có thêm biến chứng cho hệ thống. Vì thế, nếu
một máy chủ bị down, thì máy chủ lưu trữ thông tin có thể trở thành ko có giá trị. Tên máy chủ sao lưu
được yêu cầu để tránh vấn đề này. Cache có thể được sử dụng để lưu trữ máy chủ lưu trữ thông tin yêu cầu
thường xuyên để cắt giảm lưu lượng mạng.
7. Trả lời:
Cấu trúc phân cấp giúp dễ dàng hơn để duy trì từ bất kỳ thay đổi trong phần định nghĩa của máy
chủ yêu cầu cập nhật ở cấp độ máy chủ tiếp theo trong hệ thống. Thay đổi được gọi là nội địa hóa. Nhược
điểm của phương pháp này là các máy chủ ở cấp cao nhất của sự phân cấp có khả năng phải chịu tải cao.
Vấn đề này có thể được giảm nhẹ bằng cách nhân rộng các dịch vụ của các máy chủ cấp trên.
8.
Xem xét một lớp mạng mà xung đột và truyền lại ngay lập tức về phát hiện xung đột. Những vấn đề có thể
phát sinh với chiến lược này? Làm thế nào nó có thể được chỉnh sửa?
Trả lời:
Ủy quyền quyết định truyền lại cho các lớp mạng có thể thích hợp trong nhiều thiết lập.Trong một hệ thống
bị tắc nghẽn, truyền lại ngay lập tức có thể làm tăng tình trạng tắc nghẽn trong hệ thống, dẫn đến va chạm
nhiều hơn và thông lượng thấp hơn. Thay vào đó, các quyết định khi nào để truyền lại có thể được làm trái
để các tầng trên có thể trì hoãn việc truyền lại, bởi một khoảng thời gian đó là tỷ lệ thuận với ùn tắc hiện
nay trong hệ thống. Một chiến lược backoff mũ là chiến lược thường được sử dụng để tránh ách tắc qua
một hệ thống.
9.
Các lớp dưới của mô hình mạng lưới cung cấp dịch vụ gói dữ liệu theo tiêu chuẩn ISO, không có bảo đảm
cung cấp cho các tin nhắn. Một giao thức lớp vận chuyển như TCP được sử dụng để cung cấp độ tin cậy.
Thảo luận về những lợi thế và bất lợi của hỗ trợ việc gửi thư đáng tin cậy ở lớp thấp nhất có thể?
Trả lời:
Nhiều ứng dụng có thể không yêu cầu cung cấp tin đáng tin cậy. Ví dụ, hình ảnh video được mã hóa có thể
phục hồi từ thiệt hại gói bằng cách thực hiện interpolations để lấy được dữ liệu bị mất. Trong thực tế, trong
các ứng dụng như vậy, dữ liệu truyền lại được sử dụng rất ít vì nó sẽ đến sau, hơn thời gian tối ưu và không
phù hợp để đảm bảo thời gian thực. Đối với các ứng dụng như vậy, việc gửi thư đáng tin cậy ở cấp độ thấp
nhất là một tính năng không cần thiết và có thể dẫn đến lưu lượng tin nhắn tăng lên, nhất là không có tác
dụng, từ đó dẫn đến sự xuống cấp hiệu năng. Nhìn chung, mức thấp nhất của mạng ngăn xếp cần hỗ trợ giá
trị(hay số lượng) tối thiểu của các chức năng yêu cầu của tất cả các ứng dụng và để lại các chức năng phụ
sẽ được thực hiện tại các tầng trên
10.
Những tác động của việc sử dụng một chiến lược định tuyến động về cách xử lý ứng dụng là gì? Đối với
những loại ứng dụng nào là nó có lợi cho sử dụng định tuyến ảo thay vì định tuyến động?
Trả lời:
Định tuyến động có thể định tuyến các gói tin khác nhau thông qua các đường dẫn khác nhau. Liên tiếp
các gói tin do đó có thể phải chịu thời gian chờ khác nhau và có thể có sự chập chờn trong các gói tin nhận
được. Ngoài ra, nhiều giao thức, chẳng hạn như TCP, mà giả định rằng các gói bao hàm sự sắp xếp lại các
gói dữ liệu giảm, sẽ phải được sửa đổi để đưa vào tài khoản mà sắp xếp lại là một hiện tượng tự nhiên trong
hệ thống và không bao hàm sự mất mát gói tin. Thời gian thực các ứng dụng như truyền âm thanh và video
có thể hưởng lợi nhiều hơn từ việc định tuyến ảo vì nó giảm thiểu sự chập chờn và gói yêu cầu cung cấp
thêm
11.
Khởi động chương trình thể hiện trong hình 16,5 và xác định địa chỉ IPtrong những tên lưu trữ sau đây:
• www.wiley.com
• www.cs.yale.edu
• www.javasoft.com
• www.westminstercollege.edu
• www.ietf.org
Trả lời: Tính đến tháng 10 năm 2003, các địa chỉ IP tương ứng là
• www.wiley.com - 208.215.179.146
• www.cs.yale.edu - 128.36.229.30
• www.javasoft.com - 192.18.97.39
• www.westminstercollege.edu - 146.86.1.2
• www.ietf.org - 132.151.6.21

12.
Hệ thống có hai trang web, AandB.Considerwhether trang web A có thể phân biệt giữa những điều sau đây:
a. B đi xuống.
b. Sự liên kết giữa A và B đi xuống.
c. B là cực kỳ quá tải và thời gian đáp ứng của nó là 100 lần lâu hơn bình thường. Điều gì tác động không
có câu trả lời của bạn phục hồi trong các hệ thống phân phối?
Trả lời: Một kỹ thuật sẽ được cho B định kỳ gửi một tin nhắn lên đến A cho thấy nó vẫn còn sống. Nếu A
không nhận được thông báo, nó có thể giả định, hoặc B - hoặc liên kết mạng - có xuống. Lưu ý rằng một
thông báo I-am-up không cho phép A để phân biệt từng loại thất bại. Một kỹ thuật cho phép một tốt hơn
xác định xem mạng được xuống là để gửi một tin nhắn tới B bằng cách sử dụng một tuyến đường thay thế.
Nếu nó nhận được một thư trả lời, nó có thể xác định rằng thực sự liên kết mạng bị ngắt và B là lên. Nếu
chúng ta giả sử rằng A biết B là lên và có thể truy cập (thông qua các I-am-up cơ chế) và A có một số N có
giá trị mà chỉ một thời gian phản ứng bình thường. A có thể theo dõi thời gian đáp ứng từ B và so sánh giá
trị cho N, cho phép A để xác định nếu B là quá tải hay không. Các tác động của cả hai kỹ thuật được rằng
A có thể chọn một chủ nhà nói C-trong hệ thống nếu B là một trong hai xuống, không thể truy cập, hoặc
quá tải.
13.
Các giao thức HTTP ban đầu được sử dụng TCP / IP là giao thức mạng nằm bên dưới. Đối với mỗi trang,
applet đồ họa hay,, một phiên TCP riêng được xây dựng, sử dụng, và phá bỏ. Bởi vì các chi phí xây dựng
và phá hủy TCP / IP kết nối, vấn đề hiệu suất kết quả của phương pháp này thực hiện. Sẽ sử dụng UDP
thay vì TCP là một lựa chọn tốt không? bạn thay đổi khác có thể làm gì để cải thiện hiệu suất HTTP?

Trả lời: Mặc dù bản chất kết nối kém của UDP, nó không phải là một lựa chọn nghiêm trọng cho TCP cho
HTTP. Vấn đề với UDP là nó là không đáng tin cậy, tài liệu gửi qua trang web phải được giao đáng tin cậy.
(Điều này là dễ dàng để minh họa - một gói duy nhất bị mất tích từ một hình ảnh tải về từ trang web làm
cho hình ảnh không thể đọc.) Một khả năng là thay đổi cách kết nối TCP được sử dụng. Thay vì thiết lập -
và phá bỏ - một kết nối TCP cho mọi web tài nguyên, cho phép kết nối liên tục khi một kết nối TCP duy
nhất vẫn mở và được sử dụng để cung cấp nhiều tài nguyên web.

14.
Trong số những gì sử dụng là một giao thức phân giải địa chỉ? Tại sao nó tốt hơn để sử dụng như một giao
thức hơn để làm cho mỗi máy chủ lưu trữ đọc từng gói để xác định điểm đến của gói tin? Có một mạng
lưới token-đi cần một giao thức? Giải thích câu trả lời của bạn.
Trả lời: Một dịch ARP mục đích chung địa chỉ vào số lượng giao diện phần cứng để giao diện có thể biết
được gói tin được cho nó. Phần mềm không cần tham gia. Đó là hiệu quả hơn qua mỗi gói tin đến các lớp
cao hơn. Có, với lý do tương tự.

15.
Những lợi thế và bất lợi của việc làm cho mạng máy tính minh bạch cho người dùng là gì?
Trả lời: Ưu điểm là tất cả các file được truy cập trong cách thức tương tự. Bất lợi là hệ điều hành trở nên
phức tạp hơn.
Trả lời chương 17:
17.1 Những lợi ích của một DFS khi so sánh với một hệ thống tập tin trong một hệ thống tập trung là gì?
Trả lời: Một DFS cho phép chia sẻ những loại giống nhau sẵn có trên một hệ thống tập trung, nhưng sự
chia sẻ có thể xảy ra trên hệ thống riêng biệt về physically và logically. Người dùng trên toàn thế giới có
thể chia sẻ dữ liệu nếu họ ở trong cùng tòa nhà, cho phép môi trường máy tính linh hoạt hơn.
17.2 Trong các ví dụ DFSs. cơ sở dữ liệu multiclient ứng dụng có hiệu quả nhất? Giải thích câu trả lời của
bạn.
Trả lời: Các hệ thống tập tin Andrew có thể xử lý một cơ sở dữ liệu lớn multiclient như khả năng mở rộng
là một trong những nét đặc trưng của nó.Andrew được thiết kế để xử lý tốt lên đến 5.000 client. Một cơ sở
dữ liệu cũng cần chạy trong một môi trường an toàn và Andrew sử dụng cơ chế bảo mật Kerberos cho việc
mã hóa.
17.3 Thảo luận về AFS và NFS cung cấp: (a) location transparency và (b) location independence:
Trả lời: NFS cung cấp location transparence từ đó không thể xác định máy chủ lưu trữ các tập tin từ tên của
nó. (Tuy nhiên bạn có thể xem các bảng liên kết để xác định tập tin máy chủ mà từ đó hệ thống tập tin
tương ứng được liên kết, nhưng các máy chủ không phải là hardcoded trong tên của tập tin.) NFS không
cung cấp location independence khi đó các tập tin không thể được di chuyển tự động giữa các hệ thống tập
tin khác nhau. AFS cung cấp location transparence and location independence.
17.4 Trong trường hợp nào một client ưu tiên location transparent DFS và những trường hợp nào client ưu
tiên location independent DFS. Thảo luận về sự ưu tiên đó.
Trả lời: Location transparent DFS tốt trong các hệ thống trong đó các tập tin không phải là bản sao.
Location independent DFS là cần thiết khi bất kỳ bản sao nào được thực hiện.
17.5 Bạn sẽ chọn dạng nào của hệ thống phân tán cho một hệ thống chạy trên một mạng lưới hoàn toàn
đáng tin cậy?
Trả lời: khi hệ thống này là hoàn toàn đáng tin cậy, cách tiếp cận trạng thái sẽ là cách làm cho ý nghĩa nhất.
Phục hồi lỗi sẽ hiếm khi cần thiết, cho phép các tính năng đặc trưng của một hệ thống trạng thái được sử
dụng. Nếu hệ thống mạng rất nhanh cũng như đáng tin cậy, bộ nhớ đệm có thể được thực hiện trên phía
máy chủ. Trên một mạng chậm hơn bộ nhớ đệm trên cả hai máy chủ và máy khách sẽ tăng tốc độ thực hiện,
khi file nằm độc lập và di trú. Ngoài ra, dịch vụ RPC không cần thiết trong trường hợp không có thất bại, vì
một phần quan trọng trong thiết kế của nó là phục hồi trong các lỗi mạng. Hệ thống mạch ảo là đơn giản và
phù hợp hơn cho các hệ thống không có truyền thông thất bại.
17.6 Xem xét AFS, là stateful DFS. Những công việc cần phải được thực hiện để phục hồi từ một sự cố
máy chủ để bảo toàn sự thống nhất hệ thống?
Trả lời: Server cần phải theo dõi những gì mà các client đang sử dụng trong cache để ra gọi lại khi tập tin
được sửa đổi. Khi server hỏng, trạng thái này bị mất. Sau đó Server sẽ phải xây dựng lại trạng thái này
bằng cách liên lạc này với tất cả các client và chúng báo lại cho server những tập tin hiện đang được lưu trữ
trong cache cho từng client.
17.7 So sánh và làm tương phản những kỹ thuật của cơ chế caching disk blocks cục bộ trên hệ hệ thống
client, và từ xa trên server.
Trả lời: Caching cục bộ có thể làm giảm đáng kể lưu lượng mạng bởi vì cache cục bộ có thể xử lý một số
lượng đáng kể các truy cập từ xa. Điều này làm giảm lưu lượng mạng và giảm tải cho máy chủ. Tuy nhiên,
để duy trì tính nhất quán, cục bộ cập nhật vào disk blocks phải được cập nhật lên server bằng chiến lược
write-through hoặc chiến lược delayed-write. Một chính sách phải được cung cấp để cho phép client xác
định xem dữ liệu của nó cũ và cần được cập nhật. Caching cục bộ rõ ràng là phức tạp hơn so với client yêu
cầu tất cả dữ liệu từ server. Nhưng nếu mô hình truy cập đòi hỏi phải ghi dữ liệu nhiều, cơ chế xử lý dữ liệu
không phù hợp sẽ tăng lưu lượng mạng và tải cho máy chủ.
17.8 AFS được thiết kế để phục vụ cho một số lượng lớn client. Thảo luận 3 kỹ thuật được sử dụng để tạo
một hệ thống AFS có thể mở rộng.
Trả lời: 3 kỹ thuật tạo hệ thống AFS có thể mở rộng là:
Caching: AFS tạo bộ nhớ đệm của các tập tin và name translations do đó giới hạn số thao tác gửi tới server.
Whole-file caching: khi một file được mở thì toàn bộ nội dung file được chuyển tới client và không có thao
tác nào nữa với máy chủ được yêu cầu.
Callbacks: Đó là trách nhiệm của server thu hồi bản sao cũ của file. Client có thể lưu trữ các file và sử dụng
lại nhiều lần mà không phải yêu cầu server.
17.9 Thảo luận ưu nhược điểm của thực hiện chuyển đổi tên đường dẫn bằng cách cho client chuyển toàn
bộ đường dẫn đến máy chủ đang yêu cầu chuyển đổi cho toàn bộ tên đường dẫn của file
Trả lời: Ưu điểm đó là chỉ cần một yêu cầu mạng là đủ để thực hiện việc chuyển đổi tên đường dẫn. Kế
hoạch đó thực hiện chuyển đổi một thành phần tại thời điểm phát sinh nhiều lưu lượng mạng. Tuy nhiên,
khi việc chuyển đổi được thực hiện trên một thành phần tại một thời điểm, các chuyển đổi của các thư mục
gốc được lưu lại để sử dụng trong tương lai, nhưng trái lại nếu việc chuyển đổi toàn bộ đường dẫn được
thực hiện, việc chuyển đổi cho các thành phần trung gian thì có sẵn trong cache.
17.10 Lợi ích của việc ánh xạ đối tượng vào bộ nhớ ảo, như trong Apollo Domain thực hiện? Những hạn
chế của nó?
Trả lời: ánh xạ đối tượng vào bộ nhớ ảo rất thuận lợi trong việc chia sẽ dữ liệu giữa các tiến trình. Tốt hơn
khi mở một file, khóa truy cập tới nó, và việc đọc và ghi các phần thông qua các I/O system calls, bộ nhớ
ánh xạ các đối tượng được truy cập như là bộ nhớ thông thường, với việc đọc và ghi tới các địa chỉ độc lập
của disk pointers. Khóa thì dễ dàng hơn nhiều, kể từ khi một vị trí nhớ được chia sẻ có thể sử dụng như một
biến khóa cho truy cập semaphore. Nhưng memory mapping thì tăng tính phức tạp cho hệ điều hành , đặc
biệt là với hệ thống phân tán.
17.11 Nêu ra những khác biệt cơ bản giữa AFS và NFS?
Trả lời: Một số khác biệt là:
AFS có một loạt các tính năng trong khi NFS được tổ chức theo một thiết kế đơn giản hơn nhiều.
NFS cho phép một trạm hoạt động như một client, server hoặc cả hai. AFS phân biệt giữa client và server
xác định riêng cho server.
NFS là stateless nghĩa là nó không lưu giữ trạng thái trong suốt quá trình client cập nhật file. AFS là
statefull giữa các thời gian mà client mở một file, cập nhật nó và đóng file. (NFS thậm chí không cho mở
và đóng một file).
Caching là một tính năng cơ bản của AFS cho phép caching phía client với nhất quán cache. Thật vậy nó là
một kiến trúc cho phép client lưu trữ toàn bộ file. Tính nhất quán được cung cấp bởi server khi cached files
được đóng. Caching trên NFS thì tốt, nhưng vì không trạng thái của nó dữ liệu phải được gửi cho server
trước khi kết quả được nhận lại bởi client.
AFS cung cấp session semantics trong khi NFS hỗ trợ UNIX file consistency semantics
17.12 Thảo luận xem client trong các hệ thống dưới đây có thể có được dữ liệu không phù hợp hoặc cũ từ
server, và nếu có thì chuyện gì chuyện gì sẽ xảy ra?
a. AFS
b. Sprite
c. NFS
Trả lời: Sprite đảm bảo rằng client không bao giờ thấy dữ liệu cũ. Khi một file được mở cho việc write-
sharing bởi nhiều client, tất cả các bộ nhớ đệm cho file bị vô hiệu hóa và mọi thao tác được gửi trực tiếp tới
server. Cơ chế này đảm bảo được tính nhất quán của dữ liệu. Trong AFS, ghi vào file được thực hiện ở
local disks, và khi client đóng file, việc ghi được chuyển tới server, mà sau đó đưa ra callbacks trên những
bản sao cache khác. Trong suốt thời gian file được ghi nhưng chưa đóng, client khác có thể truy cập những
dữ liệu cũ. Ngoài ra nếu sau khi file được đóng, client khác cũng có thể truy cập dữ liệu cũ nếu họ đã mở
file trước việc cập nhật từ client đóng file đó. Nó chỉ là thời điểm khi mà việc mở tiếp theo được thực hiện
trên bộ nhớ đệm của client mà server được giao tiếp và hầu hết các dữ liệu được chuyển từ server tới client.
NFS sử dụng nhiều cơ chế đồng nhất đặc biệt. Dữ liệu được đẩy lên server định kỳ và tại thời điểm đóng
file. Ngoài ra client caching kiểm tra định kỳ sự không đồng nhất. Bất kỳ sự cập nhật nào và việc đẩy dữ
liệu lên server trong suốt những khoảng thời gian định kỳ đó thì không được nhận thấy ngay lập tức trên
client caching

Chương 18
18.1 Thảo luận về ưu và nhược điểm của 2 phương pháp chúng tôi đã giới thiệu để tạo các timestamp
duy nhất 1 cách toàn cục
Trả lời:
Các timestamp duy nhất toàn cục được tạo bằng cách dùng phương pháp tập trung hoặc phân tán. Phương
pháp tập trung sử dụng 1 vị trí để tạo các timestamp. Nhược điểm của phương pháp này là nếu site này lỗi,
timestamp không còn được tạo nữa.
Tạo timestamp dùng phương pháp phân tán cung cấp nhiều cơ chế an toàn trước lỗi hơn; tuy nhiên, phải
chú ý để bảo đảm đồng hồ tại mỗi vị trí được đồng bộ.
18.2 Mô hình tem thời gian đồng hồ luận lý đã giới thiệu trong chương này cung cấp đảm bảo như
sau: nếu sự kiện A xảy ra trước sự kiện B, thì timestamp của A nhỏ hơn của B. Tuy nhiên, chú ý rằng
ta không thể sắp xếp thứ tự 2 sự kiện dựa trên timestamp của chúng. Sự thật là, 1 sự kiện C có
timestamp nhỏ hơn sự kiện D không nhất thiết sự kiện C xảy ra trước D; C và D có thể là các sự kiện
đồng thời trong hệ thống. Thảo luận các cách thức trong mô hình timestamp đồng hồ logic có thể
được mở rộng để phân biên các sự kiện đồng thời từ các sự kiện có thể được sắp xếp bởi quan hệ xảy
ra trước.
Trả lời:
Đồng hồ vector có thể được dùng để phân biệt các sự kiện đồng thời từ các sự kiện được sắp xếp bởi mối
quan hệ xảy ra trước. Đồng hồ vector hoạt động như sau. Mỗi tiến trinh duy trì 1 timestamp vector chứa 1
vector timestamp vô hướng, nơi mỗi thành phần phản ánh số sự kiện xảy ra trong mỗi tiến trình khác nhau
của hệ thống. Một tiến trình i duy trì 1 timestamp vector ti để tij bằng số sự kiện trong tiến trình j xảy ra
trước sự kiện đồng thời trong tiến trình i. Khi 1 sự kiện cục bộ xảy ra trong tiến trình I, tij được tăng thêm 1
để phản ánh rằng còn 1 tiến trình nữa xảy ra trong hệ thống. Thêm vào đó, bất kì lúc nào 1 thông điệp được
gởi từ 1 tiến trình tới 1 tiến trình khác, nó giao tiếp vector timestamp của tiến trình nguồn và tiến trình đích,
sau đó nó cập nhật vector timestamp cục bộ để phản ánh thông tin vừa thu được. Khi s gởi 1 thông điệp tới
d, s giao tiếp theo thông điệp và d cập nhật td để tất cả i≠d, tid =max(tis,tid )
18.3 Công ty bạn đang xây dựng 1 mạng máy tính, và bạn được yêu cầu viết giải thuật để đạt được sự
loại trừ ràng buộc phân tán. Bạn sẽ dùng mô hình nào ? Giải thích về sự lựa chọn ấy.
Trả lời:
Các tùy chọn là phương pháp (1) tập trung, (2) phân tán đầy đủ, hoặc (3) truyền thông điệp. Chúng ta loại
bỏ phương pháp tập trung vì bộ điều phối tập trung trở thành 1 nút cổ chai. Chúng ta cũng loại bỏ phương
pháp truyền thông điệp vì sự khó khăn của nó trong việc tái thiết lập vòng trong trường hợp lỗi.
Ta chọn phương pháp phân tán đầy đủ vì các lí do sau:
+ Đạt được ràng buộc loại trừ (mutual exclusion)
+ Bảo đảm tránh khỏi deadlock (tắc nghẽn)
+ Bảo đảm tránh khỏi starvation (đói), vì lối vào vùng tranh chấp được đình thời tùy theo sự xếp đặt
timestamp
+Số thông điệp cho 1 lần vào vùng tranh chấp là 2 x (n-1). Đây là số lượng thông điệp yêu cầu tối thiểu
trên 1 lần vào vùng tranh chấp khi các tiến trình hoạt động độc lập và đồng thời.
18.4 Tại sao việc phát hiện deadlock trong môi trường phân tán đắt hơn trong môi trường tập trung
Trả lời:
Khó khăn là mỗi site (vị trí) phải duy trì 1 đồ thị wait-for cục bộ của nó. Tuy nhiên, việc thiếu vòng trong 1
đồ thị cục bộ không bảo đảm không deadlock. Thay vào đó, ta đảm bảo rằng hệ thống không bị deadlock
chỉ khi hợp (union) của tất cả các đồ thị wait-for không có vòng.
18.5 Công ty bạn xây dựng 1 hệ thống mạng, và bạn được yêu cầu phát triển 1 mô hình xử lý vấn đề
deadlock.
a. Bạn sẽ sử dụng mô hình phát hiện deadlock hay mô hình ngăn chận deadlock ?
b. Nếu bạn dùng 1 mô hình ngăn deadlock, bạn sẽ dùng mô hình nào? Giải thích về sự lựa
chọn ấy.
c.Nếu bạn dùng mô hình phát hiện deadlock, bạn sẽ chọn mô hình nào? Giải thích về sự lựa
chọn.
Trả lời:
a. Ta chọn ngăn chặn deadlock vì nó dễ hơn là phát hiện deadlock khi nó xảy ra
b. Sử dụng mô hình xếp đặt tài nguyên: ngăn chặn deadlock bằng cách yêu cầu các tiến trình
nhận tài nguyên theo thứ tự.
c. Nếu phải dùng mô hình phát hiện deadlock, ta dùng phương pháp phân tán đầy đủ vì phương
pháp tập trung gây ra 1 điểm lỗi.
18.6 Trong trường hợp nào mô hình wait-die tốt hơn mô hình wound-wait trong cấp phát tài
nguyên để thực thi đồng thời các giao dịch.
Trả lời:
Trong mô hình wound-wait 1 tiến trình “già hơn” không bao giờ phải chờ 1 tiến trình “trẻ hơn”, thay vào
đó, nó rollback tiến trình “ trẻ hơn” và đoạt tài nguyên từ nó. Khi 1 tiến trình “ trẻ hơn” yêu cầu 1 tài
nguyên giữ bởi 1 tiến trình “già hơn”, nó đơn giản chờ và không rollback. Trong mô hình wait-die, các tiến
trình “già hơn” chờ tiến trình “ trẻ hơn” mà không bị rollback nhưng 1 tiến trình “ trẻ hơn” bị rollback nếu
nó yêu cầu 1 tài nguyên đang giữ bởi 1 tiến trình “già hơn”. Rollback có thể xảy ra nhiều lần nếu tài
nguyên được giữ bởi tiến trình già hơn trong thời gian dài. Việc lặp lại rollback không xảy ra trong mô hình
wound-wait. Do đó, 2 mô hình này tốt hơn các trường hợp khác nhau tùy vào các tiến trình cũ hơn có thể
chờ tài nguyên giữ bởi tiến trình trẻ hơn hay không.
18.7 Xem xét các phương pháp tập trung và phân tán đầy đủ để phát hiện deadlock. So sánh 2 giải
thuật về mức độ phức tạp của thông điệp.
Trả lời:
Giải thuật tập trung cho phát hiện deadlock yêu cầu từng vi xử lý hoặc từng site báo cáo đồ thị
wait-for cục bộ tới 1 trình quản lí tập trung. Các cạnh của đồ thị wait-for được kết nối và giải thuật phát
hiện vòng được thực hiện ở trình quản ly tập trung. Chi phí của giải thuật này là chi phí truyền thông các đồ
thị wait-for khác nhau tới máy chủ tập trung. Trong phương pháp phân tán, mỗi vị trí xây dựng đồ thị wait
for cục bộ của nó và tiên đoán khả năng có 1 vòng dựa trên 1 đơn vị quan sát cục bộ. Nếu thật sự có tồn tại
1 vòng, 1 thông điệp được gởi tới các site (vị trí) có thể hợp thành 1 vòng. Nhiều site liên quan đến vòng có
thể khởi tạo thao tác này đồng thời. Do đó, giải thuật phân tán đôi khi tốt hơn giải thuật tập trung và đôi khi
tệ hơn về mức độ phức tạp của thông điệp. Nó tốt hơn giải thuật tập trung vì nó không truyền thông hoàn
toàn đồ thị wait-for cục bộ tới máy chủ tập trung. (Cũng nên chú ý rằng, có thể có nút cổ chai xảy ra vì sử
dụng máy chủ tập trung trong giải thuật tập trung. ) Tuy nhiên, giải thuật phân tán có thể tạo ra nhiều thông
điệp hơn khi nhiều site (vị trí) đồng thời phát hiện ra sự tồn tại 1 vòng.
18.8 Xem xét giải thuật phát hiện deadlock có cấu trúc phân cấp như sau, trong đó đồ thị wait-for
toàn cục được phân phối trên nhiều trình điều khiển (controller) khác nhau, được tổ chứ theo dạng
cây (tree). Mỗi trình điều khiển (không phải là lá- non leaf controller) duy trì 1 đồ thị wait-for chứ
các thông tin liên quan từ các đồ thị trong trình điều khiển duới nó. Đặc biệt, xem SA,SB và SC là các
trình điều khiển và SC là tồ tiên chung thấp nhất của SA và SB (Sc phải duy nhất, vì chúng ta đang
xử lý 1 cây (tree)). Giả sử rằng nút Ti xuất hiện trong đồ thị wait-for cục bộ của trình điều khiển SA
và SB. Thì Ti cũng phải xuất hiện trong đồ thị cục bộ của
Trình điều khiển SC
Mỗi trình điều khiển trên đường từ SC tới SA
Mỗi trình điều khiển trên đường từ SC tới SB

Thêm vào đó, nếu Ti và Tj xuất hiện trong đồ thị wait-for của trình điều khiển SD và tồn tại 1 đường
từ Ti tới Tj trong đồ thị wait-for của 1 trong các “ con” của SD, thì 1 cạnh Ti-Tj phải tồn tại trong đồ
thị wait-for của SD.
Chứng minh:nếu tồn tại 1 vòng trong bất kì đồ thị wait-for nào, thì hệ thống bị deadlock.
Trả lời:
Bằng chứng được tìm thấy trong bài báo “Distributed deadlock detection algorithm, ACM transactions on
Database, June 1982”.
18.9 Hãy tạo ra giải thuật bầu cử cho vòng 2 chiều hiệu quả hơn giải thuật đã giới thiệu trong
chương này. Có bao nhiêu thông điệp cần thiết cho n tiến trình?
Trả lời: Giải thuật sau yêu cầu O(nlogn) thông điệp. Mỗi nút thao tác trong các pha và thực hiện:
Nếu 1 nút còn hoạt động, nó gởi thành phần định danh nút duy nhất của nó theo 2 hướng.
Trong pha k, các thẻ bài đi 1 khoảng cách 2k và trở về điểm xuất phát.
Một thẻ bài có thể không trở về nut xuất phát nếu nó gặp 1 nút có thành phần định danh thấp hơn.
Một nút chuyển sang pha (giai đoạn) tiếp theo chỉ khi nó nhận về các thẻ bài từ vòng trước.
Nút với chỉ số định danh thấp nhất là nút duy nhất được hoạt động sau logn pha
18.10 Xét 1 cài đặt mà các vi xử lý không liên quan đến các định danh duy nhất nhưng tổng số các
vi xử lý mà liên kết với tổng số vi xử lý được biết đến, và các vi xử lý được tổ chức thành 1 vòng
2 chiều. Có thể xây dựng 1 giải thuật cho cài đặt như thế không ?
Trả lời:
Không thể bầu chọn 1 “ leader” khi các vi xử lý không chứa các thành phần định danh duy nhất. Vì
các vi xử lý khác nhau không có dấu hiệu phân biệt; chúng được giả sử khởi động trong 1 trạng thái
và chuyền, nhận các thông điệp giống nhau trong mỗi timestep. Do đó, không có cách nào phân biệt
các vi xử lý thậm chí sau 1 lượng lớn các timestep tùy ý.
18.11 Xét 1 lỗi xảy ra trong giao thức cam kết 2 pha của 1 giao dịch. Với mỗi lỗi có khả năng xảy
ra, giải thích cách thức mà giao thức cam kết 2 pha bào đảm tính nguyên tử của giao dịch dù có
xuất hiện lỗi.
Trả lời:
Các lỗi có thể xảy ra gồm (1) lỗi của 1 vị trí tham gia, (2) lỗi của bộ điều phối, và (3) lỗi mạng. Chúng ta
xét từng trường hợp như sau:
Lỗi của vị trí tham gia: Khi 1 vị trí tham gia hồi phục từ 1 lỗi, nó kiểm tra nhật kí của nó và xác định số
phận của các giao dịch đang được thực thi khi lỗi xảy ra. Hệ thống sẽ hoạt động tùy theo loại log entry khi
lỗi xảy ra.
Lỗi bộ điều phối: Nếu bộ điều phối lỗi trong khi thực thi giao thức cam kết giao dịch T, thì thành viên tham
gia sẽ quyết định “số phận’ của T. Thành viên tham gia sẽ xác định commit hay abort T hay chờ bộ điều
phối hồi phục (từ 1 lỗi).
Lỗi mạng- Khi 1 liên kết lỗi, tất cả các thông điệp trong tiến trình được truyền dẫn thông qua liên kết không
tới đích được. Từ góc nhìn của các vị trí liên kết thông qua liên kết đó, các vị trí khác lỗi. Do đó, cá phương
pháp kể trên sẽ được áp dụng.
18.12 Xét các mô hình lỗi cho các vi xử lý mắc lỗi như sau. Các vi xử lý tuân theo 1 giao thức
nhưng có thể lỗi ở 1 thời điểm không mong muốn. Khi vi xử lý lỗi, chúng đơn giản dừng hoạt
động và không tiếp tục tham gia vào hệ thống phân tán. Với 1 mô hình lỗi cho trước, thiết kế 1
giải thuật để đạt được thỏa thuận giữa 1 bộ các vi xử lý. Thảo luận các điều kiện có thể đạt được
thỏa thuận.
Trả lời:
Giả sử mỗi nút có chức năng multicast (basic multicast/b-multicast/b-multicast(v)): nút đơn giản gởi 1
thông điệp duy nhất tới mỗi nút chứa v.
Cũng giả sử rằng mỗi nút thực hiện giải thuật như sau trong 1 kiểu đồng bộ, giả sử rằng nút u bắt đầu với
giá trị vi:
Ở vòng 1, nút thực hiện b-multicast(vi)
Trong mỗi vòng, nút tập hợp các giá trị nhận được từ vòng trước, tính toán các giá trị vừa nhận
được, và thực hiện 1 b-multicast tất cả các giá trị vừa nhận.
Sau vòng f+1, nếu số lỗi nhỏ hơn f, thì mỗi nút nhận chính xác cùng 1 tập các giá trị từ tất cả các
nút trong hệ thống. Đặc biệt, tập giá trị này gồm tất cả các giá trị từ các nút đã quản lý việc gởi giá trị cục
bộ của chúng đến các nút không lỗi
Giải thuật trên chỉ hoạt động trong cài đặt đồng bộ và khi sự trì hoãn thông điệp có giới hạn. Nó
cũng chỉ hoạt động khi các thông điệp được phân phát 1 các đáng tin cậy.
Chương 19:
19.1 Xác định các môi trường sau là thời gian thực theo phần cứng hay thời gian thực theo phần mềm.
a.Bộ điều chỉnh nhiệt độ trong gia đình.
b. Hệ thống điều khiển cho một nhà máy điện hạt nhân.
c. Hệ thống tiết kiệm nhiên liệu trong xe ô tô.
d. Hệ thống hạ cánh một máy bay phản lực.
Trả lời: thời gian thực theo phần cứng hạn chế lập lịch trình cần thiết cho sự nhà máy điện hạt nhân và cho
các máy bay phản lực. Trong cả hai cài đặt,một phản ứng chậm trễ có thể có hậu quả tai hại và do đó lịch
trình sẽ cần phải đáp ứng yêu cầu lập kế hoạch thời gian thực. Mặt khác, bộ điều chỉnh nhiệt độ và hệ thống
tiết kiệm nhiên liệu có thể hoạt động trong bối cảnh của một lịch trình mà chỉ cung cấp thời gian thực theo
phần mềm hạn chế. Sự chậm trễ của các thiết bị này sẽ chỉ dẫn sử dụng tối ưu các nguồn tài nguyên hoặc
tăng nhẹ gây khó chịu.
19.2 Thảo luận về cách thức mà trong đó các vấn đề ưu tiên nghịch đảo có thể được giải quyết trong một
hệ thống thời gian thực. Ngoài ra thảo luận xem liệu các giải pháp có thể được thực hiện trong bối cảnh của
một lịch trình chia sẻ theo tỷ lệ.
Trả lời: Các vấn đề ưu tiên nghịch đảo có thể được giải quyết bằng cách tạm thời thay đổi các ưu tiên của
các quá trình liên quan. Qúa trình được truy cập vào nguồn lực cần thiết của một quá trình ưu tiên cao hơn
kế thừa những ưu tiên cao hơn cho đến khi họ đã kết thúc với các nguồn tài nguyên trong yêu cầu.khi hoàn
thành, ưu tiên của nó trở lại trạng giá trị ban đầu của nó.
Giải pháp này có thể dễ dàng thực hiện trong một phần theo tỷ lệ theo lịch trình; sự chia sẻ của các quá
trình ưu tiên cao chỉ đơn giản là chuyển giao cho các quá trình ưu tiên thấp hơn cho thời gian khi nó được
truy cập các nguồn lực.
19.3 Nhân Linux 2.6 có thể được xây dựng không có hệ thống bộ nhớ ảo.Giải thích tính năng này có thể
kháng cáo cho nhà thiết kế của các hệ thống thời gian thực.
Trả lời: Khi vô hiệu hóa hệ thống bộ nhớ ảo, các qúa trình được bảo đảm có các phần của không gian địa
chỉ thường trú của mình trong bộ nhớ vật lý. Điều này dẫn đến một hệ thống mà không bị lỗi trang và do đó
không phải đối phó với chi phí không lường trước được tương ứng với phân trang không gian địa chỉ. Hệ
thống kết quả là hấp dẫn cho các nhà thiết kế các hệ thống thời gian thực người thích để tránh biến đổi
trong hoạt động.
19.4 Trong hoàn cảnh nào thì định thời rate monotonic kém hơn định thời earliest deadline first trong cuộc
họp liên quan đến deadline với quá trình?
Trả lời: Hãy xem xét hai quá trình P1 và P2 nơi p1 = 50, t1 = 25 và p2 = 75, t2 = 30. Nếu P1 được chỉ
định là ưu tiên cao hơn so với P2, sau đó lịch các sự kiện sau đây xảy ra theo định thời rate monotonic.P1
được định thời tại t = 0, P2 được định thời tại t = 25, P1 được định thời tại t = 50, và P2 được định thời tại t
= 75. P2 không định thời sớm để đáp ứng thời hạn chót(deadline) của nó. The earliest deadline schedule
các sự kiện lịch kế tiếp: P1 được định thời tại t = 0, P2 được định thời tại t = 25, P1 được định thời tại t =
55, và như vậy. Lịch trình này thực sự đáp ứng các thời hạn và do earliest deadline first scheduling hiệu quả
hơn so với rate monotonic scheduler
19.5 Periodic:thời gian định kỳ hay tuần hoàn của 1 quá trình(hay tiến trình)
Hãy xem xét hai quá trình P1 và P2 nơi p1 = 50, t1 = 25 và p2 = 75,t2 = 30.
a. Hai quá trình có thể được sắp xếp bằng cách sử dụng rate monotonic scheduling? Minh họa câu trả lời
của bạn bằng cách sử dụng một biểu đồ Gantt.
b. Minh họa cho lập kế hoạch của hai quá trình sử dụng earliest deadline first (EDF)scheduling.
Trả lời: Hãy xem xét khi P1 được chỉ định một ưu tiên cao hơn P2 với rate monotonic scheduling. P1 được
định thời tại t = 0, P2 dự kiến tại t = 25, P1 được định thời tại t = 50, và P2 được định thời tại t = 75. P2 là
không theo lịch trình ban đầu, đủ để đáp ứng thời hạn chót của nó. Khi P1 được giao một ưu tiên thấp hơn
so với P2, sau đó P1 không đáp ứng hạn chót của nó vì nó sẽ không được sắp xếp theo thời gian.
19.6 Các thành phần khác nhau của độ trễ gián đoạn và văn là gì?
Trả lời: độ trễ gián đoạn bao gồm thời gian cần thiết để tiết kiệm trạng thái của quá trình hiện tại trước khi
gọi cụ thể gián đoạn dịch vụ xử lý. Vì vậy, bao gồm các nhiệm vụ sau đây: xác định thời gian gián đoạn,
thực hiện việc chuyển ngữ cảnh và nhảy vào ISR thích hợp. Các văn độ trễ tương ứng với thời gian cần
thiết để ngăn chặn một quá trình và bắt đầu một quá trình. Nó thường có thể bao gồm các nhiệm vụ sau
đây: đánh đòn phủ đầu của bất kỳ quá trình chạy trong nhân, giải phóng tài nguyên yêu cầu của quá trình
được dự kiến, và các chi phí chuyển đổi ngữ cảnh tương ứng với lịch trình mới.
19.7
Giải thích lý do tại sao bị gián đoạn và văn thời gian trễ phải được bao bọc trong một thời gian thực cứng
hệ thống.
Trả lời: ngắt thời gian chờ là khoảng thời gian cần thiết để thực hiện các nhiệm vụ sau: tiết kiệm hướng
dẫn hiện hành, xác định các loại gián đoạn, lưu trạng thái hiện tại của quá trình, và sau đó gọi thích hợp
gián đoạn dịch vụ thông thường. Công văn độ trễ là chi phí liên quan dừng lại và bắt đầu một quá trình
khác. Cả hai bị gián đoạn và văn độ trễ cần được giảm thiểu để đảm bảo rằng thời gian thực các nhiệm vụ
nhận được sự chú ý ngay lập tức. Hơn nữa, đôi khi ngắt bị vô hiệu hóa khi cấu trúc dữ liệu hạt nhân đang
được sửa đổi,do đó gián đoạn không được phục vụ ngay lập tức. Đối với thời gian khó thực hệ thống, thời
gian-thời gian mà gián đoạn là người khuyết tật phải được bị chặn để đảm bảo chất lượng mong muốn của
dịch vụ.

Chương 20
20.1 Cung cấp các ví dụ về các ứng dụng đa phương tiện được gửi qua Internet.
Trả lời:
Truyền âm thanh và video của các sự kiện hiện nay khi nó đang diễn ra (truyền hình trực tiếp), truyền hình
hội nghị thời gian thực (trong hội trường), và truyền giọng nói qua IP (yahoo call),…
20.2 Phân biệt progressive download và real-time streaming.
Trả lời:
Progressive download là tình trạng tập tin nhạc được tải về theo yêu cầu và được lưu trữ trên đĩa địa
phương. Người sử dụng có thể chơi các phương tiện thông tin như nó đang được tải về mà không cần phải
chờ đợi cho toàn bộ tập tin được truy cập.. Real time streaming khác progressive downloads trong đó các
tập tin phương tiện đơn giản chỉ là xem trực tiếp cho khách hàng và không được lưu trữ trên đĩa của khách
hàng. Một số lượng giới hạn của bộ đệm có thể được sử dụng để cho phép trong truyền băng thông rộng,
nhưng mặt khác tập tin phương tiện truyền thông được chơi và bị loại bỏ mà không cần lưu trữ.
20.3 Loại nào của real-time streaming applications có thể cho phép delay? Loại nào cho phép jitter?
− Live real-time streaming
− On-demand real-time streaming
Trả lời:
Cả delay và jitter là những vấn đề quan trọng trong live real-time streaming. Người dùng ko cho phép một
delay lớn hoặc jitter đáng kể. Delay không phải là một vấn đề quan trọng cho on-demand real-time
streaming như các dòng (stream) không chứa các đoạn phim sống (live clips). Các ứng dụng này có thể cho
phép jitter bằng cách buffering một khoảng lớn data trước khi bắt đầu playback. Nói cách khác, jitter có thể
được qua đi bằng cách tăng delay, và từ đó delay ko phải là vấn đề quan trọng trong this application, việc
tăng delay ko phải là rất quan trọng.
20.4 Thảo luận về kỹ thuật nào có thể được sử dụng để đáp ứng yêu cầu chất lượng của dịch vụ cho
các ứng dụng đa phương tiện trong các thành phần sau đây của một hệ thống:
− Process scheduler
− Disk scheduler
− Memory manager
Trả lời:
Các process scheduler có thể sử dụng các thuật toán rate-monotonic-scheduling để đảm bảo rằng quá trình
được sử dụng để đáp ứng yêu cầu chất lượng dịch vụ một cách kịp thời. Trong sơ đồ này, các tiến trình
được mô hình hóa được định kỳ và đòi hỏi một thời gian xử lý cố định mỗi khi chúng được sắp lịch.
Disk scheduler cần yêu cầu tiến độ một cách kịp thời và cũng giảm thiểu sự chuyển động của đầu đĩa nhằm
giảm thiểu disk seek trên đầu. Một lựa chọn là sử dụng một kỹ thuật kết hợp các kỹ thuật SCAN với chiến
lược earliest-deadline-first. Tác vụ được xử lý theo thứ tự deathline. Khi hàng loạt các yêu cầu có deathline
tương tự hoặc giống nhau, kỹ thuật SCAN được dùng để đáp ứng hàng loạt các yêu cầu.
Memory management cần đảm bảo rằng trang lỗi bất ngờ không xảy ra trong quá trình phát lại các tập tin
media. Điều này có thể được đảm bảo khi các trang yêu cầu được trao đổi vào bộ nhớ vật lý trước khi ứng
dụng đa phương tiện được lên lịch.
20.5 Giải thích tại sao các giao thức Internet để truyền dữ liệu truyền thống không đủ để cung
cấp chất lượng của dịch vụ đảm bảo cần thiết cho một hệ thống đa phương tiện. Thảo luận về những
thay đổi được yêu cầu phải cung cấp đảm bảo QoS.
Trả lời:
Giao thức Internet như IP và TCP thường không dự trữ tài nguyên trong thời gian thiết lập kết nối tại các
router trung gian. Do đó, trong tình trạng tắc nghẽn, khi bộ đệm trong router fill up, một số các gói dữ liệu
có thể bị trì hoãn hoặc bị mất, do đó vi phạm bất kỳ chất lượng yêu cầu dịch vụ. Tổn thất có thể tránh được
tắc nghẽn nếu Internet sử dụng chuyển mạch và bảo lưu tài nguyên bộ nhớ đệm để đảm bảo rằng các gói tin
không bị mất.

20.6 Giả sử rằng một tập tin video kỹ thuật số đang được hiển thị ở tốc độ 30 khung hình / giây, độ
phân giải của mỗi khung hình là 640 × 480, và 24 bit (3 byte) đang được sử dụng để đại diện cho mỗi
màu.
Giả sử không sử dụng nén, các băng thông cần thiết để cung cấp tập tin này là gì?
Tiếp theo, giả định rằng tập tin đã được nén ở tỷ lệ 200: 1, băng thông cần thiết để cung cấp các file
nén là gì?
Trả lời:
Băng thông cần thiết để giải nén dữ liệu là 30 × 640 × 480 × 3 byte / giây. Điều này đã là khoảng 26 MB /
s.
Tập tin được nén bằng một tỷ lệ 200: 1, sau đó yêu cầu băng thông giảm đến 135 KB / s.
20.7 Một ứng dụng đa phương tiện bao gồm một tập có chứa 100 hình ảnh, 10 phút video, và 10 phút
âm thanh. Các kích thước nén của video, hình ảnh và âm thanh là 500 MB, 550 MB, và 8 MB, tương
ứng. Các hình ảnh được nén ở tỷ lệ 15: 1, và các video và âm thanh đã được nén ở 200: 1 và 10: 1,
tương ứng. Các kích thước của video, hình ảnh và âm thanh trước khi nén là bao nhiêu?
Trả lời:

20.8 Giả sử rằng chúng ta muốn nén một file video kỹ thuật số sử dụng công nghệ MPEG-1. Tỷ
lệ bit mục tiêu là 1,5 Mbps. Nếu đoạn video được hiển thị ở độ phân giải 352 × 240 tại 30 khung
hình / giây bằng cách sử dụng 24 bit để đại diện cho mỗi màu, tỉ lệ nén cần thiết để đạt được tốc độ
bit mong muốn là gì?

Trả lời:
Tỷ lệ bit cần thiết để hỗ trợ video không nén là:
352 * 240 * 30 * 3 / (1024 * 1024) = 7,2509 MB / s.

Tỉ lệ nén cần thiết: (1MB = 8Mbit)


7,2509 * 8/1.5 = 38:1.
20.10 Hãy xem xét hai quá trình, P1 và P2, nơi
p1 = 50, t1 = 25,
p2 = 75, t2 = 30.
a. Có thể hai quá trình được sắp xếp sử dụng ratemonotonicscheduling? Minh họa câu trả lời
của bạn bằng cách sử dụng một biểu đồ Gantt.
b. Minh họa cho lập kế hoạch của hai quá trình sử dụng earliestdeadlinefirst (EDF) lập kế
hoạch.

Trả lời:
20.10 Bảng sau đây có chứa một số lượng yêu cầu với deadlines and cylinders. Yêu cầu với thời
hạn xảy ra trong vòng mỗi khác 100 phần nghìn giây sẽ được đồng loạt. The disk head is đang ở tại
cylinder 94 đang di chuyển đến cylinder 95. Nếu lịch đĩa SCAN-EDF được sử dụng, làm thế nào
được yêu cầu trộn với nhau, và những gì là thứ tự của các yêu cầu trong từng đợt?
Trả lời:
Batch 1 (R1, R4, R5),
Batch 2 (R6, R9), and
Batch 3 (R2, R3, R7, R8, R10).

Within batch 1, requests are scheduled as: (R5, R1, R4)


Within batch 2, requests are scheduled as: (R9, R6)
Within batch 3, requests are scheduled as: (R2, R8, R7, R3, R10)
20.11 Lặp lại câu hỏi trước, nhưng thời gian này hàng loạt các yêu cầu có thời hạn xảy ra trong
thời gian 75 phần nghìn giây của mỗi khác.
Trả lời:
Batch 1: (R1),
Batch 2: (R4, R5, R6, R9),
Batch 3: (R10),
Batch 4: (R2, R3, R7, R8)

20.12 Đối chiếu để làm nổi bật những điểm khác nhau unicasting, multicasting, và broadcasting như
kỹ thuật để cung cấp nội dung trên một mạng máy tính.
Trả lời:
Unicasting là tình huống mà máy chủ gửi dữ liệu để chỉ có một khách hàng. Nếu nội dung được yêu cầu
của nhiều khách hàng và nếu unicast là cơ chế chỉ có sẵn, sau đó máy chủ sẽ phải gửi unicast nhiều kênh để
tiếp cận các khách hàng khác nhau.
Broadcasting cho phép một máy chủ để cung cấp nội dung cho tất cả các khách hàng bất kể họ muốn nhận
được các nội dung hay không. Kỹ thuật này có thể dẫn đến việc không cần thiết đối với những khách hàng
mà không cần các nội dung nhưng vẫn nhận được các dữ liệu phát sóng.
Multicasting là một thỏa hiệp hợp lý nơi mà máy chủ có thể gửi dữ liệu đến một số tập hợp con của khách
hàng và yêu cầu hỗ trợ từ các bộ định tuyến mạng để thông minh lặp lại trong các stream tại các điểm trong
mạng lưới hợp khách hàng đích được gắn vào mạng lưới phụ khác nhau.
20.13 Mô tả tại sao HTTP thường không đủ để cung cấp các phương tiện truyền thông.
Trả lời:
HTTP là một giao thức không quốc tịch, nơi các máy chủ không duy trì bất kỳ thông tin về khách hàng.
Điều này là đủ để truy cập dữ liệu tĩnh, nhưng đối với dòng phương tiện truyền thông mà khách hàng có thể
yêu cầu khả năng tạm dừng các dòng và tiếp tục nó tại một thời gian sau đó, một giao thức không quốc tịch
là không đủ. Các máy chủ sẽ không thể theo dõi vị trí hiện tại trong dòng cho một khách hàng và do đó sẽ
không thể nối lại các tuyến tại một điểm sau đó.
20.14 Nguyên tắc hoạt động gì được sử dụng bởi hệ thống kiểm soát nhập CineBlitz thực hiện cho các
yêu cầu cho các tập tin phương tiện truyền thông?
Trả lời:
Cineblitz phân biệt khách hàng thành hai nhóm: những người đó có yêu cầu dịch vụ thời gian thực và
những người không. Các nguồn lực được phân bổ như vậy mà một phần nhỏ của nó được dành riêng cho
khách hàng thời gian thực và phần còn lại được phân bổ cho các khách hàng không thời gian thực. Hơn
nữa, khi khách hàng yêu cầu dịch vụ thời gian thực đi vào hệ thống, nó được nhận vào hệ thống chỉ khi có
đủ nguồn lực để phục vụ các khách hàng mới. Đặc biệt, khi khách hàng gửi một yêu cầu, hệ thống ước tính
thời gian phục vụ cho yêu cầu và yêu cầu được thừa nhận chỉ khi tổng các ước tính thời gian phục vụ cho
tất cả các yêu cầu thừa nhận không vượt quá thời hạn của chu kỳ dịch vụ T.

You might also like