You are on page 1of 6

Unit 8: Hiding the hardwa

Hiding the hardware


1. "Hiding the hardware': Using virtual machines to improve system efficiency
Good system design has always tried to balance performance and cost. For designers of
generalized commercial systems, this has meant a careful analysis of the specifications of
component parts, to ensure that they can provide the necessary functionality and reliability at the
least possible cost. Where systems are a key element of commercial organizations, the level of
system efficiency can mean the difference between success and failure for a company.

2.Here is a list of questions which have to be considered by systems designers:


• What can be done to minimize system hardware costs?
• What is the best balance between the level of specification of hardware components in a
system, and their cost? • What are the implications of these changes on the overall operation of
the system?
• How easily will the system architecture 'scale up': that is, increase proportionally, if it needs to
be expanded?
• How can systems be designed to minimize their effects on the environment?
Some answers to the above questions have been provided by virtualization. A key concept of
virtualization is clustering, which means locating the hardware elements of the system together in
a data centre or server farm. This makes it easier to provide an optimal environment for the
hardware to work in. System maintenance is also simplified by clustering, as it makes components
easily accessible for repair or replacement. Another concept is masking, which involves making the
physical components of the system appear as one virtual device to system administrators. This
makes it easier for them to manage the system. Virtualization can be used for servers, storage and
networking. A key benefit of virtualization is that physical components can be added or removed
without shutting down the system (this is known as 'hot swapping'). This provides great flexibility
for system designers as it means that processing, networking or storage capacity can be scaled up
or down very quickly in response to changes in the business environment.

Dịch:

3. In addition to flexibility in system size, virtualization allows flexibility in terms of the specification
of system components which can be used, although there are limitations. The system developer's
choice of components is limited by the level of reliability required by the system. For example, 'out-
of-the-box' servers which are those purchased from manufacturers without modification, are
typically both expensive and high specification. They are ideal for e-commerce companies such as
Amazon which require very high levels of reliability and data integrity (ensuring that data is not
corrupted). For others, such as Google, reliability is less important than cost because the amount of
revenue which they obtain from each search is so small. For this reason, they have used enormous
numbers of low-cost, low-specification PCs. These are less reliable, but using virtualization means
that the failure of a component, such as a motherboard, will not disrupt the service overall. Any
loss of data will only affect transactions taking place at the time. For search engine systems such as
Google, this may simply mean users not getting the optimum search results. For other types of
systems, the effects may be more damaging.
4. Large amounts of power are required to cool data centres, which has led to a widespread
recognition of the impact of virtualization on global warming. The size of this impact can be seen in
a 2006 US EPA (Environmental Protection Agency) report. This stated that data centres accounted
for 1.5% of all US electricity consumption, and that the technology they used had to be improved if
their rate of growth was to be sustained. For example, most data centres use chillers, which are
elaborate water based cooling systems, to maintain an appropriate temperature for the hardware.
However, some companies, such as Google, have begun an initiative to m avoid the use of chillers
and to reduce power consumption by relying on innovative data centre design. One approach is to
use only DC current in the centres, avoiding conversion losses from standard AC current. By using
higher specification voltage regulator work), operating at lower usage levels, or at full capacity. 1
By giving each server its own battery, Google avoids using uninterruptible power supplies (UPS), a
term used for giant batteries which ensure that servers keep en sit at n circuitry-circuits on the
computer's motherboard providing the voltages required by the microchips - more power savings
can be made. In fact, all server components are designed to have a property called energy
proportionality, which ensures that they operate efficiently whether they are idle (not doing any
active running if there is a power outage. These consume large amounts of energy. While Google
has long been it recognized as a leader in data centre energy efficiency, Yahoo is catching up. By
2014, Yahoo plans to have data centres which will be more energy efficient than those currently
used by Google, according to a Yahoo corporate blog on 30th June 2009.

5
Unit 8: Hiding the hardware
Ẩn phần cứng
"Ẩn phần cứng": Sử dụng máy ảo để cải thiện hiệu quả hệ thống
Thiết kế hệ thống tốt luôn cố gắng cân bằng giữa hiệu suất và chi phí. Đối với các nhà thiết kế hệ thống thương mại
tổng quát, điều này có nghĩa là phải phân tích cẩn thận các thông số kỹ thuật của các bộ phận thành phần, để đảm
bảo rằng chúng có thể cung cấp chức năng và độ tin cậy cần thiết với chi phí thấp nhất có thể. Khi hệ thống là yếu
tố quan trọng của các tổ chức thương mại, mức độ hiệu quả của hệ thống có thể có nghĩa là sự khác biệt giữa thành
công và thất bại đối với một công ty.

• Có thể làm gì để giảm thiểu chi phí phần cứng hệ thống?


• Sự cân bằng tốt nhất giữa mức độ thông số kỹ thuật của các thành phần phần cứng trong hệ thống và chi phí của
chúng là gì?
• Tác động của những thay đổi này đối với hoạt động chung của hệ thống là gì?
• Kiến trúc hệ thống sẽ dễ dàng 'mở rộng quy mô' như thế nào: tức là tăng lên theo tỷ lệ, nếu nó cần được mở
rộng?
• Các hệ thống có thể được thiết kế như thế nào để giảm thiểu ảnh hưởng của chúng đến môi trường?
Một số câu trả lời cho các câu hỏi trên đã được cung cấp bởi ảo hóa. Một khái niệm chính của ảo hóa là phân
cụm, có nghĩa là định vị các thành phần phần cứng của hệ thống cùng nhau trong một trung tâm dữ liệu hoặc trang
trại máy chủ. Điều này giúp dễ dàng cung cấp môi trường tối ưu cho phần cứng hoạt động. Việc bảo trì hệ thống
cũng được đơn giản hóa bằng cách phân cụm, vì nó giúp các thành phần dễ dàng tiếp cận để sửa chữa hoặc thay
thế. Một khái niệm khác là để che dấu, liên quan đến việc làm cho các thành phần vật lý của hệ thống xuất hiện
dưới dạng một thiết bị ảo đối với người quản trị hệ thống. Điều này giúp họ quản lý hệ thống dễ dàng hơn. Ảo hóa
có thể được sử dụng cho máy chủ, lưu trữ và mạng. Lợi ích chính của ảo hóa là các thành phần vật lý có thể được
thêm vào hoặc xóa bỏ mà không cần tắt hệ thống (điều này được gọi là 'hoán đổi nóng'). Nó mang lại sự linh hoạt
tuyệt vời cho các nhà thiết kế hệ thống vì nó là dung lượng xử lý, mạng hoặc lưu trữ có thể được tăng hoặc giảm rất
nhanh để đáp ứng với những thay đổi trong môi trường kinh doanh.

Ngoài sự linh hoạt về kích thước hệ thống, ảo hóa cho phép sự linh hoạt về đặc điểm kỹ thuật của các thành phần
hệ thống có thể được sử dụng, mặc dù có những hạn chế. Sự lựa chọn thành phần của nhà phát triển hệ thống bị
giới hạn bởi mức độ tin cậy mà hệ thống yêu cầu. Ví dụ: máy chủ “xuất xưởng”, là những máy chủ được mua từ các
nhà sản xuất mà không sửa đổi, thường vừa đắt vừa có đặc điểm kỹ thuật cao. Chúng lý tưởng cho các công ty
thương mại điện tử như Amazon, những công ty yêu cầu mức độ tin cậy rất cao và tính toàn vẹn của dữ liệu (đảm
bảo rằng dữ liệu không bị hỏng). Đối với những người khác, chẳng hạn như Google, độ tin cậy ít quan trọng hơn chi
phí vì số lượng doanh thu mà họ thu được từ mỗi lần tìm kiếm là quá nhỏ. Vì lý do này, họ đã sử dụng số lượng lớn -
cost, PC thông số kỹ thuật thấp. Đây là những máy tính kém tin cậy hơn, nhưng việc sử dụng ảo hóa có nghĩa là sự
cố của một thành phần. Chẳng hạn như bo mạch chủ, sẽ không làm gián đoạn dịch vụ nói chung. Mọi mất mát dữ
liệu sẽ chỉ ảnh hưởng đến các giao dịch đang diễn ra tại thời điểm đó. Đối với các hệ thống công cụ tìm kiếm như
Google, điều này có thể đơn giản có nghĩa là người dùng không nhận được kết quả tìm kiếm tối ưu. Đối với các loại
hệ thống khác, tác động có thể gây hại nhiều hơn.
Cần phải có một lượng lớn năng lượng để làm mát các trung tâm dữ liệu, điều này đã dẫn đến sự công nhận rộng
rãi về tác động của ảo hóa đối với sự nóng lên toàn cầu. Quy mô của tác động này có thể được nhìn thấy trong một
báo cáo năm 2006 của EPA (Cơ quan Bảo vệ Môi trường Hoa Kỳ). Điều này nói rằng các trung tâm dữ liệu chiếm
1,5% tổng lượng điện tiêu thụ của Hoa Kỳ và công nghệ mà họ sử dụng phải được cải thiện nếu tốc độ tăng trưởng
của chúng được duy trì. Ví dụ, hầu hết dữ liệucác trung tâm sử dụng thiết bị làm lạnh, là hệ thống làm mát dựa trên
nước phức tạp, để duy trì nhiệt độ thích hợp cho phần cứng. Tuy nhiên, một số công ty, chẳng hạn như Google. đã
bắt đầu một sáng kiến để tránh sử dụng thiết bị làm lạnh và giảm tiêu thụ điện năng bằng cách dựa vào thiết kế
trung tâm dữ liệu sáng tạo. Một cách tiếp cận là chỉ sử dụng dòng điện một chiều trong các trung tâm, tránh tổn
thất chuyển đổi từ dòng điện xoay chiều tiêu chuẩn. Bằng cách sử dụng mạch điều chỉnh điện áp thông số kỹ thuật
cao hơn - các mạch trên bo mạch chủ của máy tính cung cấp điện áp theo yêu cầu của vi mạch có thể tiết kiệm điện
hơn. Trên thực tế, tất cả các thành phần máy chủ được thiết kế để có một thuộc tính gọi là tương xứng năng lượng,
đảm bảo rằng chúng hoạt động hiệu quả cho dù chúng ở chế độ nhàn rỗi (không hoạt động trong công việc), hoạt
động ở mức sử dụng thấp hơn hoặc hết công suất. Bằng cách cung cấp pin riêng cho mỗi máy chủ. Google tránh sử
dụng nguồn điện liên tục (UPS), một thuật ngữ được sử dụng cho các loại pin khổng lồ đảm bảo rằng các máy chủ
tiếp tục hoạt động nếu bị mất điện. Những thứ này tiêu tốn một lượng lớn năng lượng. Trong khi Google từ lâu đã
được công nhận là công ty dẫn đầu về hiệu quả sử dụng năng lượng của trung tâm dữ liệu, thì Yahoo đang bắt kịp.
Đến năm 2014, Yahoo có kế hoạch có các trung tâm dữ liệu sẽ tiết kiệm năng lượng hơn những trung tâm hiện đang
được Google sử dụng, theo blog của công ty Yahoo vào ngày 30 tháng 6 năm 2009.

You might also like