You are on page 1of 20

The Essentials Series

Virtualization and Disaster Recovery
sponsored by

by J. Peter Bruzzese

  Article 1: Data Protection in a Virtualized Environment ........................................................................ 1  An Overview of Virtualization: Enhanced Protection with Less Hardware ............................... 1  Cost Savings of a Mirrored Site (Fewer Systems and Personnel) .............................................. 2  Facilitation of Testing ................................................................................................................................... 3  The Rules Regarding Traditional Data Protection Are Not Deprecated ...................................... 4  Move Data Quickly and Cost Effectively Across the WAN .................................................................. 5  The Benefits of an Effective Data Protection and Recovery Strategy ........................................... 5  Article 2: Leveraging Virtualization for High Availability and Business Continuity ................... 7  High‐Availability and Business Continuity Benefits from Virtualization .................................... 7  An Overview of Replication‐Based Technologies .................................................................................. 8  Levels of High‐Availability Resiliency ..................................................................................................... 10  Common Replication Configurations .................................................................................................. 10  Ensuring Critical Business Functions ...................................................................................................... 11  Regulatory Compliance within a Virtualized Environment ........................................................... 12  Summary .............................................................................................................................................................. 12  Article 3: Replication and Recovery Management Solutions ............................................................. 13  Pricing Models Come in All Shapes and Sizes....................................................................................... 13  Server Virtualization ROI .............................................................................................................................. 14  Selling the Solution .......................................................................................................................................... 16  Purchase a Virtualization Solution ....................................................................................................... 16  Rent a Virtualization Solution ................................................................................................................ 16  Summary .............................................................................................................................................................. 17 




Copyright Statement
© 2009 Realtime Publishers, Inc. All rights reserved. This site contains materials that have been created, developed, or commissioned by, and published with the permission of, Realtime Publishers, Inc. (the “Materials”) and this site and any such Materials are protected by international copyright and trademark laws. THE MATERIALS ARE PROVIDED “AS IS” WITHOUT WARRANTY OF ANY KIND, EITHER EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE, TITLE AND NON-INFRINGEMENT. The Materials are subject to change without notice and do not represent a commitment on the part of Realtime Publishers, Inc or its web site sponsors. In no event shall Realtime Publishers, Inc. or its web site sponsors be held liable for technical or editorial errors or omissions contained in the Materials, including without limitation, for any direct, indirect, incidental, special, exemplary or consequential damages whatsoever resulting from the use of any information contained in the Materials. The Materials (including but not limited to the text, images, audio, and/or video) may not be copied, reproduced, republished, uploaded, posted, transmitted, or distributed in any way, in whole or in part, except that one copy may be downloaded for your personal, noncommercial use on a single computer. In connection with such use, you may not modify or obscure any copyright or other proprietary notice. The Materials may contain trademarks, services marks and logos that are the property of third parties. You are not permitted to use these trademarks, services marks or logos without prior written consent of such third parties. Realtime Publishers and the Realtime Publishers logo are registered in the US Patent & Trademark Office. All other product or service names are the property of their respective owners. If you have any questions about these terms, or if you would like information about licensing materials from Realtime Publishers, please contact us via e-mail at




Article 1: Data Protection in a Virtualized  Environment 
In a traditional network environment, the hardware is the heart of operations. But times  are changing, and although hardware is still an indispensable part of the operations in any  IT center, software technologies are expanding into new territories. These technologies aim  to provide the same—or better—level of strength found in a hardware solution while  decreasing the number of hardware devices you need in your business environment. One of  the most popular technologies in this regard is virtualization. 

An Overview of Virtualization: Enhanced Protection with Less  Hardware 
Virtualization is not a new concept—it has existed for decades—but what is new about it is  the rapid rate of adoption in IT departments of all sizes and shapes. Once used mainly in  testing and development, virtualization is now a key player in production environments. In  the event you haven’t had a chance to work with virtualization software, let’s review the  overall concept.  The concept of virtualization is simple—you run a piece of software (a virtual machine) on  a PC as if this virtual machine is just an ordinary software application. In the virtual  machine, you can install the operating system (OS) of your choice and on top of this OS,  install any applications you need. This way, on one hardware configuration, you can have  many virtual PCs, each of them running an OS and software applications of its own,  independently from the OS and the applications you are running on the main (host)  computer. Keep in mind, however, that the layer running above the hardware is standing  in‐between your virtual systems and the bare metal, so to speak. The thinner that layer can  be the better.  What stands between the hardware and the guest OS is called a hypervisor. Typically on  standalone systems, the hypervisor runs off the conventional OS that you might be using,  whereas a hypervisor that runs directly on the bare metal or as close to it as possible is a  more server‐oriented virtual machine (VM) architecture that you would look to when  considering virtualization and data protection. 



    Note  Although multiple virtual machines running on one physical machine  illustrate what server virtualization is, there is another equally important  type of virtualization that is also used in IT environments—storage  virtualization. Server virtualization uses the hardware resources of one  computer to run multiple OSs/servers/applications; storage virtualization  deals with storage devices only (for instance, disk arrays). Similar to server  virtualization, which abstracts logical servers from the physical hardware  infrastructure they run on, storage virtualization abstracts storage from the  separate drives where data is physically dispersed. Briefly, data can be  written over multiple physical disks, but from the administration console, all  these disks appear as one logical entry. The term storage virtualization might  not be as mainstream as its server counterpart; there is hardly an IT person  who has not heard of RAID, SAN, or NAS, which are examples of storage  virtualization.  Typically, when one says “disaster recovery,” RAID technologies are the first to come to  mind. Although storage virtualization technology is a more common direction people look  to when attempting to protect their data and system availability, server virtualization is  becoming so reliable and cost effective that disasters are no longer mitigated through  traditional backup/restore methods. In fact, using virtualization technology, a company  may be able to achieve 100% availability with complete data protection. 

Cost Savings of a Mirrored Site (Fewer Systems and Personnel) 
Server virtualization, real‐time data replication, and failover technology are capabilities  that provide a high level of protection while keeping costs at a minimum. As already  explained, server virtualization allows you to maximize performance by allowing fewer  virtualized servers to do the work of multiple physical servers, yet at the same time cut  costs because—when compared with non‐virtualized environments—server virtualization  allows for fewer machines to perform the same amount of work.  Where virtualization really shines for data protection and disaster recovery is in the ability  to eliminate the typical hardware equality required in physical server redundancy and  recovery solutions. The pieces of hardware become less critical in a virtualized  environment. By moving to a virtual model with a hardware‐agnostic formation, you can  restore systems without a concern for identical hardware or even near‐identical hardware.  This provides a quicker and far more efficient disaster recovery solution. 



  Host servers must be powerful machines (in terms of CPU and RAM mainly). Although the  minimum requirements of most server virtualization solutions are moderate, optimal  performance can’t be achieved on a weak machine. In any case, adding more RAM or  upgrading to a faster CPU is much cheaper than purchasing a separate brand‐new  machine—one of the points that make server virtualization a cost‐effective solution.  One of the biggest obstacles to choosing an effective protection solution is cost. If a  company’s fiscal needs were not an issue, there are many advanced hardware and software  solutions that provide a really robust data protection mechanism. However, the reality is  that very few, if any, IT departments can afford to invest millions in such a robust system.  Of course, in those cases, where data protection is more than vital (for example, military  systems), cost comes second to reliability.  There are many robust solutions that might not necessarily be military strength but are  vigorous enough to protect critical data. Very often, the optimal solution is a high level of  data protection at an affordable price; these solutions are what a typical IT department  needs.  In addition to cutting hardware costs, virtualization allows for a reduction in the number of  required personnel, thus providing for wage‐related savings. Virtual environments can be  centralized and managed remotely, so there is need for fewer personnel working on the  administration of systems, and your workforce can now be used for other tasks. Certainly,  in a challenging economy with possible shrinking budgets being offered to IT departments,  the ability to decrease personnel resources is a motivator. 

Facilitation of Testing 
As I have already mentioned, before going mainstream in production environments,  virtualization was used mainly for testing. The uses of virtualization for testing have by no  means decreased and even companies that don’t use virtualization in a production  environment use it daily for testing.  The advantages of virtualization for testing are obvious. Having your data virtualized  allows for more frequent testing than with physical servers. You just copy the testing setup  from another machine or restore it from a backup, and you are ready to go. There is no  need to install and configure applications or OSs—you simply copy the file of the virtual  machine. In addition, while physical server testing can oftentimes be painful and  frustrating, virtualization allows servers to be shut down and turned on easily, even  allowing for remote server failure simulation without concern over physical access to the  system that you normally prepare for when testing remote failures on physical systems. 



  However, you should be aware of the potential downsides of this solution. With  virtualization for testing, one of the drawbacks is that it is not an impossibility (though  certainly it is not the norm) to observe differences in the behavior of applications when run  on a virtualized platform than when run on standalone machines. In some cases, the  differences might be critical and, in even rarer cases, it is possible that there are  applications that cannot (or shouldn’t) be run in a virtualized environment. Fortunately,  such cases are infrequent; thus, typically, it is appropriate to use virtualization for testing. 

The Rules Regarding Traditional Data Protection Are Not Deprecated 
When discussing data protection in a virtualized environment, the perception might be  one‐sided in thinking that virtualization is useful only for remote site servers supporting  replication and failover. It’s true that virtualization provides for amazing recoverability  through WAN disaster recovery sites, but it’s important to remember that you must have a  backup system designed into your production environment to ensure the protection of  both physical and virtual servers.  Data protection starts at the physical level. If there are no clearly defined rules about how  you protect data physically, even the most sophisticated methods are easily compromised.  The physical aspect of data protection includes access, backups, and protection against  natural disasters, and it is the basis of your data protection policy.  You must have clear rules regarding who and under what circumstances data can be  accessed. Unauthorized access makes any other data protection methods useless. You  should also regularly back up your data (weekly, daily, or even real‐time) and keep the  backups in a safe place. Natural disasters don’t happen on a daily basis but when they do  happen, the result is devastating. Therefore, if you want to make sure that your data is  protected against physical destruction, always make reasonable measures to protect the  premises against flood, fire, earthquakes, and so on, and above all, always keep an up‐to‐ date backup at a secure remote location. 



  To fully enjoy the benefits of virtualization for data protection, you need to apply certain  measures to ensure that the data is protected from risks. Virtualization is not a panacea,  and if you neglect basic rules in regard to data protection in general and in a virtualized  environment in particular, don’t count on virtualization to save your data. When data is  dispersed over a network, no matter whether it is a LAN or a WAN, and this network is not  guarded properly, there is no effective data protection mechanism in place. A network is as  secure as its weakest part, so if there are gaps in the security policies (that is, roles and  privileges are not properly defined and enforced), the integrity of the whole system is  under question. Generally, the least privilege rule is a great security policy, so you’re better  being restrictive now rather than sorry later. 

Move Data Quickly and Cost Effectively Across the WAN 
When disaster strikes, the last thing you have is time to think what to evacuate first.  Usually, even if there is a detailed disaster recovery plan (and such a plan should be part of  any data protection policy in every IT department) and you know what you must do, time is  a critical asset and you don’t have long hours at your disposal.  Thus, you need data protection solutions that have the ability to move data quickly and cost  effectively across the WAN. If you can count on greater utilization of the links involved in  the WAN portion of your protection plan, you have much more flexibility to plan properly.  Combining virtualization with a solid WAN connection to a disaster recovery site changes  the recovery game dramatically. You can replicate both physical and virtualized servers  over to virtual servers at the disaster recovery location both quickly and cost effectively.  Virtualized servers are a boon in terms of speed of data evacuation. Because virtualized  servers are in fact just software files that you can copy from one machine to another in no  time at all—or can be copied automatically through specialized solutions that provide for  just that type of scenario—your entire set of operations (servers, applications, and files)  can be redundant in an alternate virtualized location. The files, which contain a virtualized  server, are small in number (but large in size) and transferring them to a remote location is  much easier than moving thousands of files.  Additionally, dealing with locked or open files is easier because a locked file is not a  separate entity you can’t rename or move; it is just a file nested inside the file with the  virtualized server. Migration of open or locked files while users are accessing or writing to  those files is not the key concern it would be with certain simple backup/recovery  solutions. There is also not a concern over the security of those redundant files because if  the lock is done properly, you won’t be able to open and/or modify the file; thus, if the data  inside the file is sensitive, you don’t have to worry that when you store the file on a  virtualized platform, the data inside it is readily exposed to unauthorized access. 

The Benefits of an Effective Data Protection and Recovery Strategy 
Through the flexibility of virtualization, you can encapsulate the OS, applications, and data  into a virtualized system. You can then transmit this encapsulated application within your 



  production environment or to an offsite location—just as you would transmit a data file— and make it available on a remote machine for employees to access. Even if there were no  other benefits of virtualization in regard to data protection, this capability alone can cut  downtime in the event of system failure from days to hours or less.  In considering the benefits of any disaster planning and recovery solution, there are two  common metrics that are analyzed: Recovery Time Objective (RTO), which is a  measurement of the time from the point of system failure and the time when that system is  functional yet again, and Recovery Point Objective (RPO), which is a time definition  connected with how much data loss is possible with the recovery. RPO relates to the  timeframe of the last good backup that can be restored in the event of a total disaster. For  example, if a disk array fails and data is only recoverable from your tape backups, which go  back to the night before (roughly 10 hours for the sake of our example), your RPO is 10  hours. The interesting aspect of these two metrics is that there is the reality of what you  have and the goal that you are reaching towards. Between the reality and the goal, there  are a slew of technology options for high availability, clustering, hardware RAID,  virtualization, and so forth. The tighter your RTO and RPO requirements, the more money  you will have to spend, depending on the technology you choose.  Typically, companies are looking at their RTO and RPO results and seeing that traditional  methods are not even close to being good enough for their desired objectives. This is what  is driving the movement toward virtualization. Certainly the feature benefits mentioned  earlier with the ability to perform testing and manage servers remotely and more easily are  certainly a draw. But it is the ability to recovery quickly from a disaster with a minimal  disruption of business operations at an affordable price where virtualization shines. 




Article 2: Leveraging Virtualization for High  Availability and Business Continuity 
The previous article discussed the basics of virtualization and examined its benefits for  data protection. Companies can also benefit from virtualization in the areas of high  availability and business continuity. High availability and business continuity are critical;  without them, adequate data protection is impossible and the problems that arise can be  very serious. In some cases, a lack of high (or more precisely, any) availability and business  continuity, especially for a prolonged periods of time, can threaten the very existence of a  company.  The concerns of disaster recovery, virtualization, and high availability often fall into the IT  department’s ‘worry box.’ However, these concerns effect the company’s ability to continue  business, and should therefore be viewed as critical by the entire company—especially  decision makers who all too often have shallow pockets when it comes to disaster recovery  needs.  Modern business has a 24/7 non‐stop running requirement. Consider your various servers  and imagine any one of them being unavailable for any length of time. Would your  company be able to lose any one of your IT services and deal with a long‐term disruption  (or even a short‐term one)? The cost of a disruption in service could be substantial, so it is  a key part of a business continuity plan to look into all approaches (both hardware‐ and  software‐oriented) to ensure data protection, high availability, and disaster recovery. As  hardware solutions are often cost prohibitive, companies are looking more to software and  virtualization to provide the cost‐effective and reliable solutions they need. 

High‐Availability and Business Continuity Benefits from Virtualization 
The following list highlights ways an organization can benefit from virtualization:  • Simplification of infrastructure—Virtualization, both server and storage,  simplifies the infrastructure. All equal, when there is less hardware, there is less  complexity, which in turn, means that the infrastructure is easier to monitor and  troubleshoot when problems arise. This translates into less downtime and higher  availability.  Easier branch management—Providing data protection to a globally dispersed  network of machines is always a challenge, but thanks to virtualization, remote  locations are easier to manage. With virtualized solutions, there is no need to have  physical access to a machine in order to troubleshoot and restart it. Additionally,  thanks to virtualization, branches can be easily consolidated, thus helping to not  only achieve higher availability and improved business continuity but also reduce  costs. 



  • Cross­platform issues become irrelevant—Homogeneous networks are more of  an exception than a rule, and virtualization can make the administration of  heterogeneous environments much easier. For example, suppose you have  applications that run on Linux but you don’t have a spare machine with Linux  installed. If the Linux machine on which the applications are running crashes, in a  traditional, non‐virtualized environment, you are helpless. But when you use  virtualization, this scenario is not a problem. You simply copy the file with the Linux  machine on another machine (regardless of its operating system—OS; the only  requirement is that the machine be capable of running a virtual machine. The  solution is fast, easy, and efficient.  Easily separate business units—In addition to centralization of resources,  virtualization can be used to separate business units. Decentralization is useful in  large infrastructures where there are many business units and it is better to isolate  them from one another in order to manage them easily as separate entities. A good  example is a hosting provider who runs each customer’s sites in a separate virtual  machine, thus shielding them from the dangers of sites run in a multi‐client  environment while still using a reduced number of physical machines. 

An Overview of Replication‐Based Technologies 
Let’s focus a bit more intently on the technical aspects, or more precisely, the types and  uses of replication‐based technology in a virtualized environment. Replication‐based  technologies allow the capturing of a set of data at a particular point in time, typically  involving minimal overhead and fast restoration of data. This functionality is why  replication‐based technology is the preferred solution for providing high availability of  critical systems. Although replication is typically viewed from the perspective of remote  WAN‐based replicas, using the same technology for the creation of local replicas is another  method to achieving business continuity.  When looking into a solution that you can count on for your environment in terms of  replication, you want to be sure you have real‐time data replication, which basically means  data is replicating as it is coming into the local system. In some cases, the right solution is  synchronous replication, which offers zero data loss by ensuring that the data is written to  both the local and remote systems with a confirmation before proceeding. In other  situations, asynchronous replication is utilized. This method requires specific data or logs  to be closed out on one server before being replicated over to the other server. With  asynchronous real‐time replication, there is the potential for a small amount of data loss. 



  One of the concerns with replication is that a corrupt file on the production side might be  replicated over to the disaster recovery site or to a local virtualized server that you use for  replication. To meet this challenge, a feature called Continuous Data Protection (CDP) is a  crucial factor to any business continuity planning. CDP provides the ability to revert back to  an earlier version of data. Thus, in the event corruption occurs, you can replay point‐in‐ time versions backward to remove that corruption. Depending on the technology you are  using, there are different granularities to such a solution. Some solutions may have fixed‐ time intervals of restoration (every hour, 5 hours, 24 hours, and so forth). When  considering a replication solution, factor in a solution’s ability to offer CDP based on either  every write or a specified timeframe (even if those timeframes are as narrow as seconds).  You should also pursue replication technology that considers WAN optimization in either  hardware or software (or both). Although you might be replicating data between two local  systems in your scenario, typically for disaster recovery sites, you need a WAN connection  to an offsite location. That WAN connection becomes a critical component not only for the  replication process but also in the event you need to support your offices from that disaster  recovery site (and then eventually when you need to recover over those WAN connections).  While looking for a product to meet your needs, consider WAN optimization an essential  item on your checklist. Depending on the size of your environment, you should also have a  replication strategy that centralizes your servers, relocating them to primary and  secondary data centers.  Replication can work in many environments, but you need to take into account what  hardware and software you will be using because the existing environment could be an  issue that limits your choices. For instance, there are virtualization solutions that work on  only certain OSs and on only particular models of hardware. If your hardware/software is  not supported by the virtualization solution of your choice, you will either have to choose a  different virtualization solution or replace your hardware/software, which could be very  expensive. Consider, for example, environments that use a mixture of Microsoft solutions  (Exchange, SQL, IIS Web servers, file servers) across both 32‐ and 64‐bit architectures.  Suppose they also utilize an Oracle server, a BlackBerry server, and Linux or Solaris  servers. They must ensure that the solution they are pursuing has the ability to support all  of these platforms. If not, they will need to continue investigating for an all‐inclusive  solution. Fortunately, many of the leading virtualization solutions support a wide range of  hardware/software platforms, so chances are that you will not face this incompatibility  issue. It is worthwhile, however, to first double check compatibility and then proceed to the  choice of a replication configuration. 




Levels of High‐Availability Resiliency 
There are a variety of ways to implement virtualization for an environment. In addition to  checking possible compatibility issues, you must take into account the following replication  configuration considerations:  • Deciding what to replicate. First you need to decide if you will replicate everything  or only some data. This decision influences your choice of replication configuration.  If you decide to mirror a server (that is, replicate everything on it), it is best, though  not mandatory, if the replication target is a dedicated machine or at least a very  powerful one. Of course, you can replicate many virtual servers to one target  machine, but only if you have made wise disaster recovery preparations for that  critical server (which leads to our next point).  Deciding where you will replicate to. Choosing the replication target (the machine  you will be replicating to) is also important because if you make unwise choices and  your target fails, you will have no replica to restore from. One of the worst cases is  when you decide to replicate all your virtualized systems to one target. This choice  is risky because the target becomes a single point of failure. 

Additionally, if the applications you are replicating do not coexist peacefully on one  machine (for example, SQL Server, a Lotus server, and an Oracle database or two versions  of Exchange) and you replicate them on one machine, you can bet at least one application  (or even all of them) will stop working. Fortunately, in this case, virtualization can help  because all you need to do is create a separate virtual machine for each of the applications  and replicate them there. Of course, if you are replicating database applications, which  generally use a lot of resources (CPU time, writes and reads to the disk, and so on), you  need to insure that the physical machine is a powerful one—otherwise the whole scenario  might not work. 

Common Replication Configurations 
Choosing what and where to replicate are very important decisions. The next step is to  choose how exactly you will perform the replication. There are many possible  configurations that use virtualization for high availability and business continuity. The  following list focuses on three common configuration possibilities:  • Replication of a physical set of servers to a virtual set of servers—The  advantage of using a physical set of servers replicating back to a virtual set of  servers is that you can utilize fewer virtual servers on the back end. This  configuration makes sense when your front‐end servers are not under a very heavy  load and/or you are not replicating everything from them. The host machine of the  virtualized system must be a very robust one; otherwise, the whole configuration is  risky. 



    • Replication of a virtual set of servers to a virtual set of servers—This  configuration uses virtualized servers both for the production side and for the  recovery site (or for a localized set of virtualized servers on‐site). Using this  configuration allows you to maximize hardware utilization on both the front end  and back end. Due to numerous advantages over the other configurations, this  configuration is frequently recommended as the most cost effective way to increase  availability.  Replication of a virtual set of servers to a physical set of servers—This  configuration is rarely used because it offers the least cost savings and not  necessarily the highest availability. Additionally, it is more difficult to administer.  This configuration makes sense if you happen to have spare physical machines at  your remote location that you want to utilize. 

Virtualization opens new perspectives for data protection. Thanks to virtualization, it is  possible to achieve high levels of availability and business continuity at an affordable price.  However, not all virtualization solutions are equal.  Note  The next article of the series will focus on the pricing models for  virtualization solutions, thus helping you to decide how to find the perfect  combination of quality and price to suit your needs. 

Ensuring Critical Business Functions 
One of the global benefits of virtualization for a company is that it makes IT operations  much easier and more reliable. Virtualization makes company management easier by  significantly reducing the required hardware and the number of people involved to  perform the same amount of work. Managing less hardware and people eases the  management of the company as a whole.  Sometimes it is neither possible nor necessary to ensure high availability for every single  business function in your organization. There is no doubt that it is best to provide 100%  high availability for every business function, but the price and effort required to do so  could be more than you can afford. In this case, you need to make sure that at least your  critical business functions are covered by your high‐availability efforts.  Critical business functions vary from one company to another and you need to identify  them for your company rather than “borrow” them from the docket of another company.  Think of all the business functions within your organization that if interrupted could lead  to serious financial, legal, or other damages or penalties. 



  Through virtualization, you achieve high availability for your critical business functions  because it allows for rapid restoration of these functions after they have been interrupted  by a disaster. With virtualization, restoration of a failed system is as easy as copying the  configuration from one machine to another. Also, when you have multiple servers on one  physical machine and one of them fails, you can quickly isolate the failed server and  prevent disruption of operation of the other servers on the same machine or on the  network as a whole. 

Regulatory Compliance within a Virtualized Environment 
High availability and business continuity are not only essential for internal operations; very  often, external factors such as regulations make it mandatory for companies to provide  continued business. Regulations such as the Sarbanes‐Oxley Act and the Health Insurance  Portability and Accountability Act (HIPPA) are examples.  Thanks to virtualization, it is possible to consolidate data centers and have centralized,  stricter security policies in compliance with these regulations. In that aspect, virtualization  is not a luxury, it is a necessity; if your IT department is not compliant with these  regulations, non‐compliance could lead to financial penalties, a drop in company stocks,  loss of customer confidence, and lost profits. 

Virtualization can help a company to achieve high availability and business continuity  while keeping the costs under control. When a company can’t ensure high availability for  its IT operations, consequences are hefty. High availability is not a function of technical  expertise and modern equipment only; it is also a function of management capabilities (or  their lacking). However, when a company doesn’t have the necessary expertise and  equipment to handle disaster recovery quickly, even the most brilliant manager is helpless.  That is why the successful combination for high availability and business continuity is the  right equipment/expertise and good managerial skills. In this aspect, virtualization is a  valuable ally to any good manager. 




Article 3: Replication and Recovery  Management Solutions 
An important aspect to implementing virtualization and disaster recovery is the pricing  model. Every company is different and their needs vary; every virtualization solution is  unique as well. One of the important factors for a decision maker to consider is the  environment you currently have (for example, a mixed environment) and what the pricing  structure you are investigation offers in terms of simplicity, implementation, and  scalability—not to mention cost. 

Pricing Models Come in All Shapes and Sizes 
Pricing models are typically uniform in concept (per‐socket, per‐instance, per‐processor, or  per‐CPU models) although you might discover unique naming for these solutions  depending on the vendor you are working with. Also, very often a pricing solution comes  with variations depending on the needs of the client, which is why it is always best before a  company begins the implementation phase to perform thorough research of the available  options. Many vendors are flexible in their pricing models and with some research (and  maybe a bit of negotiation), it will be possible to find a solution that satisfies all parties  involved in the process.  In addition to virtualization options, some companies provide entire solutions for disaster  recovery. With these product suites, you must factor in the cost spending/savings you hope  to achieve with the added functionality they provide. You might prefer to pick and choose  pieces of your solution from multiple vendors, but traditionally, a single, economical  package with a complete set of tools at your disposal from a single vendor is the easiest  way to meet your needs.  Virtualization Licensing Price Models  Per‐instance—A fee is charged based upon each instance of the  application server running in its own virtual machine. With virtualization,  it is not uncommon for virtual clusters to have physical servers with  different CPU configurations (two‐way, four‐way). A simple failover from  a two‐way to a four‐way system may violate CPU‐based licensing,  whereas per‐instance would hold up in a disaster recovery virtualized  environment.  Per‐processor (or per‐CPU)—This model allows a company to license by  processor (the number of processors within a system) and allows  multiple virtualized instances of the OS on that machine. Thus, you might  have a license based on the physical processor(s) within the system but  unlimited virtualization on top of that. Some pricing models even focus on  the number of sockets or the number of cores within the processor,  perhaps ignoring the virtualization aspect altogether.    13


Server Virtualization ROI 
One of the first steps a company needs to make in the direction of virtualization  implementation is an in‐depth analysis of the expected return on investment (ROI) of the  endeavor. There are many sophisticated formulas to calculate ROI; basically, they all boil  down to calculating how much you will spend and how much you will gain by a particular  solution.  ROI calculation is no easy task and different interpretations could lead to very different  results. To calculate ROI, you need to determine the costs your company could mitigate or  eliminate by adopting virtualization. This looks pretty simple and straightforward but in  reality there are many factors to consider. Very often, some direct costs don’t get adequate  weight (that is, they are underestimated or overestimated) in the equation and indirect  costs are not counted at all. The same applies to the expected benefits. When the deviations  are substantial, the final result will also vary significantly.  Let’s have a look at a simple example. Imagine that you want to obtain 20 virtualization  licenses for your IT department. You might first ask, What is the current state of your  existing servers? In the event the systems are moderately old, you may need to upgrade. If  your machines are very old, it might not make sense to upgrade them, so the only choice is  to buy new (powerful) machines. Your options are:  • • • Use your existing machines as they are  Upgrade your existing machines  Buy newer, more powerful machines 

The first case is the most favorable in terms of costs because you will not have to spend a  cent on new hardware. In fact, if your hardware has been underutilized, this scenario is  quite probable.  The third case is the most expensive; however, when calculating costs, what you are hoping  to see is that even with the purchase of new systems, this will ultimately provide a  reasonable ROI while providing for the failover and data recoverability you need. To clarify,  if you want to have 20 dedicated machines at $2000 each, this is $40,000 altogether. If you  want to have 20 machines but you plan to use virtualization, you can get 10 machines (or  even 5 or less) and deploy multiple virtual servers on them. If you get 10 machines of the  same power as the machines for the case without virtualization, this means that in the  second case, you will have to pay $20,000 less. Obviously, there are costs related to  implementing virtualization, so it is not precise to say that right now you have saved  $20,000 because of virtualization. And certainly you need to see that in the long run the  savings of less personnel and increased high availability and disaster recovery should all  factor into the ROI. 



  The second case, which is the most common, is to upgrade your existing machines in order  to make them powerful enough to host a virtualization solution. Here, costs also vary, but  you can go with $500 to $800 or even less per machine for more RAM and/or a faster CPU.  Of course, this does not mean you should get the cheapest 4GB of RAM you can find—you  will be building a server, not a PC for a temp worker doing data entry; thus, you can’t afford  to get the cheapest, low‐quality components. Still, all equal, upgrading an existing machine  is much cheaper than buying a brand new one.  In addition to the savings you will realize by spending less on hardware while still  performing the same amount of work, virtualization offers savings on an ongoing basis:  • You will need less space—10 machines less could save you the need to rent  additional room(s) or you could stop renting some of your current facilities. This  could save you let’s say $1000 a month. (Of course, if your premises are located in  an expensive region, the rent for the additional room could be more and your  savings will be higher.) This is $12,000 per year, which is the price of six new  machines!  You will need less energy—10 machines less also means less energy for powering  and cooling them. Energy expenses are a major article in any IT budget, and the  more you cut down the energy bill, the better. The savings in this group could be  $200 to $500 (partially depending on how much you will spend on cooling, which  largely varies among locations and seasons), which results in at least $2400 to  $3000 a year in savings.  You will need less staff—This benefit might not be the most tangible and you will  hardly cut your IT department because of virtualization, but it is a fact that  virtualization helps to reduce the staff you need. Here, savings vary enormously—if  you require 10 hours of service less at $50 per hour, this is $500 a month saved. 10  hours a month (or 2.5 hours a week) is not much and it is quite possible that you  will save more admin hours a month, resulting in $6000 to $10,000 or even more  savings per year. 

Keep in mind, however, that a substantial ROI may not occur immediately. In some cases, it  may even take a year or two to begin seeing results. But you are looking at virtualization as  a solution first, as a savings avenue second. All solutions initially come at a price, but having  an easier method of data protection and business continuity that actually brings down your  costs over the long run is worth pursuing.  As you can see, ROI can vary widely among companies, so you need to do your homework  and calculate ROI in your case as precisely as possible. Doing so will ensure your  expectations for a virtualization solution are realistic. 




Selling the Solution 
The first step in the decision‐making process is to determine ROI calculations, but the  process does not end here. Together with (or even before) the ROI analysis, you need to  consider the pricing model you will be using. There are many pricing models and your  choice largely affects your ROI. Let’s focus on two solution types—purchase of a  virtualization solution and rental of a virtualization solution. 

Purchase a Virtualization Solution 
The first option you have is to purchase a virtualization solution. Purchasing a  virtualization solution doesn’t mean hiring a team of developers who will create a custom‐ made solution for you because this approach is way too expensive (also, with virtualization  becoming a mainstream technology, this inevitably leads to drop in prices, so there are  many affordable and solid ready‐made virtualization solutions).  Being that the prices of licenses vary dramatically, before you go shopping, have a look at  the price lists of the major vendors and see what they offer. However, you need to have in  mind that the final price depends on many factors, such as: Are you a new client? How  many licenses do you plan to buy? Will you buy training and support? Thus, you must be  prepared for drastic differences in the offers you will get. On the positive side, it is possible  to negotiate a fair price.  You might also want to hire a consultant to handle everything around the selection of the  product, the procedure of purchasing it, and the deployment itself. This route might be a bit  more expensive, but if you don’t have the in‐house resources (that is, people who can  handle this task) or if you need the solution soon, hiring a consultant could be the better  choice and possibly even the more cost effective choice in the end. 

Rent a Virtualization Solution 
An alternative to purchasing a virtualization solution is to rent virtualization. There are  many services, for instance Software as a Service (SaaS), cloud computing, managed  capacity, managed services, server‐instance based solutions, and a la carte offerings that  essentially revolve around the fact that you don’t buy the license and you don’t deploy the  solution in‐house but rent the installation from another company and pay a (most often)  monthly fee for the service. There are differences between each of the listed solutions, so  before you make a determination, check what you will be getting from your virtualization  solution hosting provider and how much it will cost.  Renting a virtualization solution can be cheaper than purchasing and deploying it in‐house,  but this is not an absolute rule. There are cases when renting a virtualization solution is  more expensive than purchasing it, especially in the long run and from a technical point of  view. Also, there are pros and cons for using SaaS, clouds, and son, but generally these  services are a better option for small companies with no dedicated IT staff and with a few  machines only because when you outsource virtualization to pros, it is much easier for you  and (as a rule) more efficient than deploying the solution in‐house. 




In a world that requires 24/7 business continuity, data protection and disaster recovery  options have reached a new level through virtualization. Enabling the ability to provide  real‐time replication, simplified and centralized management, and immediate failover with  high availability, all the while using fewer resources, virtualization is a solution every  company should consider.