Historia de la virtualización de escritorios La corta historia de virtualización de escritorio es fascinante, y es útil para entender el ambiente de hoy y el futuro de la virtualización

de escritorio, tanto desde el punto de vista técnico y de negocios.

¿Cuándo y por qué se produjo la virtualización? En realidad, la virtualización se inventó por primera vez en la década de 1960. ¿Para qué podría una tecnología tan avanzada servicio a más de cuarenta años atrás? Virtualización fue originalmente inventado y aplicado para repartir los ordenadores centrales enormes que existía con el fin de lograr una utilización más eficiente del hardware. La Virtualización se llevó a cabo hace más de 30 años por IBM como una forma de partición lógica en ordenadores centrales en distintas máquinas virtuales. Estas particiones permitieron mainframes de "multitarea": ejecutar múltiples aplicaciones y procesos, al mismo tiempo Hoy en día, los ordenadores basados en la arquitectura x86 se enfrentan a los mismos problemas de rigidez y la subutilización que se enfrentan los mainframes en la década de 1960 En Principio: Virtualización Mainframe La necesidad de virtualización x86 La Virtualización se abandonó durante la década de 1980 y 1990 cuando las aplicaciones cliente-servidor y los servidores x86 de bajo costo y de escritorio llevó a la computación distribuida. La amplia adopción de Windows y la aparición de Linux como sistemas operativos para servidores en la década de 1990 estableció los servidores x86 como el estándar de la industria. El crecimiento de las implementaciones de servidores x86 y de escritorio dirigido a los nuevos desafíos de TI de infraestructura y funcionamiento. Estos retos incluyen: y Baja utilización de la infraestructura. Típica de implementaciones de servidores x86 de lograr una utilización media de sólo el 10% a 15% de la capacidad total, de acuerdo con International Data Corporation (IDC), y El aumento de los costos de Infraestructura Física. Los costes operativos de apoyo a la infraestructura física de crecimiento han aumentado constantemente. y El aumento de los costes de gestión. Como los entornos informáticos más complejos, el nivel de educación especializada y las experiencias necesarias para el personal de gestión de la infraestructura y los costes asociados de dicho personal se han incrementado y Insuficiente conmutación por error y Protección de Desastres. Las organizaciones son cada vez más afectados por el tiempo de inactividad del servidor de aplicaciones

políticas de acceso y seguridad sin perjudicar la capacidad de los usuarios a trabajar con eficacia es compleja y costosa. VMware fue pionera en esta técnica y es hoy el líder indiscutible en tecnología de virtualización. terminar la aplicación. Numerosos parches y actualizaciones deben ser continuamente aplicado a entornos de escritorio para eliminar las vulnerabilidades de seguridad. y la recuperación de desastres se convirtió en una preocupación importante. la infraestructura compartida de hardware que ofrece un aislamiento total. El resultado de esto es un alto rendimiento de la máquina virtual que coincide con el hardware de acogida y mantiene la compatibilidad total de software. Hoy en día. como los costes de infraestructura física incrementan. es de ejecutar una secuencia de instrucciones almacenadas (es decir. hay 17 instrucciones específicas que crean problemas a la hora virtualizados. El control de un entorno de escritorios distribuidos y la aplicación de gestión. Gestión y seguridad de equipos de sobremesa empresariales presentes numerosos desafíos. Mantenimiento de alta de usuario final de escritorio. el mantenimiento de escritorio del usuario final se disparó. y VMware tienen sus manos llenas tratando de crear máquinas virtuales de ordenadores x86. En los procesadores x86. o simplemente choque por completo. La función básica de la mayoría de CPUs. Sin embargo. . VDI (Virtual Desktop Infrastructure) es utilizado por miles de empresas de todo el mundo. VMware fue capaz de abordar con éxito este problema con una técnica de virtualización de adaptación. un programa de software). las máquinas x86 no fueron construidas para manejar la virtualización completa. tanto en mainframes y en PCs. lo que resulta en máquinas virtuales que coinciden con el hardware de acogida y mantener la compatibilidad de software completa y transformar los sistemas x86 en un propósito general.y críticas y la inaccesibilidad de la crítica de escritorio del usuario final. la movilidad y la elección del sistema operativo para entornos de aplicaciones. VMware el futuro del VDI VMware introdujo la virtualización de sistemas x86 en 1999. haciendo que el sistema operativo para mostrar un aviso.

html http://www.com/virtualization/history.vmware.tricerat.com/topics/historyofvirtualization .http://www.

Master your semester with Scribd & The New York Times

Special offer for students: Only $4.99/month.

Master your semester with Scribd & The New York Times

Cancel anytime.