You are on page 1of 7

UNIVERSIDAD DE LAS FUERZAS ARMADAS – ESPE

NOMBRE: SANDRA PAGUAY
TEMA: Un entorno de computación en nube científica
de alto rendimiento para simulaciones Materiales

Este proyecto permite conseguir capacidad de cálculo de alto rendimiento
en cálculos científicos y químicos, además ofrece funcionalidad comparable
a clusters locales. La plataforma SCC está optimizado para el Amazon
Elastic Compute Cloud (EC2). Provee creación automática de clusters
virtuales para la computación paralela, herramientas para ejecución y
seguimiento del desempeño, Proporcionar acceso al usuario amigable,
tenemos también capacidad de computación en la nube integrada en una
JAVA GUI
Cloud Computing (CC) es un paradigma computacional dinámicamente
escalable, proporcionan recursos virtualizados como un servicio a través de
Internet
También los recursos en la nube como Grid Computing y clusters CONDOR
han sido útiles para algunas aplicaciones científicas. Sin embargo estos
últimos recursos están acoplados típicamente libres, no homogénea, y
geográficamente dispersa, y no muy adecuado para la computación de alto
rendimiento (HPC) demandas de muchos códigos científicos. Sin embargo,
se necesitaban nuevos acontecimientos importantes para crear una
plataforma de materiales simulaciones que satisface todas las necesidades
particulares de HP computación científica sin que requiere una configuración
adicional, y es accesible no sólo a los administradores del sistema sino
también para los usuarios en general.
Recientemente se ha establecido la prueba de principio para la viabilidad de
SCC para algunas aplicaciones científicas prototípicas. En particular, hemos
creado un AMI (Amazon Machine Image) que contiene códigos paralelos, y
un conjunto primera generación de herramientas para crear y grupos de
control de las máquinas virtuales en los Amazon Web Services (AWS) Elastic
Compute Cloud (EC2).
Estas herramientas son shell scripts que se pueden ejecutar desde la línea
de comandos en sistemas UNIX. Los puntos de referencia en este entorno
mostraron que un código científico paralelizado con requisitos modestos en
términos de memoria y velocidad de la red, arrojó un rendimiento similar en
un clúster EC2 virtual como en un clúster física local. Sin embargo, en el
momento de las capacidades del EC2 eran limitados por la alta latencia y
bajo ancho de banda de las interconexiones del clúster. Así, en el presente
trabajo se describe una plataforma SCC virtual que se aprovecha de la

la plataforma . IaaS ambientes se pueden configurar para que coincida con la no . cuya solicitud de programación de interfaz (API) es algo así como un estándar.100MB. el despliegue de estas aplicaciones en una infraestructura Servicio (IaaS) entorno de nube. que consiste en secuencias de comandos de bash. no son capaces de acomodar MPI. Una característica clave de tales aplicaciones es su sencillo control y datos los flujos de trabajo. Sus etapas son: 1) Se describen brevemente los elementos de nuestros SCC AMI. Estas herramientas son shell scripts que se pueden ejecutar desde la línea de comandos en sistemas UNIX. hemos desarrollado una interfaz gráfica de usuario (GUI) que controla la ejecución y de E / S para una aplicación prototípica. en menos en la actualidad. 3) Representar los puntos de referencia para el funcionamiento en paralelo de HPC científica aplicaciones. una serie de pasos computacionalmente intensivas. que hace que el EC2 nube realizar prácticamente como un clúster local HPC UNIX y verificamos su mejora rendimiento. por lo general van desde 1-. La Ciencia Cloud Computing Machine Image . Simulaciones típicas implican un conjunto de pequeños archivos de entrada de unos pocos KB que definir los parámetros para la carrera.corriente HPC recursos de la nube y demuestra la escalabilidad y el rendimiento comparable a torres de ordenadores locales. esto nos da la ventaja de un proveedor de la nube principal con gran capacidad y una gran comunidad de usuarios. como EC2 es muy ventajoso. y la producción de un conjunto de pequeñas a medianas archivos de salida de tamaño.as . En consecuencia. el sistema operativo y aplicaciones científicas HPC incluyen en el IAM mejorado 2) Describir un conjunto de herramientas SCC de segunda generación. es decir.etapa HPC SCC plataforma con el potencial de hacer la computación científica de alto rendimiento disponible a aquellos que carecen de experiencia y / o el acceso a los recursos de HPC tradicionales. Por el contrario. 4) Facilitar el acceso a la EC2. beta funcional .requisitos estándar de la mayoría aplicaciones heredadas y ofrecen la ventaja adicional de proporcionar tradicional entornos homogéneos que son altamente deseables para los usuarios y desarrolladores. Nuestros desarrollos han llevado a una.Service (PaaS) entornos como Microsoft de Plataforma Windows Azure [21] requiere cambios importantes en la estructura del software y.a . IaaS dado anteriormente. centrándose en particular en el desempeño de la intranet.

Esta imagen de la máquina es ahora almacenada en Elastic Block de almacenamiento de Amazon (EBS) [33] del sistema lo que lleva a una reducción en los tiempos de arranque instancia de 20--50%. el nuevo SCC AMI puede ser cargado en diferentes “tipos de instancia”. con el script conjunto de herramientas SCC. en vez del acceso de root por defecto que ofrece AWS.compute-1.com Como alternativa. y se utilizan para controlar lo virtual Entorno de SCC        Transforma un grupo de instancias creadas por EC2 basada en nuestra IAM. El guión inicia sesión con la cuenta de usuario creada por ec2.pem user@ec2-72-44-53-27.Esta virtual imagen de la máquina sirve como modelo para una instancia de nube configurado específicamente para HPC. Esto es necesario sólo para desarrolladores.7729.  ec2-CLUST-connect-root [-c name] : Abre una sesión ssh en el clúster Nombre y registra como root. a menos que los cambios de tiempo de ejecución en se necesitan configuración. Descripción de las herramientas: Todos estos comandos se instalan en la máquina local del usuario y actúan de forma remota en lo virtual clúster. en sustitución de llamadas a la API engorrosos por mucha más user— llamadas amistosas que almacenan muchos ajustes en el ambiente y en los archivos de configuración para mantener al usuario de tener que gestionar manualmente. un ordenador portátil o de escritorio de UNIX). proporcionando guiones para el lanzamiento y el seguimiento de la carga de las diferentes tareas. en un clúster interconectado que funciona como una plataforma de computación en paralelo virtual el conjunto de herramientas es un envoltorio para la API de EC2.ec2_clust_info. no para los usuarios que ejecutan un cálculo. Dependiendo de las necesidades. aplicaciones de computación científica paralelas.r-de70cdb7 / KEY_ pair_user. la misma tarea sólo requiere ec2-CLUST -connect El conjunto de herramientas también simplifica el uso de aplicaciones dentro de la agrupación. o en el clúster más reciente lanzamiento si no se da ningún argumento.ec2_clust / . .  ec2-CLUST a connect [-c name]: Abre una sesión ssh en el clúster nombre.amazonaws. Instancias más lentas pero más baratas pueden ser utilizadas para tareas sencillas.CLUST-lanzamiento. mientras que caballos de batalla de mayor rendimiento están disponibles para más exigentes cálculos El conjunto de herramientas Científico Cloud Computing Funcionalidad: Consiste en un puñado de secuencias de comandos de bash que se ejecutan en un máquina local (por ejemplo. ssh -i / home / user / .

su ID de reserva AWS. el conjunto de herramientas se puede instalar en muchos sistemas operativos más comunes. y se limpia la archivos de configuración que contienen los detalles de la agrupación en la máquina local. donde no se requiere la opción -c. y 15 min de carga promedio para todos los nodos del clúster Nombre.  ec2-CLUST-run -e task [-c name] [-t]: Esta herramienta se conecta al nombre de clúster (o el clúster más reciente si no se especifica) y ejecuta un trabajo allí. La herramienta carga un perfil que describe la tarea seleccionada. donde no se requiere la opción -c.  ec2-CLUST load [-c name]: Reporta el 1 min. Este comando se puede ejecutar ya sea desde dentro de la agrupación o de fuera de ella. este comando se puede ejecutar ya sea desde dentro el clúster o desde fuera de ella. y termina el clúster después de completar si se da la opción -t. Como en el caso ec2-CLUST-uso. indica que el clúster ejecutar la tarea en todos sus nodos. el más reciente se dará por terminado. y un número de índice.  ec2-CLUST-usage [-c name]: Informes actual de la CPU y uso de memoria para todos los nodos del clúster Nombre. Requisitos del sistema conjunto de herramientas: La API de Java EC2 . Además de estos requisitos de software. y un * NIX entorno con Bash y conchas seguros. A continuación.   ec2-CLUST list: Enumera todos los grupos activos. tareas puede ser WIEN2k o FEFF9. La clúster no puede volver a arrancar. Analiza el directorio de trabajo requerido archivos de entrada y los copia en el nombre del clúster nube. Si no se especifica ningún grupo. el usuario necesita un válida Cuenta de Amazon AWS y . Se conecta periódicamente para comprobar específico de tareas archivos de error o la terminación exitosa. 5 min. Si localfile es un directorio se copiará de forma recursiva. el entorno de ejecución de Java (RTE). ec2-CLUST-terminate [-c name]: Termina todos los N instancias que conforman el cluster cloud Nombre. Cada grupo se identifica por un nombre. Se copia los archivos de salida pertinentes espalda a lo local directorio de trabajo. todos los datos deseados deben ser recuperados antes de ejecutar el ‘Terminar’ guión.  ec2-CLUST-get [Nombre -c] remotefile localfile Copias remotefile archivo en el nodo principal del clúster Nombre (o los más recientes clúster si no se especifica ninguno) a la localfile archivo en la máquina local. Por lo tanto. ec2-CLUST-put [-c name] localfile remotefile : Copia el localFile archivo en la máquina local a la remotefile archivo en el nodo maestro del cluster Nombre (o el clúster más reciente si no se especifica). Actualmente.

En consecuencia. el tiempo de configuración resultante es ahora más o menos Evaluación comparativa de la Plataforma Cloud Computing Científico: FEFF9 y WIEN2k.credenciales de seguridad apropiadas. La razón es que para los cálculos de x—ray y espectros relacionados. Medimos el rendimiento por la relación de aumento de velocidad. Es decir. Transferencias separadas a cada máquina son necesarios para razones de seguridad. y la biofísica. en lugar de explotar las CPUs más rápidas. la química. Hay. muy poca necesidad de comunicación entre éstos paralelo procesos . Velocidad y Seguridad: Se tiene aralelizado todas las tareas de configuración de la medida en que la seguridad no se vea comprometida. la ciencia de los materiales. incluso un par de claves ssh para la cuenta de AWS. el local de máquina envía simultáneamente a todos los nodos de un pequeño archivo que contiene los datos de configuración e instrucciones. Cada uno tiene una base de usuarios activos de más de mil grupos de investigación de la física. definida como el tiempo necesario para ejecutar el mismo cálculo en un solo núcleo dividido por el tiempo que se tarda en núcleos N. pues. y es trivial para distribuir estas tareas a través de una variedad de procesadores utilizando MPI. que puede degradar el rendimiento si no es capaz de mantenerse al día con el código en el cambio datos entre los núcleos Acoplamiento débil . cálculos casi independientes tienen que realizarse de red de energía.el código FEFF9: El código FEFF9 [38] Se paraleliza naturalmente. La proximidad de la pendiente de la curva resultante a una proporción 1: 1 (escala perfecto) cuantifica el grado de paralelización del código y la calidad de la red. y luego instruye a cada nodo para llevar a cabo sus tareas de configuración al mismo tiempo que sus compañeros. ya que no queremos enviar las credenciales de inicio de sesión de usuario en el arranque tiempo. La tendencia actual en HPC es distribuir las tareas de manera más eficiente a través de una gran cantidad de núcleos.

cuya orden puede variar de aproximadamente 100 para un cristal simple de orden 10 5 para una estructura compleja con más de 1000 átomos en la celda unidad.Estrecho acoplamiento . La necesidades de memoria RAM correspondiente van desde alrededor de 1 MB hasta alrededor de 100 GB de espacio de memoria. la Hamiltoniano de un sistema periódico deberá diagonalizarse en una cuadrícula de k—points en Para el cálculo de los eigenenergías y estados propios. Conclusiones . [40] Esta rejilla se elige a muestrear la zona de Brillouin de la estructura periódica de manera eficiente. El Hamiltoniano H ( k ) es una matriz compleja.el código WIEN2k: El código WIEN2k tiene una estructura acoplada con más fuerza que FEFF9. En particular.

  Contiene un número de materiales . sin sacrificar la seguridad .códigos de la ciencia y los servicios públicos que se utilizan comúnmente en paralelo computación científica El segundo conjunto de herramientas de generación de SCC es más rápido y más funcional.