Instituto Tecnológico De Tijuana

Ingeniería En Sistemas Computacionales Agosto- Diciembre 2012 Fundamentos De Investigación Serie: 6SC1A M.C. Claudia Negrete Sánchez Unidad IV Supercomputadoras Equipo: Muñoz García Isaí Romero Del Toro Pedro Luis Varela Santos Sergio Vázquez Pérez Jennifer Itzel

Tijuana, B.C.

26 de Noviembre de 2012

Contenido
Introducción .................................................................................................................................................. 3 Planteamiento del Problema ......................................................................................................................... 3 Justificación .................................................................................................................................................. 3 Objetivos ....................................................................................................................................................... 3 Objetivos específicos .................................................................................................................................... 4 Hipótesis ....................................................................................................................................................... 4 Marco Teórico............................................................................................................................................... 4 Definición de Supercomputadora.............................................................................................................. 4 Introducción al procesamiento de datos .................................................................................................... 5 Funcionamiento de los bloques ................................................................................................................. 6 Sistema de Enfriamiento ........................................................................................................................... 9 Historia de las supercomputadoras ......................................................................................................... 10 Usos de las supercomputadora ................................................................................................................ 13 Relación con otras ciencias ......................................................................................................................... 22 Resultados Obtenidos.................................................................................................................................. 23 Conclusiones ............................................................................................................................................... 23 Recomendaciones ....................................................................................................................................... 24 Bibliografía ................................................................................................................................................. 24

2|Page

Esto en si es un tema muy amplio para tratar pero que a la vez no se cuenta con mucha información por lo cual lo aqui descrito. 3|Page . Gracias a la existencia de las supercomputadoras. Al mismo tiempo las supercomputadoras nos permiten crear simulaciones de las situaciones a estudiar. esto con la finalidad de que no se sobrecaliente y se descomponga. los cientificos. esto hace más facil el descubrimiento de nuevas cosas para los cientificos. al ser computadoras tan grandes consumen demasiada energia y con esto tienden a calentarse demasiado por lo que se requiere de un sistema de enfriamiento el cual se encarga de disipar el calor de la computadora mediante agua que llega directamente al CPU mediante unos tubos capilares.Supercomputadoras Introducción: Primero que nada y para comenzar debemos aclarar que las supercomputadoras fueron creadas en el año de 1964 por Seymour Cray con la finalidad de la investigacion y que ahora son de gran ayuda para los cientificos y que estas se encuentran solamente en centros de investigación ya que son creadas para el cumplimiento de alguna experimentacion que se deba hacer. su utilización en algunos fines específicos de las ciencias. logrando asi desarrollar su funcion. en ocasiones se menciona en los medios de la creación de estos. haciendo calculos en tan pocos segundos. en general su manera de procesamiento. Planteamiento del Problema ¿Cuál es el uso de los supercomputadores en la sociedad actual? Justificación Decidimos realizar la investigación ya que poco se sabe de las supercomputadoras. como por ejemplo. es solo una muestra de lo que una supercomputadora tiende a realizar y el trabajo que a lo largo de los años nos a servido para precisar y facilitar las investigaciones. la cura para alguna enfermadad o la manipulacion genetica por medio de lo que es el ADN. Existen por ejemplo supercomputadoras que son especificamente diseñadas para controlar cierta situacion. al mismo tiempo. pueden llegar a calculos y simulaciones mas precisas que nos los llevan a recopilar datos mas cercanos y sin muchas fallas. Objetivos Descubrir o indagar en el como ayudan a la sociedad las supercomputadoras. al mismo tiempo. las simulaciones les dan mas formas de probar lo que se realiza. Cabe destacar su velocidad de procesamiento de datos. estas son reducidas a milesimas de segundos ya que su capacidad es enorme. así como el funcionamiento de estas y el que las hace ser más rápidas que otras.

Para elaborar la función descrita anteriormente (ingresar datos. se transforman en información disponible para el usuario. Cuando los datos ingresados son ordenados de acuerdo a un esquema lógico. es muy importante considerarlo como una "caja negra". El principio de la caja negra Cuando se tiene un dispositivo o módulo dispuesto para una función. Precisamente. Fundamentalmente los distintos tipos y modelos de computadoras. Hipótesis Las supercomputadoras ayudan al desarrollo de modelos para explicar sucesos y teorías científicas que requieren un mayor número de procesos y cálculos que los que una computadora normal haría.Objetivos específicos Indagar en la utilización actual de las supercomputadoras en la ciencia. exponiéndolos luego como información. Estos son: • Módulo de entrada/salida • Memoria de trabajo • Unidad procesadora 4|Page . es decir no se sabe que dispositivos o componentes hay dentro de él. así como la velocidad con que se efectúa esta operación. elaborar los mismos y luego dar salida a la información obtenida). sino que procesos lleva a cabo. Los datos que ingresan a la computadora se procesan por medio de rutinas contenidas en los "programas de aplicación". a gran velocidad y sin la intervención humana. y en como promueven el desarrollo de esta. principalmente difieren en el volumen de datos que pueden procesar. Marco Teórico Marco de referencia (Antecedentes) Definición de Supercomputadora ¿Qué hace una computadora? Básicamente cualquier tipo de computadora realiza operaciones de procesamiento de datos. la función primordial de una computadora es llevar a cabo procesos de datos en forma automática. se necesitan tres módulos principales en los que podemos agrupar a todos los dispositivos que intervienen en los procesos mencionados. La adquisición de información a partir de datos es la función relevante de una computadora siendo la Informática la ciencia que estudia la obtención de información a través de sistemas automáticos. Este método es muy utilizado pedagógicamente para permitir una rápida comprensión global de la función del dispositivo estudiado.

Este módulo que en realidad tiene dos funciones. tanto en sus componentes físicos. identificado con la sigla E/S. la información obtenida (datos procesados) es emitida a través de las unidades de salida que son las que permiten "ver el resultado". El primer módulo de "entrada .Introducción al procesamiento de datos Una computadora está constituida por centenares o miles de complejos dispositivos y circuitos electrónicos adecuadamente integrados. También en la RAM se cargan las instrucciones del programa de aplicación. Esta unidad es la que efectúa los procesos de cálculo (rutinas matemáticas aplicables a los datos ingresados) y elabora finalmente un resultado. A través de las unidades de entrada. mientras que otros dispositivos permiten ejecutar ambas operaciones (input-output). los pormenores de la parte electrónica que integra cada uno (método de explicación denominado "caja negra"). o de salida (output). Por otra parte. además de las instrucciones (programas de aplicación) que se utilizan para tratar los mismos. procesa los datos integrados en la memoria de acuerdo con: Algoritmos matemáticos propios Instrucciones del programa de aplicación 5|Page . Este puede ser asimilado como el "cerebro" de la computadora porque es el encargado de procesar los datos que la memoria recibe. Debido a esto para comprender su funcionamiento. en la memoria RAM.salida". dividiremos a la computadora en bloques sin tener en cuenta en esta etapa. Del mismo modo los datos ya procesados son almacenados hasta su salida. que indicará a qué operación serán sometidos los datos ingresados. como en la función de los mismos. conocida como ALU (de Aritmetic Logic Unit). estos son almacenados en espera de su proceso en una "memoria de trabajo" o también denominada "memoria principal" que es temporaria (técnicamente conocida como "memoria RAM"). es el "Procesador". El segundo módulo es "la memoria".Output (I/O). En el procesador se encuentra la unidad lógico aritmética. se introducen los datos que se van a procesar. La memoria de trabajo (RAM) almacena    Los datos ingresados Las instrucciones para procesar datos Los datos procesados hasta su salida o borrado El tercer módulo que pasamos a describir. Cuando se ingresan datos. El procesador. es usualmente más conocido por las palabras en ingles Input. cuenta en algunos casos con dispositivos que individualmente sólo pueden ser considerados como de entrada (input).

que es la medida de rendimiento mas usual en las computadoras de escritorio. especialmente en el campo científico. Un peatón se detiene en la esquina y lo primero que hace es mirar el semáforo para ver que luz está encendida. responde al más conveniente para el proceso descriptivo de su funcionamiento y no al de jerarquía de los mismos. Al año 2011. Si la luz que ve es de color verde. para realizar simulaciones precisas y obtener resultados fidedignos. Funcionamiento de los bloques Para aclarar el funcionamiento de los bloques mencionados. ¿Qué es un Flop? En las ciencias computacionales un FLOP (o flops o flop/s) es un acrónimo que significa: "FLoating point Operations Per Second" u Operaciones de punto(o coma) flotante por segundo. de 10 a 20 millones de palabras en memoria principal. 6|Page . Estas se caracterizan por su velocidad. así sabe si puede cruzar o no. Las vías o circuitos que se encargan de comunicarlos mutuamente se denominan en su conjunto "Buses". ¿Que es un algoritmo? Es la denominación que recibe una secuencia de operaciones matemáticas contenidas en una instrucción. el cuadro siguiente indica el orden de jerarquía de cada uno de los bloques: • Procesador • Memoria • Dispositivos de Entrada/Salida (Periféricos) Es evidente que estos bloques no trabajarán como unidades aisladas. existiendo como veremos en detalle más adelante. a la que se someterán los datos numéricos ingresados. Podemos equiparar esta medida de rendimiento con los conocidos MIPS (Millones de instrucciones por segundo). distintos tipos de buses de acuerdo al tipo de señal que transportan o a la función que cumplen. suman cientos de millones de números en un segundo. cruza y da por finalizada esta sencilla operación. podemos pensar en una analogía con una operación de todos los días como es la de cruzar la calle. 20 veces mas en memoria. ocupan por completo un salón grande.El orden utilizado para la explicación de los bloques. Vistos en función de la importancia en los procesos que llevan a cabo. los supercomputadores más rápidos funcionaban con más de 200 teraflops (que realiza aproximadamente trillones de operaciones por segundo). en donde se utiliza mucho las operaciones con datos de tipo flotante. Estas son un conjunto de poderosos ordenadores unidos entre si para aumentar su potencia de trabajo y desempeño. Los FLOPS son una medida de rendimiento de una computadora. En general el funcionamiento de una computadora se aplica a una supercomputador excepto por la utilización de Una supercomputadora o superordenador es aquella con capacidades de cálculo muy superiores a las computadoras corrientes y de escritorio. sino que necesariamente van a estar conectados entre sí para permitir el flujo de datos e información de uno a otro.

es que nos ayuda a tener un indicador del progreso de la capacidad de procesamiento en las ciencias computacionales.Bien. Recientemente (lunes 17) un par de computadoras de IBM y Cray lograron romper la barrera que mencione. ¿Bastantes verdad? Lo importante de conocer este tipo de medidas. impactos de asteroides) • Desdoblamiento de cadenas de ADN • Plegamiento de proteínas • Simulación de explosiones nucleares • etc. 7|Page . maremotos. se encargaran de llevarnos a nuevos reinos de profundidad conocimiento y cambios muy profundos en la ciencia. que bueno que sean rápidas" .000.059 petaflops.000 operaciones de punto flotante. asi que ahora sabemos que un petaflop simplemente significa que una computadora puede realizar 1. llegando a velocidades exorbitantes de 1.000. terremotos. y "peta" significa 10^15 . pero esto no se trata solo de velocidad. "Plegamiento de Proteínas" "Si...105 y 1. se trata de una capacidad de computo que permite: • Simulaciones de fenómenos naturales altamente precisas (huracanes. sabemos que un flop es una medida de rendimiento. si.000. las supercomputadoras que logran romper la barrera de velocidad del petaflop.000. De manera que ahora.dirían algunos.

10 a la 6 FLOPS). No debe usarse en singular (FLOP) pues la última S se refiere a segundos. asi que ahora sabemos que un petaflop simplemente significa que una computadora puede realizar 1. acrónimo de Floating point Operations Per Second (operaciones de punto flotante por segundo). y petaFLOPS (PFLOPS. Podemos equiparar esta medida de rendimiento con los conocidos MIPS (Millones de instrucciones por segundo). en donde se utiliza mucho las operaciones con datos de tipo flotante.000 GB de memoria RAM). Lo importante de conocer este tipo de medidas. las 8|Page . FLOPS En informática. 10 a la 12 FLOPS). gigaFLOPS (GFLOPS.000 operaciones de punto flotante."Simulación de fenómenos naturales: Huracanes" Basta con leer las especificaciones de una de las supercomputadoras de las que les estoy hablando. Es necesario aclarar que la Jaguar esta formada por una agrupación de varias computadoras con recursos compartidos. 10 a la 9 FLOPS). para realizar simulaciones precisas y obtener resultados fidedignos. Bien. Unidad utilizada para medir el rendimiento de una computadora. Los FLOPS son una medida de rendimiento de una computadora. que ejecuta un "sabor" de Unix llamado: UNICOS/lc. y "peta" significa 10^15 . es que nos ayuda a tener un indicador del progreso de la capacidad de procesamiento en las ciencias computacionales.3 gigahertz y 362 terabytes de memoria RAM (eso es 362. teraFLOPS (TFLOPS. que es la medida de rendimiento mas usual en las computadoras de escritorio.000.000. sabemos que un flop es una medida de rendimiento. especialmente en el campo científico. la Oak Ridge's Jaguar: con 182. Otras unidades en FLOPS: megaFLOPS (MFLOPS.000 procesadores AMD quad-core Opterons de 2. De manera que ahora. 10 a la 15 FLOPS).000.000.

Esto significa que el problema puede ser fácilmente dividido entre diferentes unidades de ejecución y «ductos». que es un procesador de vectores altamente ductilizado o segmentado («pipelined» en inglés) optimizado para operaciones gráficas. FLOPS. Esta capacidad de cómputo en un computador permite por ejemplo: Simulaciones de fenómenos naturales altamente precisas (huracanes. Mientras tanto el consumo de energía de un solo rack de este supercomputador consume cerca de 10 kW. permitiendo una alta ganancia en velocidad que será obtenida de «escalar» el número de compuertas lógicas en vez de únicamente la velocidad de reloj. Por ejemplo. maremotos. con muy limitada programabilidad. El consumo promedio de un supercomputador dentro de la lista de los 500 supercomputadores más rápidos del mundo es de alrededor de 257kW. impacto de asteroides) Desdoblamiento de cadenas de ADN Plegamiento de proteínas Simulación de explosiones nucleares Sistema de Enfriamiento Muchas de las CPUs usadas en los supercomputadores de hoy disipan 10 veces más calor que un disco de estufa común. GPU y consolas de videojuegos Frecuentemente se publican cifras astronómicas en FLOPS para tarjetas de video y consolas de videojuegos. Sin embargo. Algunos diseños necesitan enfriar los múltiples CPUs a -85 °C (-185 °F). 9|Page . ya que no son comparables «uno a uno» con FLOPS de un computador totalmente programable de propósito general.supercomputadoras que logran romper la barrera de velocidad del petaflop. terremotos. La mayor parte del rendimiento en FLOPS de una consola de videojuegos proviene de su GPU. un rack del supercomputador Blue Gene L/P consume alrededor de 40 kW. un nuevo supercomputador llamado Aquasar tendrá una velocidad tope de 10 Teraflops. se encargaran de llevarnos a nuevos reinos de profundidad conocimiento y cambios muy profundos en la ciencia. estas cifras deben ser tratadas con precaución. un computador de propósito general tendrá un rendimiento de unos cuantos GFLOPS si se considera únicamente su CPU. En comparación. Esto es posible porque las gráficas en 3D son un ejemplo clásico de un problema altamente paralelizable. Estas cifras se basan en el rendimiento total del sistema (CPU + GPU). Para poder enfriar múltiples CPUs a tales temperaturas requiere de un gran consumo de energía. Como comparación.

En lugar de hacer una placa de circuito grande. Esto hacía que fueran muy difíciles de soldar.Para el supercomputador Aquasar. que será instalado en el Instituto Tecnológico Federal Suizo (ETH). la primera computadora considerada como supercomputadora. Historia de las supercomputadoras Ya sabemos qué es una supercomputadora y cuáles son los requisitos que debe de tener para entrar a esta categoría. Llamó a los principales ingenieros a una reunión y les presentó una nueva solución al problema. decidió continuar con prioridad baja. La innovación consiste en un nuevo diseño en el cual llega el agua directamente a la CPU mediante tubos capilares de manera que la transmisión de calor es más eficiente. dando como 10 | P a g e . imponiendo nuevos records en el desempeño computacional. mostrando el apretado armado. Cray fundó una compañía que dominaría el campo con computadoras de una arquitectura insuperable.5 Litros por minuto. Cray-2 En 1976 se lanzó la Cray-2 poseedora de un procesador de 4 núcleos (toda una novedad para la época) con un sistema de enfriamiento líquido. Más adelante a partir de 1970. Sus orígenes se remontan a la década de los 60’s. cada "tarjeta" estaría formada por una pila "3D" de ocho placas. conectadas entre sí por medio de pines entre las superficies. En el caso del ETH en Suiza. El modelo Cray-2 pronto se estableció como un diseño con grandes placas llenas de CIs. Después de algunos movimientos menores en el personal. Los conectores "Pogo" que interconectan las placas son las barritas doradas ubicadas entre los CIs. precisamente el denominado Fluorinert un líquido patentado y distribuido por la compañía 3M. Se necesitarán 10 litros de agua que fluirán a una tasa de 29. y la densidad todavía no era suficiente para alcanzar las prestaciones deseadas. Seis meses después Cray tuvo su momento eureka. Los equipos trabajaron en el diseño por alrededor de dos años antes que el propio Cray "renunciara" y decidiera si no era mejor que simplemente cancelaran el proyecto y despedir a todos los que trabajaron en él. Las tarjetas fueron acomodadas en la parte superior derecha de cada una. por lo menos eso parecía hasta la década siguiente. se utilizará un nuevo diseño de enfriamiento líquido. el equipo continuó casi como antes. antiguo colaborador de diseño de quien permanecía en la sede de Cray. Una de las innovaciones en este diseño es que normalmente los sistemas de enfriamiento aíslan el líquido de la CPU y la transmisión de calor se da a través de convección desde la cubierta metálica de la CPU a través de un adaptador generalmente de cobre u otro material térmicamente conductivo. Les Davis. precisamente en el año de 1964 cuando Seymour Cray lanzó la CDC 6600. Un típico módulo de lógica. el calor extraído del supercomputador será reciclado para calentar habitaciones dentro de la misma universidad. Es en ese periodo de los 1980’scuando surgen las computadoras con cientos de procesadores en países como Estados Unidos o Japón.

habñia poco lugar para que circule aire entre los CIs. Para dar frente a esta amenaza interna. universidades y corporaciones alrededor del mundo. los retrasos habían tan largos que gran parte de las prestaciones se debían a la memoria rápida. 11 | P a g e . debido a las velocidades de reloj independientes de cada procesador dentro de la supercomputadora. El primer Cray-2 entregado poseía más memoria física (256 millones de palabras) que todas las máquinas entregadas por Cray combinadas. El sucesor espiritual del Cray-2 fue el Cray X1. El líquido refrigerante era forzado por los costados a través de los módulos a presión. al campo 3-D fino. El trabajo sobre el nuevo diseño se inició formalmente en 1982. Cuando la máquina fue finalmente entregada en 1985. que nunca fue vendido. ofrecido por Cray. computación de alto nivel). el Cray X-MP estaba siendo desarrollado bajo la dirección de Steve Chen en la sede central de Cray.5 cm de alto. Esta densidad no permitía un sistema de refrigeración por aire convencional. pero debido a problemas en el desarrollo sólo se construyo un ejemplar de éste. el Cray-2 también fue usado en aplicaciones civiles (como el NASA Ames Research Center). En su lugar. el sistema podía ser sumergido en el Fluorinert. Se utilizaron para el desarrollo de armas nucleares o investigación oceanográfica. La simulación se movió del campo 2-D o un 3-D burdo. debido a que no tiene que depender de una lenta memoria virtual. Sin embargo. y parecía que iba a dar al Cray-2 una seria carrera por el dinero. Mientras esto sucedía. El líquido caliente era enfriado usando intercambiadores de calor de agua y regresaba al tanque principal. Esta capacidad para manejar espacio (memoria) por tiempo (velocidad) es lo que define la supercomputación (extrema. sería desplazado abrumadoramente frente a esos modelos que contaban con procesamiento superior debido a sus cientos de procesadores. En este periodo se empezó a acortar la distancia entre lo que conocemos hoy como una supercomputadora. Después del Cray-2 El Cray-2 marcó los límites da la computación en su periodo como la más poderosa. tanto en tamaño como en cantidad de líneas de conexión con los procesadores. así como también a una nueva serie de máquinas japonesas del tipo Cray-1.resultado que la pila tenía sólo unos 7. El Cray-2 debería haber sido reemplazado por el Cray-3. Usos y sucesores El Cray-2 fue primordialmente desarrollado para los Departamentos de Estados Unidos de Defensa y Energía. y sólo tenía sentido que sea comprada por usuarios con enormes cantidades de datos para procesar. sin embargo como lo mencionamos anteriormente. varios años después de la fecha de inicio original. la memoria del Cray-2 fue ampliamente mejorada.

la Jaguar de 1. en Nuevo México. modelado de moléculas.7 petaflop. indicó. Sin embargo. diseños paralelos están basados en microprocesadores de clase servidor que están disponibles actualmente (2011). predicción del clima. Cuenta con 91. que es al final del año 2009 la más rápida. la atención cambió de procesadores vectoriales a sistemas de procesadores masivamente paralelos con miles de CPU «ordinarios». se encuentra la supercomputadora IBM Roadrunner. luego IBM de USA creo la correcaminos.7 km de fibra óptica y pesa 226. y la mayoría de los superordenadores modernos son hoy en día clústeres de computadores altamente afinadas usando procesadores comunes combinados con interconexiones especiales. El número típico de procesadores estaba en el rango de 4 a 16. Estas se usan para tareas de cálculos intensivos. Como ejemplo. En la última parte de los años ochenta y principios de los noventa. lo cual se convirtió en un estándar. China la Milky Way One de 1. tales como problemas que involucran física cuántica. Nueva York y fue trasladada en julio del 2008 al Laboratorio Nacional Los Álamos. En la actualidad. informó Turek.De principio a mediados de los años ochenta se vieron máquinas con un modesto número de procesadores vectoriales trabajando en paralelo. simulaciones físicas tal como la simulación de aviones o automóviles en el viento (también conocido como Computational Fluid Dinamics). también de 1 petaflops. investigación de cambio climático.5 petaflops. simulación de la detonación de armas nucleares e investigación en la fusión nuclear. Hasta ahora el uso y generación de las mismas se ha limitado a organismos militares. vicepresidente del programa de supercomputadoras de IBM. gubernamentales. académicos o empresariales. Japón creó la primera supercomputadora petaflops la MDGrape-3. Roadrunner difícilmente pueda asemejarse a un videojuego.2 petaflops y Cray de EE. La supercomputadora más rápida a fines del 2010 era la china Tianhe 1A con picos de velocidad de 2. pero solo de propósitos particulares. Opteron o Xeon.8 t . Ejemplos de tales procesadores son PowerPC. científicos de IBM y del laboratorio de Los Álamos trabajaron seis años en la tecnología de la computadora. «En cierta forma. se trata de una versión superior de Sony PlayStation 3». Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares. de acuerdo con David Turek. 12 | P a g e . El sistema de interconexión ocupa 557 m² de espacio. La supercomputadora está en el laboratorio de investigaciones de IBM en Poughkeepsie.UU. «Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad».

tan preciso como los parámetros programados y los modelos permiten el cálculo. ocurrió hace mas de 13 billones de 13 | P a g e . la capacidad de procesamiento que se necesita en general. independientemente de la potencia de cálculo. A través del uso de supercomputadoras. o incluso predecir. asegurando así un resultado global cada vez más significativa. lado a menudo poco visible o condiciones de contorno para la simulación real. que bien podría delante de cualquier contra-medidas se toman. Más específicamente: Recreando el Big Bang El Big Bang ó la expansión inicial de toda la energía y materia del universo. es que a través de su extremadamente rápido y por lo tanto la potencia de cálculo puede considerar crecientes interdependencias. no de la del progreso técnico en general.Usos de las supercomputadora Supercomputadoras de hoy se utilizan principalmente para la navegación. siempre es más fácil que tener en cuenta que muchas de estas consecuencias. Las zonas se caracterizan por el hecho de que estos son sistemas muy complejos o subsistemas que están unidos entre sí en medidas de gran alcance. Este ejemplo se aplica en las simulaciones del cambio climático. la investigación del clima. Así que los cambios en un subsistema tendrán más o menos fuerte impacto en los sistemas adyacentes o conectados. Cada vez más realista simulación de relaciones complejas. Las aplicaciones principales de los superordenadores actuales comprenden las áreas de la biología. Una ventaja de la computadora. Las enormes cantidades de inversión en el aumento constante de FLOPS y por lo tanto el desarrollo de cada vez más rápidos superordenadores están especialmente justificados con los beneficios y ventajas de la "ventaja" conocimiento posible para la humanidad. la aeronáutica. y en medicina en la simulación de nuevos medicamentos en el cuerpo. la geología. los militares y la física. la medicina. En el campo militar tienen supercomputadoras como lo permitiendo nuevos desarrollos nucleares por simulación sin datos de apoyo que debe realizar más pruebas nucleares subterráneas. la previsión meteorológica. la química. Esto permite la inclusión de más amplio. las predicciones de terremotos o erupciones volcánicas. Estas simulaciones son lógicamente.

y 2do tienen que encontrar la medicina que lo pare. Investigadores en el Centro De Computación Avanzada (TACC. Han hecho posible la simulación por medio de Supercomputadores de la primera galaxia. los investigadores pueden predecir como las ondas de los terremotos pueden viajar localmente y globalmente. En la Universidad De Austin Texas. Recorriendo el torrente sanguíneo Gracias a las supercomputadoras se pudo realizar la investigación que consistía en describir el flujo sanguíneo en el cerebro comparado con el flojo sanguíneo en el cerebro de una persona con hidrocefalia. y la energía oscura constituye alrededor de 70%. por sus siglas en ingles). una condición en la cual los fluidos craneales fluyen hacia el cráneo. Plegando proteínas La supercomputadora "Blue Gene".años en temperaturas de trillones de Grados Celsius. pero las simulaciones manejadas en Supercomputadoras hacen posible el observar que paso durante el nacimiento del Universo. investigadores pueden correr modelos que requieren mas de mil trillones de cálculos por segundo. el equipo encargado de investigar este fenómeno está creando una imagen perfecta del interior de la tierra. 14 | P a g e . Usando las supercomputadoras. El resultado de las técnicas pueden ser usadas para comprender los procesos que ocurren dentro del manto de la tierra. Modelando la gripe Pandemias potenciales como el H1N1 requieren de una respuesta rápida: 1ero los investigadores deben de saber cómo es que el virus se expande. En solo microsegundos puede simular como se pliega una proteína. los científicos pueden resolver ecuaciones muy complejas. Comparando las diferencias entre los datos reales y la simulación. En el 2009 la blue gene de alemania fue rankeada como la 4ta supercomputadora más poderosa del mundo con un máximo de procesamiento de mil trillones de cálculos por segundo. es la única que puede resolver el problema para esto. Comprendiendo los terremotos Otra de las simulaciones de las supercomputadoras ha sido un modelo tridimensional de la estructura de la tierra. permitiendo crear los modelos mas realísticos hasta la actualidad. La invisible materia oscura representa alrededor del 25 % de nuestro universo. Las simulaciones de Supercomputadoras además han hecho posible para los físicos el responder preguntas sobre el universo invisible de la actualidad. Usando supercomputadoras como la IBM’s Roadrunner que se encuentra en Los Alamos National Laboratory.

se debe hablar". ya que las supercomputadoras hacen la simulación para asegurarse de que funcionan y son seguras. hacer predicciones futuras. Un modelo. tales como el efecto de la cobertura de nubes sobre el clima.Las supercomputadoras pueden ayudar con ambas cosas. Mientras tanto. Construyendo cerebros Dawn. Prediciendo el cambio climático Se hicieron simulaciones para obtener predicciones del cambio climático de los próximos años. Siguiendo huracanes Gracias a las supercomputadoras se puede describir el camino que el huracán tomara para poder tomas las decisiones de evacuación. el investigador Henry Markram dijo al periódico The Guardian en 2007: "Si lo construyes derecho. Pero Blue Brain podría ser incluso mejor que la inteligencia artificial. Para ello ha utilizado Sequoia. creado en 2008 en el Laboratorio Nacional de Brookhaven. Durante los brotes del reciente H1N1 . una supercomputadora en el Lawrence Livermore National Laboratory. Las nuevas variables. sino más bien un circuito neural de trabajo que los investigadores podrían utilizar para comprender la función cerebral y probar virtuales tratamientos psiquiátricos.pero de 100 a 1. Se descubrió que el virus no era resistente al medicamento. los científicos de esta llamada "Blue Brain" proyecto esperan construir finalmente un modelo completo del cerebro humano. un mapa de las partículas de aerosol y la turbulencia de nubes a una resolución de 30 metros cuadrados. los investigadores del instituto politécnico de virginia utilizaron un avanzado modelo llamado EPISIMDEMIC para predecir la trasmisión del flu. Probando armas nucleares El programa stockpile stewardship hacen pruebas de laboratorio sin las armas. Con suficiente cantidad de estas unidades. se pueden explorar. investigadores de la universidad de Illinois y utah. Al mismo tiempo se simularon la mutaciones que podría hacer el virus con distintos tipos de medicamentos. pero de acuerdo a los estudios en un poco tiempo lo seria. IBM ha logrado simular 500 mil millones de neuronas y 100 billones de sinapsis. Los modelos de la antigüedad se pueden combinar con los datos fósiles para comprobar la fiabilidad. En una simulación neuronal sin precedentes.000 veces más lento que un cerebro de gato real.000 neuronas del cerebro de una rata llamada unidad neocortical. puede simular el poder del cerebro de un gato . Estos mapas tienen que ser mucho más detallada antes de investigadores realmente entender cómo las nubes afectan al clima a través del tiempo. el segundo superordenador más grande del 15 | P a g e . investigadores de la École Polytechnique Fédérale de Lausanne en Suiza simulado con éxito un trozo de 10. en Nueva York. usaron las supercomputadoras para descifrar la estructura del virus. El cerebro no sería un sistema de inteligencia artificial. No obstante. las supercomputadoras son útiles para modelar el sistema nervioso. En 2006.

Además. memoria y procesador. un reloj tan rápido. De este modo. El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. cada sinapsis del chip es hw y sw. actúan bajo la batuta del reloj mientras que las neuronas son event driven. Un cerebro consume lo que una bombilla pequeña. programa y datos. La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. actúan solo si hay actividad que realizar. Estos chips están construidos con tecnología de silicio clásica CMOS. Se basa en el diseño de las neuronas en las que no hay distinción entre hw y sw. En la arquitectura Von Neumann la memoria está separada del procesador. incluidos móviles y tarjetas. Frente a los actuales gigahercios de frecuencia. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis. luego de una rata y más tarde de un gato.mundo con millón y medio de núcleos. Uno de los objetivos es reducir el consumo eléctrico. no es necesaria un miniaturización tan extrema y sobre todo. Para seguir trabajando en paralelo al desarrollo. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. Ya existe en desarrollo un chip de 256 neuronas. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto. Para ello se ha usado un simulador llamado Compass. y 256×1024 sinapsis. 16 | P a g e . pero tiene poco que ver con la neurociencia.000 chips. El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. las neuronas se disparan a un hercio. Un superordenador consume cientos de megavatios. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). programas y datos. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad. El nuevo chip tiene un consumo muy reducido. 20 vatios.542 veces más lento que en tiempo real. es decir. El chip sin embargo no está en producción masiva. 1024 axones. Esto es una proeza computacional. Usando Compass se ha simulado (pdf) el comportamiento de 2. anunció la simulación a la escala del córtex de un ratón. proceso y memoria. los procesadores son clock driven. El resultado de la simulación se ha ejecutado 1. se ha realizado la prueba actual. Dado que todo está distribuido. El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse. Veamos por qué. y en el caso del chip a 8 hercios. el hardware del software y los programas están separados de los datos. cifras por completo astronómicas.000.000.

¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. Si sigues añadiendo camareros. Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1. Aunque no solo.Para realizar la simulación se ha usado el segundo superordenador más grande del mundo. añadir más cores no aumenta el rendimiento: el sistema escala mal. pero no el doble. incluso se verá reducida. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente. Para simular el comportamiento del cerebro. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. irán más rápido. Supercomputadora de AMD ofrecerá los juegos y las aplicaciones del futuro a través de la "nube" de internet Las tecnologías de procesamiento de gráficos y de CPU líderes de la industria están presentes en el diseño de la "AMD Fusion Render Cloud" para generar una revolución en el logro y desarrollo de contenidos 17 | P a g e . Pues bien. Imagina un camarero atendiendo detrás de la barra. La simulación del cerebro deberá esperar aún alguna década. llegará un momento en que no aumente la eficiencia. el sistema no funciona proporcionalmente más rápido.5 petabytes de memoria. Si hay un segundo camarero. Un problema habitual es que que cuando añadimos más cores. Uno de los objetivos de la simulación es ver el escalado. la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. En el extremo. necesitamos saber cómo funciona y eso está lejos de lograrse. El sistema escala mal.

000 procesadores gráficos. Dirk Meyer. utilizan hardware de AMD". una computadora paralela masiva. en el que AMD estuvo acompañada por líderes de la industria como Lucasfilm. AMD se complace en anunciar el lanzamiento de un nuevo tipo de supercomputadora. diferente a cualquier otra antes construida. revelaron un plan que revolucionará la implementación. El anuncio se efectuó durante el discurso de apertura de las conferencias Industry Insider Series de AMD en el Teatro Las Vegas Hilton. Además.Se espera que el dispositivo petaFLOPS sea la supercomputadora de procesamiento de gráficos más rápida del mundo La CES. contará con software de OTOY para lograr un objetivo particular: hacer realidad la informática de alta definición a través de la `nube` de internet. HP y Electronic Arts. y lo transmite por streaming en tiempo real a través una conexión inalámbrica o de banda ancha a un gran número de dispositivos tales como teléfonos inteligentes. Está diseñada para romper la barrera petaFLOPS y procesar un millón de hilos de ejecución a través de más de 1. "AMD tiene un historial de larga data en el mundo de las supercomputadoras. y el director ejecutivo de OTOY. que almacena contenido rico en imágenes en una nube informática. El diseño del sistema permitirá a los proveedores de contenidos ofrecer videojuegos. lo comprime. Siete de cada diez de las computadoras más rápidas del mundo. aplicaciones para computadoras y otras aplicaciones gráficamente intensivas a través de la "nube" de internet a prácticamente cualquier tipo de dispositivo móvil que cuente con un navegador sin que se gaste rápidamente la batería del dispositivo o que este tenga problemas para procesar el contenido. Dell. la capacidad de la batería y la 18 | P a g e . AMD Fusion Render Cloud transformará la visualización de películas y la utilización de juegos a través de la tecnología server-side rendering. decodificadores de TV digital y computadoras portátiles ultra finas. incluidas las dos computadoras más rápidas del planeta. Esperamos que sea la supercomputadora de gráficos más rápida que haya existido jamás. Jules Urbach. el desarrollo y el logro de contenidos de alta definición a través de la "AMD Fusion Render Cloud". Al ofrecer contenidos remotos a dispositivos que no pueden almacenar y procesar contenidos de alta definición debido a limitaciones como el tamaño del equipo. (NYSE: AMD) el presidente y director ejecutivo de AMD. Contamos con que el sistema estará listo para la segunda mitad de 2009". "Hoy. explicó Meyer.

"Imagine estar mirando una película en su teléfono celular mientras viaja a su casa en autobús y. y con resolución de pantalla completa". sostuvo Robert Rodríguez.potencia de procesamiento. "Yo utilizo tecnología de última generación para estar a la vanguardia del ámbito artístico y esa tecnología siempre ha sido y es la de AMD. director del departamento de entretenimiento y medios digitales de AMD. director de Troublemaker Studios. luego de entrar a casa o al apartamento. Tener los medios para crear juegos y películas interactivos de definición auténtica con la AMD Fusion Render Cloud y luego poder acercarlas a un público más amplio a través de nuevos métodos de distribución hará renacer la creación y el consumo de contenidos". "Alojado en la nueva y poderosa plataforma de la AMD Fusion Render de AMD. 19 | P a g e . La AMD Fusion Render Cloud también permitirá la transmisión remota en tiempo real de imágenes de películas y efectos visuales de una forma sin precedentes. continuó Boswell. esta "nube" de internet de alta definición brinda la posibilidad de visualizar aplicaciones de entretenimiento de alta definición a los usuarios móviles que se encuentran virtualmente en cualquier lugar. que han imposibilitado la creación de aplicaciones con definición auténtica". Las compañías de videojuegos pueden utilizar la AMD Fusion Render Cloud para desarrollar e implementar contenidos de juegos de avanzada. pasar a su televisión de alta definición y continuar viendo la misma película desde donde la dejó. dar a los juegos virtuales detalles fotográficos realistas sin límite y aprovechar nuevos canales de transmisión tan abiertos y diversos como la web misma. sin utilizar su valiosa capacidad de almacenamiento o gastar la batería con estas tareas intensivas. FPS) con las visualizaciones más intensas y la calidad de imagen más alta en su celular sin tener que descargarlo e instalar el software. comentó Charlie Boswell. el revolucionario software de OTOY ha generado la primera supercomputadora gráfica práctica y escalable del mundo capaz de transmitir contenidos de alta definición a través de la `nube` de internet mediante la tecnología server-side rendering. La AMD Fusion Render Cloud permitirá que directores como Robert Rodriguez de Troublemaker Studios pueda superar los actuales obstáculos de transmisión a través de los sistemas exclusivos de procesamiento de gráficos y sistemas exclusivos de CPU existentes. sin interrupciones. "Imagine jugar con el juego de disparos en primera persona (Person Shooter. Estas son algunas de las experiencias que AMD y OTOY haránrealidad con la tecnología informática de alta definición a través de la `nube` de internet y sus posibilidades de entretenimiento ricas en contenido visual".

La AMD Fusion Render Cloud es un excelente ejemplo de la estrategia de fusión de AMD. los procesadores AMD Phenom II. "La combinación de la potencia de la plataforma de software flexible y revolucionaria de OTOY con la AMD Fusion Render Cloud puede transformar la industria del entretenimiento y romper las barreras técnicas entre los consumidores y los contenidos de primera línea". y esperamos ansiosamente a los nuevos clientes a quienes podremos llegar y a las nuevas expresiones interactivas que surjan de la tecnología revolucionaria como es el caso de la AMD Fusion Render Cloud". afirmó Jules Urbach. Desde las primeras computadoras a los juegos en CD. 20 | P a g e . además. la AMD Fusion Render Cloud puede competir con los dispositivos informáticos industriales más poderosos del mundo por su reducido costo y. comentó Richard Hilleman. En 2008. entre ellos. que combina los sueños de sus socios con las posibilidades de innovación de AMD para introducir tecnologías poderosas a los mercados principales mediante el poder combinado de los procesadores gráficos y los CPU en una plataforma única. compañías de videojuegos y de visualización para crear contenidos de entretenimiento y visuales de última generación. porque solamente necesita una fracción del espacio físico y de la potencia máxima en comparación con muchas de las computadoras líderes de hoy en día". tenemos la suerte de ser parte de numerosos cambios en el mundo de los juegos de las computadoras personales. director ejecutivo de Electronic Arts. AMD planea proporcionar el sistema de hardware y los recursos de ingeniería para la AMD Fusion Render Cloud. director ejecutivo de OTOY."Al fusionar la tecnología de CPU líder de la industria con procesadores gráficos masivos paralelos con sistemas informáticos complejos. hemos adoptado cada nueva evolución en la tecnología como una oportunidad para brindar nuevas experiencias a nuestros clientes". y proveedor de tecnologías de convergencia y efectos especiales para la industria cinematográfica y de los videojuegos. "En Electronic Arts. los circuitos integrados auxiliares AMD 790 y los procesadores gráficos ATI Radeon HD 4870 para lograr complejidad informática y potencia efectiva sin precedentes. Acerca de OTOY OTOY es una compañía líder en el desarrollo de software y contenidos. pasando por la llegada de los juegos en internet. y OTOY planea proporcionar el desarrollo del software técnico y una capa de middleware. La AMD Fusion Render Cloud utiliza hardware optimizado por AMD. OTOY colabora con una gran cantidad de estudios. "OTOY y AMD están a la vanguardia de los juegos para clientes livianos.

Jules Urbach.com.la revista Variety calificó al director ejecutivo de OTOY. como uno de los 10 mejores innovadores a tener en cuenta en los próximos 12 meses.amd. 21 | P a g e . Acerca de AMD Advanced Micro Devices (NYSE: AMD) es una compañía de tecnologías innovadoras dedicada a colaborar con clientes y socios para lanzar la nueva generación de soluciones de informática y gráficos para el trabajo. visite http://www. el hogar y la diversión. Para obtener más información.

Supercomputadoras Física Creación de modelos para explicar la expansión del universo o El Big Bang. Se utiliza para la creación de los componentes que forman el hardware de la supercomputadora.Relación con otras ciencias Ciencias Computacionales Electrónica Se utiliza en la creación de software para utilizar y génerar aplicaciones y simulaciones. Geología Creación de simulaciones para analizar catástrofes causadas por Fenómenos Naturales Creación de simulaciones de tormentas y terremotos Y prevenir su posible nivel de daño en el mundo. Neurociencia Al realizar simulaciones sobre la forma en que funciona la sinapsis en el cerebro Psicología En el experimentar virtualmente con procedimientos para la posterior aplicación en los seres humanos 22 | P a g e .

es un gran desarrollo de la ultimas decadas y esto ha ayudado a la investigacion en si.Industria Armamentista En la simulación de misiles nucleares y su posible radio de destrucción Resultados Obtenidos Entre los resultados obtenidos se encontraron que muchas de las aplicaciones de las supercomputadoras están relacionadas con las ciencias y con proyectos de las misma a gran escala parte de estos sirven para simular situaciones hipotéticas en las cuales se pueden prevenir desastres como lo es el comprender los terremotos. involucran cosas increíblemente pequeñas o increíblemente grandes. de los cuales se puede tener mas confianza de lo que se esta realizando. Jennifer: El tema de las supercomputadoras es muy amplio. Tsunamis etc. Tambien sirven para hacer simulaciones del clima en la tierra . La supercomputadora es y será un monstruo informatico en todos los sentido 23 | P a g e . explosiones nucleares. ya sea porque son peligrosos. Pedro: Mi conclusion referente a las supercomputadoras es que han sido de gran importancia en el estudio con relacion a fenomenos en el espacio tal como el origen de universo (Big Bang) . en la creacion de simulaciones que son basicamente una manera de experimentar "virtualmente" con diferentes situaciones a escalas muy grandes o muy pequeñas que no podrian calcularse con un computador comun o con el cerebro de una persona cualquiera y que es necesario sistematizar estos procesos para ahorrar tiempo. Conclusiones (individuales): Sergio: Como Conclusión llegue que las supercomputadoras en la actualidad se han enfocado en aplicaciones cientificas. expansión inicial del universo. y/o esfuerzo. Al mismo tiempo reduce el trabajo de los cientificos ya que la simulacion que la supercomputadora logra realizar lanza datos que en si son precisos y eficacez. asi como tambien estudios sobre el clima espacial. para poder hacer pronostico del clima . en general se obtuvo que era para el estudio de casos específicos a gran escala de problemáticas relacionadas con diferentes ciencias. Ademas otros de los temas a investigar por estos supercomputadores son las simulaciones de catastrofes que nos sirven para la prevención de los mismos en un futuro dado. En sí las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien. Muchas de las cosas descubiertas se la debemos a este gran mecanismo que contiene una gran capacidad de procesamiento lo que facilita en si la prueba de lo que se tiende a investigar. tambien simulaciondes de explosiones de supernovas.

Recomendaciones Así como las aplicaciones que vimos son bastas y prácticas. Ya que con esta información de referencia se podrían comparar los datos que uno recolecte.wikipedia. Bibliografía http://www.org/wiki/History_of_supercomputing http://de. cosa que desconocíamos un poco.com/2012/11/ibm-neuronas-sinapsis http://www. Si hubo algo con lo que encontramos dificultades fue con las explicaciones técnicas del proceso de cómputo dentro de la infrestructura de una supercomputadora.wikipedia.wikipedia.org/wiki/Supercomputer http://alt1040.shtml http://en.org/wiki/Cray-2 http://www.org/wiki/Fluorinert http://www.org/featured/systems/cm-5-los-alamos-national-lab/ http://www.srbyte.eluniversal.html http://es. las recomendaciones que tenemos para iniciar y proseguir con investigaciones como esta.html http://en.mx/graficos/graficosanimados12/EU_Supercomputadora/cerebros.com/trabajos58/funcionamiento-computadora/funcionamientocomputadora. en ocaciones refiriéndose a sus similitudes con un mainframe. Algo que es muy útil antes y durante el proceso de investigación es estar informado sobre los modelos computacionales actuales y posibles dentro de un futuro a mediano-largo plazo.wikipedia.reuters.html http://www.com/408-9-super-cool-uses-for-supercomputers.com.com/article/2009/01/10/idUS28279+10-Jan-2009+BW20090110 24 | P a g e .top500. también lo son.technewsdaily.com/2008/11/qu-es-un-flop-y-un-petaflop.monografias.