You are on page 1of 10

COMPUTACIÓN

PARALELA

. porque la concurrencia introduce nuevos tipos de errores de software. • El incremento de velocidad que consigue un programa como resultado de la paralelización viene dado por la ley de Amdahl que dice que: "la mejora obtenida en el rendimiento de un sistema debido a la alteración de uno de sus componentes está limitada por la fracción de tiempo que se utiliza dicho componente".VENTAJAS • Los programas de ordenador paralelos son más difíciles de escribir que los secuenciales. siendo las condiciones de carrera los mas comunes.

• La comunicación y la sincronización entre las diferentes subtareas son típicamente las grandes barreras para conseguir un buen rendimiento de los programas paralelos.DESVENTAJAS • El consumo de energía de los ordenadores paralelos se ha convertido en una preocupación. .

pueden resolver de manera concurrente. Las instrucciones se ejecutan Cada parte se puede una tras otra. computadora y un solo CPU. Sólo una instrucción se puede Las instrucciones de cada parte ejecutar en cada instante en el se ejecutan de forma tiempo. Un problema se descompone Un problema se descompone en una serie determinada de en partes discretas que se instrucciones. . COMPARATIVA COMPUTACIÓN PARALELA Y COMPUTACIÓN SECUENCIAL Computación secuencial Computación paralela Se ejecuta con sólo una Se ejecuta en múltiples CPUs. descomponer en series de instrucciones. simultánea en distintas CPUs.

MODELOS DE PROGRAMACIÓ N PARALELA .

Threads. COMPARATIVA Modelo de Modelo de Modelo de Modelo de Modelo memoria Threads paso de datos híbrido compartid mensajes paralelos a Las tareas Un Múltiples Un Combina comparten proceso tareas conjunto el modelo un único puede pueden de tareas de paso espacio de tener residir en trabajan de direccione múltiples la misma colectivam mensajes s. arbitrario pero cada de forma de tarea asíncrona. en el caminos máquina ente en la y el que las de física y/o misma modelo tareas ejecución en un estructura de leen y concurrent número de datos. escriben e. trabaja sobre una partición . máquinas.

MPI. ón.Modelo de Modelo de Modelo de Modelo de Modelo memoria Threads paso de datos híbrido compartid mensajes paralelos a La La La En La comunicaci comunicaci comunicaci arquitectur comunicaci ón entre ón se hace ón entre as de ón entre procesador a través de cualquier memoria procesos es se la memoria par de compartida. . situados en realiza global. nodos se todas las diferentes modificand realiza a tareas nodos se o variables través de acceden a realiza a en la una red de los datos a través de la memoria interconexi través de la red compartida. memoria utilizando global.

utilizando particulariz compartir a un índice y datos an en recursos. computaci programa existir código: se cada una onalmente ejecutable: múltiples particulariza sobre su intensos se hilos y n en función partición. en un locales función a mientras que conjunto de situados en un índice y procesos datos los nodos. en un diferentes no separados. conjunto de comparten datos con nada. . “envoltorio” diferenciad o.Modelo de Modelo de Modelo de Modelo Modelo memoria Threads paso de de datos híbrido compartid mensajes paralelos a Todos lo Dentro de un Todos los Las tareas Los hilos procesador mismo procesadore realizan la implement es corren el proceso s ejecutan el misma an kernels mismo pueden mismo operación.

acceso a la reside en la tanto los memoria memoria datos como compartida: local de la las exclusión tarea. instruccione mutua. local. s están en la memoria. . la memoria.Modelo de Modelo de Modelo Modelo de Modelo memoria Threads de paso datos híbrido compartid de paralelos a mensajes Tiempo de Se requieren Tiempo de En Los nodos acceso mecanismos acceso arquitectur residen en constante a de constante as de la memoria la cualquier sincronizaci a la memoria local de la dirección de ón (cerrojos.) para parten y programa controlar el cada trozo comienza. memoria distribuida tarea. semáforos. los datos se Cuando el etc.

GRACIAS POR SU ATENCIÓN .