1

Unidad central de procesamiento

La unidad central de procesamiento o unidad de procesamiento central (conocida por las siglas CPU, del
inglés: central processing unit), es el hardware dentro de una computadora u otros dispositivos
programables, que interpreta las instrucciones de un programa informático mediante la realización de las
operaciones básicas aritméticas, lógicas y de entrada/salida del sistema. El término, y su acrónimo, han
estado en uso en la industria de la Informática por lo menos desde el principio de los años 1960. 1 La forma,
el diseño de CPU y la implementación de las CPU ha cambiado drásticamente desde los primeros ejemplos,
pero su operación fundamental sigue siendo la misma.

Una computadora puede tener más de una CPU; esto se llama multiprocesamiento. Todas las CPU
modernas son microprocesadores, lo que significa que contienen un solo circuito integrado (chip). Algunos
circuitos integrados pueden contener varias CPU en un solo chip; estos son denominados procesadores
multinúcleo. Un circuito integrado que contiene una CPU también puede contener los dispositivos
periféricos, y otros componentes de un sistema informático; a esto se llama un sistema en un chip (SoC).

Dos componentes típicos de una CPU son la unidad aritmético lógica (ALU), que realiza operaciones
aritméticas y lógicas, y la unidad de control (CU), que extrae instrucciones de la memoria, las decodifica y
las ejecuta, llamando a la ALU cuando sea necesario.

No todos los sistemas computacionales se basan en una unidad central de procesamiento. Una matriz de
procesador o procesador vectorial tiene múltiples elementos cómputo paralelo, sin una unidad considerada
el "centro". En el modelo de computación distribuido, se resuelven problemas mediante un conjunto
interconectado y distribuido de procesadores.

Historia

Los primeros ordenadores, como el ENIAC, tenían que ser físicamente recableados para realizar diferentes
tareas, lo que hizo que estas máquinas se denominaran "ordenadores de programa fijo". Dado que el
término "CPU" generalmente se define como un dispositivo para la ejecución de software (programa
informático), los primeros dispositivos que con razón podríamos llamar CPU vinieron con el advenimiento
del ordenador con programa almacenado.

para una aplicación particular. Combinado con el advenimiento y el eventual vasto éxito de la ahora ubicua computadora personal. en 1974. El tamaño más pequeño del CPU. este método de diseñar las CPU a medida. Los fabricantes de mainframes y miniordenadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar sus arquitecturas de computadoras más viejas y eventualmente producir microprocesadores con conjuntos de instrucciones que eran retro compatibles con su hardware y softwares más viejos. el Intel 4004. ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o varios propósitos. significa . el término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores. desde automóviles hasta teléfonos móviles o celulares y juguetes de niños. esta clase de CPU ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de procesamiento. generalmente un ordenador único en su especie. Las generaciones previas de CPU fueron implementadas como componentes discretos y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Sin embargo. usualmente solo uno. los microprocesadores son CPU fabricados con un número muy pequeño de IC. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos. Microprocesadores En la década de 1970 los inventos fundamentales de Federico Faggin (ICs Silicon Gate MOS con puertas auto alineadas junto con su nueva metodología de diseño de lógica aleatoria) cambió el diseño e implementación de las CPU para siempre. el Intel 8080. 2 Las primeras CPU fueron diseñadas a medida como parte de un ordenador más grande. Desde la introducción del primer microprocesador comercialmente disponible. este ha permitido que sean diseñados y fabricados CPU más complejas en espacios pequeños en la orden de nanómetros). Tanto la miniaturización como la estandarización de las CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. computadoras centrales y microcomputadoras y fue acelerada rápidamente con la popularización del circuito integrado (IC). como resultado de estar implementado en una simple pastilla. en 1970 y del primer microprocesador ampliamente usado. Por otro lado. Los microprocesadores modernos aparecen en todo.

Esta tendencia ampliamente observada es descrita por la ley de Moore. esto también tiene la desventaja que todo el CPU debe esperar por sus elementos más lentos. Mientras que. Estas nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar nuevos métodos de computación como la computación cuántica. Adicionalmente. Frecuencia de reloj La mayoría de los CPU. como en una perspectiva de cantidad de componentes. Al fijar el período del reloj a un valor bastante mayor sobre el retardo de la propagación del peor caso. Es decir. Esto ha permitido que los microprocesadores síncronos tengan tiempos de reloj con un rango de decenas de megahercios a varios gigahercios. los diseñadores pueden seleccionar un período apropiado para la señal del reloj. el tamaño. ser una predicción bastante exacta del crecimiento de la complejidad de los CPUs y otros IC. Calculando el tiempo máximo en que las señales eléctricas pueden moverse en las varias bifurcaciones de los muchos circuitos de un CPU. Esto tiene la ventaja de simplificar el CPU significativamente. en los pasados sesenta años han cambiado drásticamente. 3 tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la capacitancia parásita de las puertas. es posible diseñar todo el CPU y la manera que mueve los datos alrededor de los "bordes" de la subida y bajada de la señal del reloj. se han presentado preocupaciones sobre los límites de la tecnología de transistor del circuito integrado. Este período debe ser más largo que la cantidad de tiempo que toma a una señal moverse. Sin embargo. Casi todos los CPU comunes de hoy se pueden describir con precisión como máquinas de programa almacenado de von Neumann. es notable que el diseño y el funcionamiento básico no ha cambiado demasiado. están diseñados y operan en función de una señal de sincronización. como ha aumentado la capacidad de construir transistores excesivamente pequeños en un IC. la mayoría de los dispositivos de lógica secuencial. tanto en una perspectiva de diseño. o propagarse en el peor de los casos. . Esta señal. aun cuando algunas unidades de la misma son mucho más rápidas. la construcción y la forma general de la CPU. usualmente toma la forma de una onda cuadrada periódica. La miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos que se vuelven mucho más significativos. la complejidad y el número de transistores en un simple CPU también se ha incrementado dramáticamente. Esta limitación ha sido compensada en gran parte por varios métodos de aumentar el paralelismo del CPU. conocida como señal de reloj. que ha demostrado hasta la fecha. como la electromigración y el subumbral de pérdida. y de hecho. son de naturaleza síncrona. así como ampliar el uso de paralelismo y otros métodos que extienden la utilidad del modelo clásico de von Neumann. la complejidad. A medida que la ya mencionada ley del Moore continúa manteniéndose verdadera.