Professional Documents
Culture Documents
La unidad central de procesamiento o unidad de procesamiento central (conocida por las siglas
CPU, del inglés: central processing unit), es el hardware dentro de un ordenador u otros
dispositivos programables, que interpreta las instrucciones de un programa informático
mediante la realización de las operaciones básicas aritméticas, lógicas y de entrada/salida del
sistema. El término, y su acrónimo, han estado en uso en la industria de la Informática por lo
menos desde el principio de los años 1960.1 La forma, el diseño de CPU y la implementación
de las CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación
fundamental sigue siendo la misma.
Un ordenador puede tener más de una CPU; esto se llama multiprocesamiento. Todas las CPU
modernas son microprocesadores, lo que significa que contienen un solo circuito integrado
(chip). Algunos circuitos integrados pueden contener varias CPU en un solo chip; estos son
denominados procesadores multinúcleo. Un circuito integrado que contiene una CPU también
puede contener los dispositivos periféricos, y otros componentes de un sistema informático; a
esto se llama un sistema en un chip (SoC).
Dos componentes típicos de una CPU son la unidad aritmético lógica (ALU), que realiza
operaciones aritméticas y lógicas, y la unidad de control (CU), que extrae instrucciones de la
memoria, las decodifica y las ejecuta, llamando a la ALU cuando sea necesario.
No todos los sistemas computacionales se basan en una unidad central de procesamiento. Una
matriz de procesador o procesador vectorial tiene múltiples elementos de cómputo paralelo,
sin una unidad considerada el "centro". En el modelo de computación distribuido, se resuelven
problemas mediante un conjunto interconectado y distribuido de procesadores.
hitorias
Los primeros ordenadores, como el ENIAC, tenían que ser físicamente recableados para
realizar diferentes tareas, lo que hizo que estas máquinas se denominaran "ordenadores de
programa fijo". Dado que el término "CPU" generalmente se define como un dispositivo para
la ejecución de software (programa informático), los primeros dispositivos que con razón
podríamos llamar CPU vinieron con el advenimiento del ordenador con programa almacenado.
Las primeras CPU fueron diseñadas a medida como parte de un ordenador más grande,
generalmente un ordenador único en su especie. Sin embargo, este método de diseñar las CPU
a medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por
el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o varios
propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los
transistores discretos, computadoras centrales y microcomputadoras y fue acelerada
rápidamente con la popularización del circuito integrado (IC), este ha permitido que sean
diseñados y fabricados CPU más complejas en espacios pequeños en la orden de nanómetros.
Tanto la miniaturización como la estandarización de las CPU han aumentado la presencia de
estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de
máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo,
desde automóviles hasta teléfonos móviles o celulares y juguetes de niños.
Si bien von Neumann muchas veces acreditado por el diseño de la computadora con programa
almacenado debido a su diseño del EDVAC, otros antes que él, como Konrad Zuse, habían
sugerido y aplicado ideas similares. La denominada arquitectura Harvard del Harvard Mark I,
que se completó antes de EDVAC, también utilizó un diseño de programa almacenado usando
cinta de papel perforada en vez de memoria electrónica. La diferencia clave entre las
arquitecturas de von Neumann y la de Harvard es que la última separa el almacenamiento y
tratamiento de instrucciones de la CPU y los datos, mientras que el primero utiliza el mismo
espacio de memoria para ambos. La mayoría de los CPU modernos son de diseño von
Neumann, pero los CPU con arquitectura Harvard se ven así, sobre todo en aplicaciones
embebidas; por ejemplo, los microcontroladores Atmel AVR son procesadores de arquitectura
Harvard.
Los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente
como elementos de conmutación; un ordenador útil requiere miles o decenas de miles de
dispositivos de conmutación. La velocidad global de un sistema depende de la velocidad de los
conmutadores. Los ordenadores de tubo, como el EDVAC, tendieron en tener un promedio de
ocho horas entre fallos, mientras que los ordenadores de relés, (anteriores y más lentos),
como el Harvard Mark I, fallaban muy raramente.1 Al final, los CPU basados en tubo llegaron a
ser dominantes porque las significativas ventajas de velocidad producidas generalmente
pesaban más que los problemas de confiabilidad. La mayor parte de estas tempranas CPU
síncronas corrían en frecuencias de reloj bajas comparadas con los modernos diseños
microelectrónicos. Eran muy comunes en este tiempo las frecuencias de la señal del reloj con
un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los
dispositivos de conmutación con los que fueron construidos.