Arquitectura RISC

Características En pocas palabras esto significa que para cualquier nivel de desempeño dado, un chip RISC típicamente tendrá menos transistores dedicados a la lógica principal. Esto permite a los diseñadores una flexibilidad considerable; así pueden, por ejemplo:  Incrementar el tamaño del conjunto de registros.  Mayor velocidad en la ejecución de instrucciones.  Implementar medidas para aumentar el paralelismo interno.  Añadir cachés enormes.  Añadir otras funcionalidades, como E/S y relojes para minicontroladores.  Construir los chips en líneas de producción antiguas que de otra manera no serían utilizables.  No ampliar las funcionalidades, y por lo tanto ofrecer el chip para aplicaciones de bajo consumo de energía o de tamaño limitado. Las características que generalmente son encontradas en los diseños RISC son:  Codificación uniforme de instrucciones (ejemplo: el código de operación se encuentra siempre en la misma posición en cada instrucción, la cual es siempre una palabra), lo que permite una decodificación más rápida.  Un conjunto de registros homogéneo, permitiendo que cualquier registro sea utilizado en cualquier contexto y así simplificar el diseño del compilador (aunque existen muchas formas de separar los ficheros de registro de entero y coma flotante).  Modos de direccionamiento simple con modos más complejos reemplazados por secuencias de instrucciones aritméticas simples.  Los tipos de datos soportados en el hardware (por ejemplo, algunas máquinas CISC tiene instrucciones para tratar con tipos byte,cadena) no se encuentran en una máquina RISC. Los diseños RISC también prefieren utilizar como característica un modelo de memoria Harvard, donde los conjuntos de instrucciones y los conjuntos de datos están conceptualmente separados; esto significa que el modificar las direcciones donde el código se encuentra pudiera no tener efecto alguno en las instrucciones ejecutadas por el procesador (porque la CPU tiene separada la instrucción y el caché de datos, al menos mientras una instrucción especial de sincronización es utilizada). Por otra parte, esto permite que ambos cachés sean accedidos separadamente, lo que puede en algunas ocasiones mejorar el rendimiento. Ventajas típicas del RISC Originalmente, la escalabilidad, el rendimiento de aplicaciones, el menor coste de fabricación y el ancho del direccionamiento de memoria han sido algunas de las principales bazas a favor de la arquitectura RISC. Sin embargo, para algunos estas ventajas no son ya tales. En su momento, los chips RISC tenían una ventaja clara en cuanto a escalabilidad a través del soporte de multiprocesamiento simétrico (SMP). La escalabilidad (la forma en cómo el sistema operativo distribuye el trabajo entre los diversos procesadores) sin embargo es algo que interesa particularmente a los servidores y, además, para muchos la principal ventaja del RISC radica más en el sistema operativo Unix que se utiliza mayoritariamente en estos entornos que en el propio diseño del chip. En cuanto al rendimiento de las aplicaciones la principal diferencia está en los cálculos de coma flotante en los que el chip tiene que realizar cálculos matemáticos intensivos. Parece ser que aquí el RISC sigue teniendo hasta un 20% de ventaja como demuestran los diversos tests de rendimiento que se realizan comparando por ejemplo Pentiums con Power Macintosh. El tema del coste de fabricación del chip da como claro ganador a la tecnología RISC pero el volumen de mercado del CISC es tal que este punto queda perfectamente compensado. Y en cuanto a direccionamiento de memoria, los 64 bits del RISC sólo son aprovechables en entornos de red con aplicaciones y sistemas operativos diseñados para trabajar con 64 bits pero ello aún no es así en la informática personal. Sin embargo, las posibilidades futuras de ambas tecnologías no son en absoluto las mismas. Frente a una arquitectura con dieciocho años de antigüedad y con rendimientos cada vez menos espectaculares (véase sino la decepción del Pentium Pro por sus iniciales bajos rendimientos con Windows) se encuentra una tecnología aún joven y diseñada, en el caso de los chips RISC para ordenadores personales, más en sintonía con las necesidades actuales. El problema radica en cómo aprovechar una

Pero los riesgos de este tipo de movimientos son evidentes. técnicas que encontramos implementadas desde los primeros Pentium. adoptando progresivamente técnicas propias del RISC en sus chips. Al mismo tiempo no estaba claro dónde habría o no una ganancia neta en el desempeño debido a esta limitación. por lo visto. puede parecer una manera mucho menos eficiente de completar la operación. Costo . Las pérdidas en rendimiento global de los sistemas son muy elevadas. eso se rumorea pues el famoso proyecto Merced junto con Hewlett Packard es top secret. La arquitectura superescalar en primer término y el pipelining después han conseguido acelerar notablemente el rendimiento de sus microprocesadores. tanto que finalmente va a tener que producirse una ruptura mayor con la tecnología anterior en forma de un nuevo sistema operativo que Apple espera lanzar cuando dé frutos el trabajo conjunto entre sus laboratorios y los de la recién adquirida Next. que mueve datos del banco de memoria a un registro. mientras tanto. Sin embargo. (2:3) LOAD B. y hubo una batalla casi continua en el mundo de la prensa y del diseño sobre los conceptos de RISC. cerca de la unidad de eejcución. Intel ha ido. Para poder mantener la compatibilidad con el sistema operativo y las aplicaciones 860X0. hace falta más RAM para almacenar las instrucciones en ensamblador. (5:2) PROD A. B STORE (2:3). los Power Macintosh funcionan en modo emulación cuando las ejecutan e incluso su propio sistema operativo no es absolutamente nativo. un programador debería codificar la instrucción en 4 líneas de código ensamblador: LOAD A. y "STORE". Por este motivo suelen ser arquitecturas basadas en registros de propósito general que operan siempre sobre operandos que se encuetran almacenados en el procesador. Debido a que una serie de instrucciones son necesarias para completar incluso las tareas más sencillas. » La filosofía RISC Los procesadores RISC sólo usan instrucciones sencillas que se puedan ejecutar rápidamente. De esta forma. y por lo tanto lleva más tiempo. el número total de instrucciones para la lectura de la memoria es más grande. El compilador debe realizar también más trabajo para convertir un lenguaje de alto nivel en código. al menos. está dedicando su mayor inversión a imaginar cual sería la forma menos dolorosa de transición de su actual arquitectura al RISC. ello no debe parecerle suficiente al principal líder de fabricación de chips para PCs que. Debido a que hay más líneas de código. Apple tomó su decisión al respecto a principios de los 90 abandonando la arquitectura CISC en una fluida transición hacia el RISC. O. que mueve datos de un registro al banco de memoria.arquitectura más eficaz manteniendo la compatibilidad con las aplicaciones y sistemas operativos desarrollados para los procesadores de los años 70. "PROD". A A primera vista. que halla el producto de dos operandos situados en los registros. el comando "MULT" descrito más arriba podría ser dividido en tres comandos por separado: "LOAD". Para realizar la serie de pasos descritos en la filosofía CISC. Desventajas Sin embargo RISC también tenía sus desventajas.

generaban gran cantidad de calor y eran sumamente lentas. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador. Estas máquinas tenían las siguientes características: Usaban tubos al vacío para procesar información. . Surgieron las minicomputadoras y los terminales a distancia. Se comenzó a utilizar el sistema binario para representar los datos. Usaban cilindros magnéticos para almacenar información e instrucciones internas. puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965. Usaban pequeños anillos magnéticos para almacenar información e instrucciones. los cuales eran comercialmente accsesibles. cantidad de calor y eran sumamente lentas. Usaban tarjetas perforadas para entrar los datos y los programas. Segunda Generación (1958-1964) En esta generación las computadoras se reducen de tamaño y son de menor costo. que es el antecesor de los discos actuales. Tercera Generación (1964-1971) La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. desprendían menos calor y eran energéticamente más eficientes. Características de está generación: Se desarrollaron circuitos integrados para procesar información. Características de está generación: Usaban transistores para procesar información. Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN.000 dólares). "Whirlwind I". utilizaban gran cantidad de electricidad. de la cual se produjeron varios cientos. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Eran sumamente grandes. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero. Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación. más rápidas. En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10. Los transistores eran más rápidos. La marina de los Estados Unidos desarrolla el primer simulador de vuelo. Se desarrollaron los "chips" para almacenar y procesar la información. Se comenzó a disminuir el tamaño de las computadoras. La computadora más exitosa de la primera generación fue la IBM 650. control del tráfico aéreo y simulaciones de propósito general. Y se conoce como la primera generación. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. pequeños y más confiables que los tubos al vacío. Esta generación abarco la década de los cincuenta. Las computadoras nuevamente se hicieron más pequeñas. Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas.Generaciones de las Computadoras Primera Generación (1951-1958) En esta generación había una gran desconocimiento de las capacidades de las computadoras.

generaban menos calor. Quinta Generación (1983 al presente) En vista de la acelerada marcha de la microelectrónica. Cuarta Generación (1971-1988) Aparecen los microprocesadores que es un gran adelanto de la microelectrónica. no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Otra vez las computadoras se tornan más pequeñas. que pueden resumirse de la siguiente manera: Se desarrollan las microcomputadoras. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. para que puedan responder de manera más efectiva a situaciones no estructuradas. la memoria primaria. Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio. Cada "chip" puede hacer diferentes tareas. Surge la competencia internacional por el dominio del mercado de la computación. Inteligencia artíficial: La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento humano usados en la solución de problemas a la computadora. ya que almacenan la información como cargas eléctricas. Redes de comunicaciones: Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes de comunicaciones. Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1. por lo que su uso se extiende al mercado industrial. . Están siendo diseñados con inteligencia artificial. es operado por otros "chips". Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos. son circuitos integrados de alta densidad y con una velocidad impresionante. Surge la multiprogramación. Se desarrollan las microcomputadoras. Robótica: La robótica es el arte y ciencia de la creación y empleo de robots. por lo tanto. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes. todo el "hardware" que soporta las interconexiones y todo el "software" que administra la transmisión. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". Se desarrollan las supercomputadoras. computadoras personales o PC. en la que se perfilan dos líderes que. Un robot es un sistema de computación híbrido independiente que realiza actividades físicas y de cálculo. Consumían menos electricidad.Large Scale Integration circuit". Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras". computadoras personales o PC. "LSI . "VLSI . más ligeras y más eficientes. Se colocan más circuitos dentro de un "chip".Very Large Scale Integration circuit". o sea. la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras.Los circuitos integrados recuerdan los datos. Características de está generación: Se desarrolló el microprocesador. Emerge la industria del "software". sin embargo. Se desarrollan las supercomputadoras. El tercer componente. o sea. Sistemas expertos: Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas. con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados.