asasasas

3 Selección de componentes para ensamble de equipos de cómputo
3.1 Chipset
Chipset es el conjunto de circuitos integrados diseñados con base a la arquitectura de un procesador (en algunos casos diseñados como parte integral de esa arquitectura), permitiendo que ese tipo de procesadores funcionen en una placa base. Sirven de puente de comunicación con el resto de componentes de la placa, como son la memoria, las tarjetas de expansión, los puertos USB, ratón, teclado, etc. Las placas base modernas suelen incluir dos integrados, denominados Norte y Sur, y suelen ser los circuitos integrados más grandes después del microprocesador. El chipset determina muchas de las características de una placa base y por lo general la referencia de la misma está relacionada con la del chipset. A diferencia del microcontrolador, el procesador no tiene mayor funcionalidad sin el soporte de un chipset: la importancia del mismo ha sido relegada a un segundo plano por las estrategias de marketing.

Historia
Desde los comienzos de la fabricación de los primeros procesadores, se pensó en un conjunto de integrados de soporte, de hecho el primer microprocesador de la historia, el Intel 4004 formaba parte de un conjunto de integrados numerados 4001,4002 y 4003 que tenían todos una apariencia física similar y que formaban la base de un sistema de cómputo cualquiera. Mientras que otras plataformas usaban muy variadas combinaciones de chips de propósito general, los empleados en el Commodore 64 y la Familia Atari de 8 bits, incluso sus CPUs, solían ser diseños especializados para la plataforma, que no se encontraban en otros equipos electrónicos, por lo que se les comenzó a llamar chipsets. Este término se generalizó en la siguiente generación de ordenadores domésticos: el Commodore Amiga y el Atari ST son los equipos más potentes de los años 90, y ambos tenían multitud de chips auxiliares que se encargaban del manejo de la memoria, el sonido, los gráficos o el control de

unidades de almacenamiento masivo dejando a la CPU libre para otras tareas. En el Amiga sobre todo se diferenciaban las generaciones por el chipset utilizado en cada una. Tanto los chips de los Atari de 8 bits como los del Amiga tenían como diseñador a Jay Miner, por lo que algunos lo consideran el precursor de la moderna arquitectura utilizada en la actualidad. Apple Computer comienza a utilizar chips diseñados por la compañía o comisionados expresamente a otras en su gama Apple Macintosh, pero pese a que irá integrando chips procedentes del campo PC, nunca se usa el término chipset para referirse al juego de chips empleado en cada nueva versión de los Mac, hasta la llegada de los equipos G4. Mientras tanto el IBM PC ha optado por usar chips de propósito general (IBM nunca pretendió obtener el éxito que tuvo) y sólo el subsistema gráfico tiene una ligera independencia de la CPU. Hasta la aparición de los IBM Personal System/2 no se producen cambios significativos, y el término chipset se reserva para los conjuntos de chips de una placa de ampliación (o integrada en placa madre, pero con el mismo bus de comunicaciones) dedicada a un único propósito como el sonido o el subsistema SCSI. Pero la necesidad de ahorrar espacio en la placa y abaratar costes trae primero la integración de todos los chips de control de periféricos (las llamadas placas multiIO pasan de tener hasta 5 chips a integrar más funciones en uno sólo) y con la llegada del bus PCI y las especificaciones ATX de los primeros chipsets tal y como los conocemos ahora.

Funcionamiento
El Chipset es el que hace posible que la placa base funcione como eje del sistema, dando soporte a varios componentes e interconectándolos de forma que se comuniquen entre ellos haciendo uso de diversos buses. Es uno de los pocos elementos que tiene conexión directa con el procesador, gestiona la mayor parte de la información que entra y sale por el bus principal del procesador, del sistema de vídeo y muchas veces de la memoria RAM. En el caso de los computadores PC, es un esquema de arquitectura abierta que establece modularidad: el Chipset debe tener interfaces estándar para los demás dispositivos. Esto permite escoger entre varios dispositivos estándar, por ejemplo en el caso de los buses de expansión, algunas tarjetas madre pueden tener bus PCI-Express y soportar diversos tipos de tarjetas con de distintos anchos de bus (1x, 8x, 16x). En el caso de equipos portátiles o de marca, el chipset puede ser diseñado a la medida y aunque no soporte gran variedad de tecnologías, presentará alguna interfaz de dispositivo. La terminología de los integrados ha cambiado desde que se creó el concepto del chipset a principio de los años 90, pero todavía existe equivalencia haciendo algunas aclaraciones: • El NorthBridge, puente norte, MCH (Memory Controller Hub), GMCH (Graphic MCH), se usa como puente de enlace entre el microprocesador y la memoria. Controla las funciones de acceso hacia y entre el microprocesador, la memoria RAM, el puerto gráfico AGP o el PCI-Express de gráficos, y las comunicaciones con el puente sur. Al

principio tenía también el control de PCI, pero esa funcionalidad ha pasado al puente sur. El SouthBridge o puente sur, ICH (Input Controller Hub), controla los dispositivos asociados como son la controladora de discos IDE, puertos USB, FireWire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos infrarrojos, disquetera, LAN, PCIExpress 1x y una larga lista de todos los elementos que podamos imaginar integrados en la placa madre. Es el encargado de comunicar el procesador con el resto de los periféricos.

En la actualidad los principales fabricantes de chipsets son AMD, ATI Technologies (comprada en 2006 por AMD), Intel, NVIDIA, Silicon Integrated Systems y VIA Technologies

El termino chipset en la electrónica
También en electrónica se utiliza el termino chipset para referirnos al circuito integrado o conjunto de ellos que fueron diseñados específicamente para un equipo electrónico, siendo imposible su utilización para otro propósito que no fuese el planificado por sus fabricantes. Estos circuitos integrados albergan en su interior prácticamente la totalidad de los componentes del dispositivo, requiriendo de unos pocos componentes adicionales en el circuito impreso, difíciles o imposibles de integrar, como condensadores, cristales de cuarzo, inductores o memorias RAM que ocupan una gran superficie del chip y tienen una alta tasa de fallos en la fabricación. Tampoco se suelen integrar las memorias flash donde se almacena el firmware.

3.1.1 CPU
La unidad central de procesamiento o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.

Los microprocesadores modernos aparecen en todo. Al final. el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos. y microcomputadoras. ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. generalmente eran más rápidas pero menos confiables que las computadoras electromecánicas. calculadoras. éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). como el Harvard Mark I. aviones. La forma. hacer circuitos de lógica secuencial de corriente directa requería hardware adicional para hacer frente al problema del rebote de contacto. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. (basados en tubos de vacío). hasta teléfonos móviles o celulares. juguetes. cuando un tubo ha fallado. los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. para una aplicación particular. y fue acelerada rápidamente con la popularización del circuito integrado (IC).1 Generalmente. pero su operación fundamental ha permanecido bastante similar. no eran fiables por varias razones. desde automóviles. mientras que los tubos de vacío no sufren del rebote de contacto. neveras. Historia Casi todos los CPU tratan con estados discretos. (anteriores y más lentas). mientras que las computadoras de relés. Por ejemplo. televisores. los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Antes de la aceptación comercial del transistor. generalmente una computadora única en su especie. computadoras centrales. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos. como el EDVAC. y por lo tanto requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos estados. tendieron en tener un promedio de ocho horas entre fallas. La mayor parte de estos tempranos CPU síncronos corrían en frecuencias de reloj bajas comparadas con los . Por otro lado. en términos generales. Sin embargo. este costoso método de diseñar los CPU a la medida. Las computadoras de tubo.La expresión "unidad central de proceso" es. Sin embargo. una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. fallaban muy raramente . el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960 . los primeros computadores electrónicos. el CPU tendría que ser diagnosticado para localizar el componente que falla para que pueda ser reemplazado. entre otros. Por lo tanto. Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande. (basadas en relés). Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos. éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo.

disminuyendo así la cantidad de IC individuales necesarios para un CPU completo. Construir un CPU completo usando IC SSI requería miles de chips individuales. que originalmente fue construido con IC SSI pero eventualmente fue implementado con componentes LSI cuando se convirtieron en prácticos. usualmente contenían transistores que se contaban en números de múltiplos de diez. como las puertas NOR fueron miniaturizados en IC. A medida que la tecnología microelectrónica avanzó. Esto fue significativo en un tiempo en que la mayoría de las computadoras electrónicas eran incompatibles entre sí. fueron construidos CPU más complejos y más confiables sobre una o varias tarjetas de circuito impreso que contenían componentes discretos (individuales). Los circuitos integrados SSI. Los CPU transistorizados durante los años 1950 y los años 1960 no tuvieron que ser construidos con elementos de conmutación abultados. Al principio. como los usados en el computador guía del Apollo (Apollo Guidance Computer). a menudo llamado "microcódigo". como el IBM zSeries. la primera implementación LSI del PDP-11 contenía un CPU integrado únicamente por cuatro circuitos integrados LSI . IBM introdujo su arquitectura de computador System/360. y luego a miles. incluso las hechas por el mismo fabricante. no fiables. ganó popularidad un método de fabricar muchos transistores en un espacio compacto. Los circuitos integrados MSI y el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos.modernos diseños microelectrónicos. Los CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como dispositivos de pequeña escala de integración "small-scale integration" (SSI). pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos. ampliamente usado aún en los CPU modernos . En el mismo año de 1964. La primera de esas mejoras vino con el advenimiento del transistor. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI. Digital Equipment Corporation (DEC) introdujo otro computador que sería muy influyente. En 1964. Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz. limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos. IBM utilizó el concepto de microprograma. y frágiles. La complejidad del diseño de los CPU se incrementó a medida que varias tecnologías facilitaron la construcción de dispositivos electrónicos más pequeños y confiables. dirigido a los mercados científicos y de investigación. Para facilitar esta mejora. . La arquitectura System/360 era tan popular que dominó el mercado del mainframe durante las siguientes décadas y dejó una herencia que todavía aún perdura en las computadoras modernas. DEC introduciría más adelante la muy popular línea del PDP-11. Durante este período. como los tubos de vacío y los relés eléctricos. solamente circuitos digitales muy básicos. no especializados. (ver más abajo para una exposición sobre la frecuencia de reloj). que fue usada en una serie de computadores que podían ejecutar los mismos programas con velocidades y desempeños diferentes. el PDP-8. El circuito integrado (IC) permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en semiconductor o "chip". en los IC fue colocado un número creciente de transistores. Con esta mejora.

y eventualmente produjeron microprocesadores con conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares. Estos primeros diseños experimentales dieron lugar más adelante a la era de las supercomputadoras especializadas. Gracias tanto a esta creciente fiabilidad como al dramático incremento de velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores. Adicionalmente. la complejidad. y del primer microprocesador ampliamente usado. como ha aumentado la capacidad de construir transistores excesivamente pequeños en un IC. en los pasados sesenta años han cambiado drásticamente. en 1970. Esta tendencia ampliamente observada es descrita por la ley de Moore. como los hechos por Cray Inc. la complejidad y el número de transistores en un simple CPU también se ha incrementado dramáticamente. Aparte de facilitar una creciente fiabilidad y un menor consumo de energía. en 1974. esta clase de CPUs ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de Proceso. . Además. Microprocesadores Desde la introducción del primer microprocesador. el Intel 8080. se fueron alcanzando frecuencias de reloj del CPU de decenas de megahertz. el tamaño. Las generaciones previas de CPUs fueron implementadas como componentes discretos y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo computadora personal. como resultado de estar implementado en una simple pastilla. Por otro lado. mientras que los CPU de transistores discretos y circuitos integrados se usaban comúnmente. y la forma general del CPU. los microprocesadores son CPUs fabricados con un número muy pequeño de IC. El tamaño más pequeño del CPU. es notable que el diseño y el funcionamiento básico no ha cambiado demasiado. el término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores. que ha demostrado hasta la fecha. la construcción. comenzaron a aparecer los nuevos diseños de alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). significa tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la capacitancia parásita de las puertas.Los computadores basados en transistores tenían varias ventajas frente a sus predecesores. el Intel 4004. Casi todos los CPU comunes de hoy se pueden describir con precisión como máquinas de programa almacenado de von Neumann. ser una predicción bastante exacta del crecimiento de la complejidad de los CPUs y otros IC. Los fabricantes de mainframes y minicomputadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar sus más viejas arquitecturas de computador. Mientras que. usualmente solo uno. Esto ha permitido que los microprocesadores síncronos tengan tiempos de reloj con un rango de decenas de megahercios a varios gigahercios. los transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé.

decodificar. puede ser un registro o una dirección de memoria. implica el recuperar una instrucción. La instrucción que el CPU lee desde la memoria es usada para determinar qué deberá hacer el CPU. La miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos que se vuelven mucho más significativos. de la memoria de programa. decode. Sin embargo. se han presentado preocupaciones sobre los límites de la tecnología de transistor del circuito integrado. . y el subumbral de pérdida. La localización en la memoria del programa es determinada por un contador de programa (PC). o como un lugar para localizar un valor. Las partes restantes del número usualmente proporcionan información requerida para esa instrucción. así como ampliar el uso de paralelismo. es frecuentemente usado un microprograma para ayudar a traducir instrucciones en varias señales de configuración para el CPU. y escribir). y otros métodos que extienden la utilidad del modelo clásico de von Neumann.A medida que la ya mencionada ley del Moore continúa manteniéndose verdadera. el contador de programa indica al CPU. ejecutar.2 Frecuentemente la instrucción a ser leída debe ser recuperada de memoria relativamente lenta. un grupo de números en la instrucción. (que es representada por un número o una secuencia de números). haciendo detener al CPU mientras espera que la instrucción sea retornada. Operación del CPU La operación fundamental de la mayoría de los CPU. que almacena un número que identifica la posición actual en el programa. Este problema es tratado en procesadores modernos en gran parte por los cachés y las arquitecturas pipeline (ver abajo).3 A menudo. y writeback. como por ejemplo. La manera en que el valor de la instrucción numérica es interpretado está definida por la arquitectura del conjunto de instrucciones (el ISA) del CPU. que según lo determinado por algún modo de dirección. Después de que se lee una instrucción. Este microprograma es a veces reescribible de tal manera que puede ser modificado para cambiar la manera en que el CPU decodifica instrucciones incluso después de que haya sido fabricado. operandos para una operación de adición. es ejecutar una secuencia de instrucciones almacenadas llamadas "programa". En el paso de decodificación. llamados opcode. En otras palabras. indica qué operación realizar. Estas más nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar nuevos métodos de computación como la computadora cuántica. Hay cuatro pasos que casi todos los CPU de arquitectura de von Neumann usan en su operación: fetch. En diseños más viejos las unidades del CPU responsables de decodificar la instrucción eran dispositivos de hardware fijos. execute. Tales operandos se pueden dar como un valor constante (llamado valor inmediato). el Contador de Programa es incrementado por la longitud de la palabra de instrucción en términos de unidades de memoria. en CPUs e ISAs más abstractos y complicados. El primer paso. como la electromigración. el lugar de la instrucción en el programa actual. leer (fetch). (leer. El programa es representado por una serie de números que se mantentienen en una cierta clase de memoria de computador. la instrucción es dividida en partes que tienen significado para otras unidades del CPU.

Las entradas proporcionan los números a ser sumados. Por ejemplo. y la ejecución del programa continúa normalmente. múltiples instrucciones pueden ser leídas. la escritura (writeback). Entonces. una unidad aritmético lógica (ALU) será conectada a un conjunto de entradas y un conjunto de salidas. como adición y operaciones de bits (bitwise). Si la operación de adición produce un resultado demasiado grande para poder ser manejado por el CPU. puesto que a menudo indican el resultado de varias operaciones. en el registro de banderas. Si la instrucción completada era un salto. En CPUs más complejos que el descrito aquí. Esta sección describe lo que es referido generalmente como el "entubado RISC clásico" (Classic RISC pipeline).4 Muchas instrucciones también cambiarán el estado de dígitos en un registro de "banderas". simplemente "escribe" los resultados del paso de ejecución a una cierta forma de memoria. la ejecución condicional de programas (con el uso de saltos condicionales). un modelo eléctrico del sistema de numeración decimal común (base diez). a menudo llamados microcontroladores. los resultados son escritos a algún registro interno del CPU para acceso rápido por subsecuentes instrucciones. Estas banderas pueden ser usadas para influenciar cómo se comporta un programa. para representar números internamente. y ejecutadas simultáneamente. Algunos tipos de instrucciones manipulan el contador de programa en lugar de directamente producir datos de resultado. El paso final. que de hecho es bastante común entre los CPU simples usados en muchos dispositivos electrónicos.Después de los pasos de lectura y decodificación. Durante este paso. Muy a menudo. varias unidades del CPU son conectadas de tal manera que ellas pueden realizar la operación deseada. de acuerdo a cuál es el mayor. Después de la ejecución de la instrucción y la escritura de los datos resultantes. el contador de programa será modificado para contener la dirección de la instrucción a la cual se saltó. Éstas son llamadas generalmente "saltos" (jumps) y facilitan comportamientos como |bucles (loops). una operación de adición fue solicitada. el proceso entero se repite con el siguiente ciclo de instrucción. Algunas de las primeras calculadoras digitales usaron. esta bandera puede ser usada por una posterior instrucción de salto para determinar el flujo de programa. por ejemplo. La ALU contiene la circuitería para realizar operaciones simples de aritmética y lógica en las entradas. normalmente leyendo la siguiente instrucción en secuencia debido al valor incrementado en el contador de programa. y las salidas contendrán la suma final. Si. decodificadas.5 Diseño e implementación Rango de enteros La manera en que un CPU representa los números es una opción de diseño que afecta las más básicas formas en que el dispositivo funciona. Algunas otras computadoras han usado sistemas de numeración más . En otros casos los resultados pueden ser escritos a una memoria principal más lenta pero más barata y más grande. también puede ser ajustada una bandera (flag) de desbordamiento aritmético localizada en un registro de banderas (ver abajo la sección sobre rango de números enteros). y funciones en programas. un tipo de instrucción de "comparación" considera dos valores y fija un número. es llevado a cabo el paso de la ejecución de la instrucción.

64. en aplicaciones del extremo alto. en donde cada dígito es representado por una cierta cantidad física de dos valores. más complejidad. un CPU de 8 bits maneja un rango de números que pueden ser representados por ocho dígitos binarios. Sin embargo. especialmente cuando el procesador está diseñado para usos de propósito general donde se requiere un razonable equilibrio entre la capacidad de números enteros y de coma flotante. y por lo tanto disipan menos calor. Por ello.7 El rango del número entero también puede afectar el número de posiciones en memoria que el CPU puede direccionar (localizar). ver microcontroladores de 4 y 8 bits usados en aplicaciones modernas. y cada dirección de memoria representa a un octeto (8 bits). muchas CPUs están diseñadas con anchos de bit diferentes para diferentes unidades del dispositivo. y en combinación los 8 bits teniendo 28 ó 256 números discretos. Para ganar algunas de las ventajas proporcionadas por las longitudes de bits tanto más bajas. y generalmente costo. tamaño. la cantidad máxima de memoria que el CPU puede direccionar es 232 octetos. Por ejemplo. como más altas. un bit se refiere a una posición significativa en los números con que trabaja un CPU. como un voltaje "alto" o "bajo". no es del todo infrecuente. Este número difiere entre las arquitecturas. los beneficios producidos por el rango adicional. a menudo se llama "tamaño de la palabra". Casi todos los CPU modernos representan los números en forma binaria. aun cuando están disponibles CPU con un rango mucho más alto (de 16. "ancho de bits". Por ejemplo. el tamaño del número entero fija un límite de hardware en el rango de números enteros que el software corre y que el CPU puede usar directamente. usan menos energía. el IBM Sistem/370 usó un CPU que fue sobre todo de 32 bits. En el caso de un CPU binario. .6 Con la representación numérica están relacionados el tamaño y la precisión de los números que un CPU puede representar. Todo esto pueden ser consideraciones de diseño importantes para los dispositivos electrónicos.exóticos como el ternario (base tres). y a menudo dentro de diferentes unidades del mismo CPU. y muchos diseños modernos usan métodos de dirección mucho más complejos como paginación para localizar más memoria que su rango entero permitiría con un espacio de dirección plano. y por lo tanto. o 4 GB. "ancho de ruta de datos". Por ejemplo. pero usó precisión de 128 bits dentro de sus unidades de coma flotante para facilitar mayor exactitud y rango de números de coma flotante . uso de energía. si un CPU binario utiliza 32 bits para representar una dirección de memoria. son más significativos y con frecuencia afectan las opciones del diseño. En efecto. Los microcontroladores más simples son generalmente más baratos. e incluso 128 bits). Muchos diseños posteriores de CPU usan una mezcla de ancho de bits similar. o "precisión del número entero" cuando se ocupa estrictamente de números enteros (en oposición a números de coma flotante). cada dígito teniendo dos valores posibles. El número de bits (o de posiciones numéricas. 32. Ésta es una vista muy simple del espacio de dirección del CPU. o dígitos) que un CPU usa para representar los números. Niveles más altos del rango de números enteros requieren más estructuras para manejar los dígitos adicionales. (más a menudo el espacio de dirección adicional).

9 Otro método de tratar algunos de los problemas de una señal global de reloj es la completa remoción de la misma. conocida como señal de reloj. así lo hace también la disipación de calor. causando que el CPU requiera soluciones de enfriamiento más efectivas. y de hecho. Un método de tratar la conmutación de componentes innecesarios se llama el clock gating. efectivamente desactivándolos. provocando la conmutación de muchos componentes (cambio de estado) sin importar si están siendo usados en ese momento. en el peor de los casos. Esta limitación ha sido compensada en gran parte por varios métodos de aumentar el paralelismo del CPU (ver abajo). en comparación con diseños síncronos similares. Por lo tanto. En general. los diseñadores pueden seleccionar un período apropiado para la señal del reloj. . CPUs completas se han construido sin utilizar una señal global de reloj. Sin embargo. Este período debe ser más largo que la cantidad de tiempo que toma a una señal moverse. usa más energía que un elemento en un estado estático. Sin embargo. o propagarse. Esto tiene la ventaja de simplificar el CPU significativamente. Aunque algo infrecuente.8 Es decir. La señal del reloj cambia constantemente. las solamente mejoras arquitectónicas no solucionan todas las desventajas de CPUs globalmente síncronas. Esta señal. y el MiniMIPS. que implementa la arquitectura del ARM. Al fijar el período del reloj a un valor bastante mayor sobre el retardo de la propagación del peor caso. Esto ha conducido que muchos CPU modernos requieran que se les proporcione múltiples señales de reloj idénticas. la mayoría de los dispositivos de lógica secuencial. que implica apagar la señal del reloj a los componentes innecesarios. es posible diseñar todo el CPU y la manera que mueve los datos alrededor de los "bordes" de la subida y bajada de la señal del reloj.Frecuencia de reloj La mayoría de los CPU. Otro importante problema cuando la velocidad del reloj aumenta dramáticamente. Calculando el tiempo máximo en que las señales eléctricas pueden moverse en las varias bifurcaciones de los muchos circuitos de un CPU. a medida que la velocidad del reloj aumenta. de muchas maneras. esto es frecuentemente considerado como difícil de implementar y por lo tanto no ve uso común afuera de diseños de muy baja potencia. los diseños asincrónicos (o sin reloj) tienen marcadas ventajas en el consumo de energía y la disipación de calor. son de naturaleza síncrona. están diseñados y operan en función de una señal de sincronización. es la cantidad de calor que es disipado por el CPU. usualmente toma la forma de una onda cuadrada periódica. un componente que está cambiando de estado. Por ejemplo. una señal de reloj está sujeta a los retardos de cualquier otra señal eléctrica. tanto en una perspectiva de diseño. Velocidades de reloj más altas en CPUs cada vez más complejas hacen más difícil de mantener la señal del reloj en fase (sincronizada) a través de toda la unidad. Dos notables ejemplos de esto son el AMULET. aun cuando algunas unidades de la misma son mucho más rápidas. como en una perspectiva de cantidad de componentes. para evitar retardar una sola señal lo suficiente significativamente como para hacer al CPU funcionar incorrectamente. esto también tiene la desventaja que todo el CPU debe esperar por sus elementos más lentos. considerablemente más complejo el proceso del diseño. Mientras que quitar la señal global del reloj hace. Sin embargo.

el CPU subescalar queda "paralizado" en instrucciones que toman más de un ciclo de reloj para completar su ejecución. Puesto que solamente una instrucción es ejecutada a la vez. solo puede. aumentar la utilización de los recursos de ejecución en la pastilla El paralelismo a nivel de hilo de ejecución. en inglés thread level parallelism (TLP). En lugar de un camino quedando congelado. como en la efectividad relativa que producen en el aumento del desempeño del CPU para una aplicación. Este proceso da lugar a una ineficacia inherente en CPUs subescalares. Paralelismo La descripción de la operación básica de un CPU ofrecida en la sección anterior describe la forma más simple que puede tomar un CPU. ahora dos caminos se paralizan y aumenta el número de transistores no usados. En lugar de remover totalmente la señal del reloj. es decir. Esto. . algunos diseños de CPU permiten a ciertas unidades del dispositivo ser asincrónicas. es evidente que por lo menos sobresalen en las más simples operaciones matemáticas.compatible con el MIPS R3000. Como resultado. posiblemente. Este diseño. • Cada metodología se diferencia tanto en las maneras en las que están implementadas. busca aumentar la tasa en la cual las instrucciones son ejecutadas dentro de un CPU. los hace muy adecuados para sistemas embebidos . usar ALUs asincrónicas en conjunción con pipelining superescalar para alcanzar algunas ganancias en el desempeño aritmético. como por ejemplo. alcanzar el desempeño escalar (una instrucción por ciclo de reloj). en inglés Instruction Level Parallelism (ILP). generalmente son usados dos términos para clasificar estas técnicas de diseño. Sin embargo. que se propone incrementar el número de hilos (efectivamente programas individuales) que un CPU pueda ejecutar simultáneamente. Mientras que no está completamente claro si los diseños totalmente asincrónicos pueden desempeñarse a un nivel comparable o mejor que sus contrapartes síncronas. opera sobre y ejecuta una sola instrucción con una o dos piezas de datos a la vez. en donde los recursos de ejecución del CPU pueden operar con solamente una instrucción a la vez. Las tentativas de alcanzar un desempeño escalar y mejor. • El paralelismo a nivel de instrucción. han resultado en una variedad de metodologías de diseño que hacen comportarse al CPU menos linealmente y más en paralelo. todo el CPU debe esperar que esa instrucción se complete antes de proceder a la siguiente instrucción. combinado con sus excelentes características de consumo de energía y disipación de calor. usualmente referido como subescalar. Este tipo de CPU. Incluso la adición de una segunda unidad de ejecución (ver abajo) no mejora mucho el desempeño. el desempeño casi siempre es subescalar (menos de una instrucción por ciclo). Cuando se refiere al paralelismo en los CPU.

. el CPU puede minimizar el número de tiempos que toda la tubería debe esperar hasta que sea completada una instrucción condicional. debe ser tomado un cuidado adicional para comprobar estas clases de condiciones. Diseños que se dice que son superescalares incluyen una larga tubería de instrucción y múltiples unidades de ejecución idénticas. Un procesador entubado puede llegar a ser casi completamente escalar. son despachadas a las unidades de ejecución disponibles. cruciales para mantener altos niveles de desempeño. Esto requiere que la tubería de instrucción sea llenada tan a menudo como sea posible y se incrementa la necesidad. en la cual una instrucción es hecha más completa en cada etapa hasta que sale de la tubería de ejecución y es retirada. una condición llamada a menudo como conflicto de dependencia de datos. • La predicción de bifurcación procura predecir qué rama (o trayectoria) tomará una instrucción condicional. Esta separación puede ser comparada a una línea de ensamblaje. Sin embargo. Ésta es la forma más simple de una técnica conocida como instruction pipelining (entubado de instrucción). Esto también crea técnicas para evitar peligros como la predicción de bifurcación. En general. cuanto más instrucciones un CPU superescalar es capaz de despachar simultáneamente a las unidades de ejecución en espera.ILP: Entubado de instrucción y arquitectura superescalar Uno de los más simples métodos usados para lograr incrementar el paralelismo es comenzar los primeros pasos de leer y decodificar la instrucción antes de que la instrucción anterior haya terminado de ejecutarse. En una tubería superescalar. Naturalmente. solamente inhibido por las abruptas paradas de la tubería (una instrucción durando más de un ciclo de reloj en una etapa). en las arquitecturas superescalares. Para hacer frente a esto. la tubería permite que más de una instrucción sea ejecutada en cualquier tiempo. múltiples instrucciones son leídas y pasadas a un despachador. de cantidades significativas de caché de CPU. y es utilizada en casi todos los CPU de propósito general modernos. ejecución especulativa. La mayor parte de la dificultad en el diseño de una arquitectura superescalar de CPU descansa en crear un despachador eficaz. pero no mucho. De ser así. dando por resultado la capacidad para que varias instrucciones sean ejecutadas simultáneamente. se debe retrasar una porción de la tubería de instrucción. que decide si las instrucciones se pueden o no ejecutar en paralelo (simultáneamente). y la ejecución fuera de orden. tan bien como despacharlas de una manera que mantenga ocupadas tantas unidades de ejecución como sea posible. lograr esto requiere circuitería adicional. El despachador necesita poder determinar rápida y correctamente si las instrucciones pueden ejecutarse en paralelo. los procesadores entubados son más complejos que los subescalares. y si esto ocurre. la tubería introduce la posibilidad de una situación donde es necesario terminar el resultado de la operación anterior para completar la operación siguiente. Una mejora adicional sobre la idea del entubado de instrucción (instruction pipelining) condujo al desarrollo de un método que disminuye incluso más el tiempo ocioso de los componentes del CPU. más instrucciones serán completadas en un ciclo dado. Al dividir la ruta de ejecución en etapas discretas.

y por lo tanto produjo un significativo aumento en el desempeño de este tipo de instrucciones. Muchos de los diseños en los que Seymour Cray fue pionero durante el final de los años 1970 y los años1980 se concentraron en el TLP como su método primario de facilitar enormes capacidades de computación (para su tiempo). En general. TLP: ejecución simultánea de hilos Otra estrategia comúnmente usada para aumentar el paralelismo de los CPU es incluir la habilidad de correr múltiples hilos (programas) al mismo tiempo.• • La ejecución especulativa frecuentemente proporciona aumentos modestos del desempeño al ejecutar las porciones de código que pueden o no ser necesarias después de que una operación condicional termine. En el caso donde una porción del CPU es superescalar y una parte no lo es. reduciendo la cantidad de trabajo que el CPU debe realizar para darle un empuje significativo al ILP y por lo tanto reducir la complejidad del diseño. todas estas técnicas logran la misma meta: incrementar el número de hilos que el CPU(s) puede correr en paralelo. en inglés simultaneous multithreading (SMT).12 Aunque son usados medios muy diferentes. CPUs con alto TLP han estado en uso por mucho más tiempo que los de alto ILP. En los últimos años algo del énfasis en el diseño de computadores de alto ILP se ha movido del hardware del CPU hacia su interface de software. casi todos los diseños de CPU de propósito general son superescalares. estuvo en uso tan temprano como desde los años 1950 . una instrucción por ciclo de reloj. El entubado simple y el diseño superescalar aumentan el ILP de un CPU al permitir a un solo procesador completar la ejecución de instrucciones en ratios que sobrepasan una instrucción por ciclo (IPC). cada una. El sucesor a la arquitectura del Pentium de Intel. .11 La mayoría de los modernos diseños de CPU son por lo menos algo superescalares. La estrategia de la muy larga palabra de instrucción. en la forma de mejoras en múltiples hilos de ejecución. en inglés chip-level multiprocessing (CMP). el TLP. pero su FPU no podía aceptar una instrucción por ciclo de reloj. De hecho. la parte que no es superescalar sufre en el desempeño debido a las paradas de horario. causa a algún ILP a ser implícito directamente por el software. En un alto nivel. La ejecución fuera de orden cambia en algún grado el orden en el cual son ejecutadas las instrucciones para reducir retardos debido a las dependencias de los datos. o ISA. En el contexto de diseño de procesadores individuales. y el multihilado simultáneo. las dos metodologías principales usadas para lograr el TLP son. el P6. agregó capacidades superescalares a sus funciones de coma flotante. Así el P5 era superescalar en la parte de números enteros pero no era superescalar de números de coma (o punto [decimal]) flotante. very long instruction word (VLIW). multiprocesamiento a nivel de chip. y en la última década. es muy común construir computadores con múltiples CPU totalmente independientes en arreglos como multiprocesamiento simétrico (symmetric multiprocessing (SMP)) y acceso de memoria no uniforme (Non-Uniform Memory Access (NUMA)). El Intel Pentium original (P5) tenía dos ALUs superescalares que podían aceptar.

y ejecutar cada instrucción y valor en un conjunto de datos. pero ejecuta simultáneamente instrucciones de múltiples hilos en lugar de ejecutar concurrentemente múltiples instrucciones del mismo hilo. decodificar. el SMP incluye múltiples paquetes independientes. Por lo tanto. permitiendo con éxito que en un computador sean usados muchos más CPU que los que pueda soportar de una manera factible el SMP. Mientras que un CPU escalar debe completar todo el proceso de leer. vídeo. resultando en un significativo retraso debido a los CPU esperando por la memoria. Estos dos esquemas de ocuparse de los datos son generalmente referidos respectivamente como SISD (Single Instruction. Algunos ejemplos clásicos de este tipo de tareas son las aplicaciones multimedia (imágenes. Multiple Data) (Simple Instrucción. es agotado rápidamente con el modelo de memoria compartido del SMP. Esto permite a un CPU SMT mantener sus unidades de ejecución ocupadas más frecuentemente al proporcionarles las instrucciones desde dos diferentes hilos de software. múltiples "núcleos" de procesador son incluidos en el mismo paquete. de cada procesador. y de hecho es frecuentemente usado en microprocesadores superescalares. Esto es importante para los computadores con muchos CPU porque el tiempo de acceso a la memoria. que tratan una pieza de dato por cada instrucción. de computación en general) trata con vectores. los diseños SMT solamente duplican las piezas necesarias para lectura. una suma. Por supuesto. El SMT se diferencia en algo de otras mejoras de TLP en que el primero procura duplicar tan pocas porciones del CPU como sea posible. Simple Dato) y SIMD (Single Instruction. esto contrasta con los procesadores escalares. esto es solamente posible cuando la aplicación tiende a requerir muchos pasos que apliquen una operación a un conjunto grande de datos. a ser realizado en un gran conjunto de datos. Múltiples Datos). por ejemplo. así como muchos tipos de tareas científicas y de ingeniería. . Una vez más esto es muy similar al método superescalar del ILP. o un producto escalar. decodificación. La gran utilidad en crear CPUs que se ocupen de vectores de datos radica en la optimización de tareas que tienden a requerir la misma operación. los procesadores vectoriales se ocupan de múltiples piezas de datos en el contexto de una instrucción. y sonido). En lugar de duplicar todo el CPU. un CPU vectorial puede realizar una simple operación en un comparativamente grande conjunto de datos con una sola instrucción. Single Data|) (Simple Instrucción. su implementación realmente se asemeja más a un diseño superescalar. Los procesadores de los que se ha hablado anteriormente son todos referidos como cierto tipo de dispositivo escalar.Los métodos de paralelismo CMP y de SMP son similares uno del otro y lo más directo. así como cosas como los registros de propósito general.13 Por otra parte. Procesadores vectoriales y el SIMD Un menos común pero cada vez más importante paradigma de CPU (y de hecho. a veces en el mismo circuito integrado. Éstos implican algo más conceptual que la utilización de dos o más CPU completos y CPU independientes. como el POWER5 de IBM. En el caso del CMP.14 Como implica su nombre. y despacho de instrucciones. NUMA es algo similar al SMP pero usa un modelo de acceso a memoria no uniforme. Mientras es considerada una estrategia TLP. NUMA es considerado un modelo mucho más escalable.

2 Controlador de Bus El Bus es la vía a través de la que se van a transmitir y recibir todas las comunicaciones. mayor será la cantidad de direcciones y. como el Cray-1. a medida que la multimedia se desplazó en gran parte a medios digitales. sólo permanecen en el bus el tiempo que necesitan en recorrer la distancia entre los dos componentes implicados en la transferencia. fueron asociados casi exclusivamente con aplicaciones de investigación científica y criptografía. almacenada en la memoria hasta ese momento. Sin embargo. modernas especificaciones SIMD. El bus es solamente un Dispositivo de Transferencia de Información entre los componentes conectados a él. ya que muchas de las aplicaciones que se beneficiaban del SIMD trataban sobre todo con números de coma flotante. del sistema informático. también comenzaron a aparecer especificaciones e implementaciones de unidades de ejecución SIMD para los CPU de uso general. fueron solamente para números enteros. pasará a la CPU a través del bus de datos. Los datos. tanto internas como externas. Esto demostró ser un impedimento significativo para algunos desarrolladores de software. Algunas de estas primeras especificaciones SIMD. En una unidad central de Bus de sistema típica el bus se subdivide en tres buses o grupos de líneas: • • • Bus de Control. hay que tener en cuenta el número de líneas que integran el bus de direcciones. de memoria a manejar por el sistema informático. en forma de señal eléctrica. 3. como el MMX de Intel. Una vez direccionada la posición. Para determinar la cantidad de memoria directamente accesible por la CPU. ya que cuanto mayor sea el número de líneas. éstos primeros diseños fueron refinados y rehechos en alguna de las comunes. por tanto. no almacena información alguna en ningún momento. Algunos ejemplos modernos notables son el SSE de Intel y el AltiVec relacionado con el PowerPC (también conocido como VMX). Progresivamente. ha llegado a ser significativa la necesidad de una cierta forma de SIMD en CPUs de propósito general. Poco después de que comenzara a ser común incluir unidades de coma flotante en procesadores de uso general. . Bus de Direcciones Es un canal de comunicaciones constituido por líneas que apuntan a la dirección de memoria que ocupa o va a ocupar la información a tratar. Bus de Datos. la información. que generalmente están asociadas a un ISA.La mayoría de los primeros CPU vectoriales. Direcciones.1.

La salida de estos dispositivos son una entrada para la . o las señales (información) enviadas a través de esas interfaces. entre el sistema informático y los diferentes subsistemas periféricos que se encuentran en el exterior. mientras que los monitores e impresoras son vistos como dispositivos de salida de una computadora. Los dispositivos de E/S los usa una persona u otro sistema para comunicarse con una computadora. y entre otros se encuentran los módems y tarjetas de red.1. El término puede ser usado para describir una acción. mientras que las salidas son las señales enviadas por ésta. cambia al cambiar la perspectiva desde el que se lo ve. Es importante notar que la designación de un dispositivo. 32. una de las características principales de una computadora es el número de bits que puede transferir el bus de datos (16. a los teclados y ratones se los considera dispositivos de entrada de una computadora. también abreviado E/S o I/O (del original en inglés input/output). etc. Los dispositivos típicos para la comunicación entre computadoras realizan las dos operaciones. 3. como externamente. Los teclados y ratones toman como entrada el movimiento físico que el usuario produce como salida y lo convierten a una señal eléctrica que la computadora pueda entender. De hecho. Las entradas son las señales recibidas por la unidad. Bus de Control Es un número variable de líneas a través de las que se controlan las unidades complementarías. tanto entrada como salida. mayor será la cantidad de información que se puede manejar al mismo tiempo. sea de entrada o de salida.Bus de Datos El bus de datos es el medio por el que se transmite la instrucción o dato apuntado por el bus de direcciones. El número de líneas de control dependerá directamente de la cantidad que pueda soportar el tipo de CPU utilizada y de su capacidad de direccionamiento de información. es la colección de interfaces que usan las distintas unidades funcionales (subsistemas) de un sistema de procesamiento de información para comunicarse unas con otras.3 Puertos de E/S En computación. entrada/salida. "realizar una entrada/salida" se refiere a ejecutar una operación de entrada o de salida.). Es usado para realizar el intercambio de instrucciones y datos tanto internamente. 64. Cuanto mayor sea este número. entre los diferentes componentes del sistema informático.

que permite que los programas describan su E/S y que las acciones se lleven a cabo fuera del programa. De manera análoga. a la combinación de una unidad central de procesamiento (CPU) y memoria principal (aquélla que la CPU puede escribir o leer directamente mediante instrucciones individuales) se la considera el corazón de la computadora y cualquier movimiento de información desde o hacia ese conjunto se lo considera entrada/salida. El lenguaje de programación C define funciones que les permiten a sus programas realizar E/S a través de streams. que funciona como entrada. Luego. pues las funciones de E/S introducirían un efecto colateral para cualquier lenguaje de programación. La CPU y su circuitería complementaria proveen métodos de entrada/salida que se usan en programación de bajo nivel para la implementación de controladores de dispositivos. Esto resulta interesante. En arquitectura de computadoras. convierten esas señales en representaciones inteligibles que puedan ser interpretadas por el usuario. por ejemplo. un sistema operativo brinda aplicativos que manejan el concepto de archivos. Por ejemplo. Una alternativa para las funciones primitivas especiales es la mónada de E/S. La interpretación será. es decir. Dispositivos de entrada y salida • Entrada: o Teclado o Ratón o Joystick o Lápiz óptico o Micrófono o Webcam o Escáner o Escáner de código de barras Salida: o Monitor o Altavoz o Auriculares o Impresora o Plotter o Proyector Entrada/salida: o Unidades de almacenamiento • • . los monitores e impresoras toman como entrada las señales que la computadora produce como salida.computadora. les permiten leer datos desde y escribir datos hacia sus programas. por medio de la vista. pero ahora una programación puramente funcional resultaría práctica. Los sistemas operativos y lenguajes de programación de más alto nivel brindan conceptos y primitivas de entrada/salida distintos y más abstractos.

y están distribuidas de la manera siguiente: El los dos primeros bytes corresponden al valor que irá al registro IP. La distribución de las interrupciones en el PC/XT es: . Esto significa que el usuario puede crear su propio servicio de interrupción y accederlo a través de la manipulación de estos bytes. que indica el segmento donde está el servicio de interrupción. el número de interrupción que se ha activado. posee varios modos de configuración. los siguientes cuatro corresponden a la interrupción 1. y los dos siguientes. Como el microprocesador sólo posee dos entradas de interrupción. el 8259 verifica que no haya otra interrupción pendiente. envía una señal a través del pin INTR hacia el pin INTR del CPU. y si no la hay. El 8259. que indica el desplazamiento. de tal manera que el CPU ya sabe qué servicio de interrupción va a usar. indicando al 8259 que está listo para procesar otras interrupciones.1. y puede controlar muchas más. corresponden al registro CS. fallos de circuiteria y el procesador matemático. En el PC/XT original es posible un total de 256 interrupciones. Una vez que el CPU termina. Una vez que recibió el CPU este valor. es necesario algún integrado que no permita ello. Estos dos pares de bytes se inician en la posición de memoria 0000h y corresponden a la interrupción 0. envía a través del bus de datos. de las cuales 8 son por hardware y las demás por software. el pin INTA se desactiva. El 8259 cumple este propósito. y así sucesivamente hasta las 256 interrupciones (total 1024 bytes). adicionalmente. Las rutinas de los servicios de interrupción están vectorizadas en las primeras posiciones de memoria. activa su pin INTA. indicando que ya recibió y está ejecutando el servicio. va directamente a CPU y es la encargada de indicar errores de paridad en la memoria.o o o o o o o o CD DVD Módem Fax Memory cards USB Router Pantalla táctil 3. El funcionamiento del 8259 es muy sencillo: Supongamos que no queda ninguna interrupción pendiente y el CPU está trabajando en el “Programa principal”.4 Controlador de instrucciones Este circuito integrado controla las interrupciones del sistema. dependiendo de la manera cómo se desea que se traten a las interrupciones Hay que tener en cuenta que la interrupción no enmascarable NMI. Al activarse una línea de interrupción.

El la ICW4. se configura el modo del 8259 (es decir para que trabaje junto con otro más y ampliar las interrupciones). interrupciones anidadas y el tipo de procesador al que se conecta) .IRQ FUNCION IRQ0 Reloj en tiempo real IRQ1 Teclado IRQ2 PC-Net IRQ3 Puerto serie secundario IRQ4 Puerto serie primario IRQ5 Disco duro IRQ6 Diskette IRQ7 Impresora El 8259 posee cuatro palabras de control que se encargan de configurar al integrado para que funcione correctamente. En la segunda palabra de estado (ICW2). Aquí se configura el modo maestro/esclavo. En la primera palabra de estado (ICW1). La tercera palabra funciona cuando el 8259 trabaja en modo múltiple con otros más. el modo de disparo de las interrupciones (Nivel o flanco descendente) y parte de los vectores de interrupción. se configuran los vectores de interrupción. se configura el modo de manejo de las interrupciones (modo buffered.

el resultado no fue disponer de 8 canales. Tal operación no ocupa el procesador y como resultado puede ser planificado para efectuar otras tareas. En lugar de que la CPU inicie la transferencia. incluyendo controladores de unidades de disco. Un ejemplo típico es mover un bloque de memoria desde una memoria externa a una interna más rápida. El acceso directo a memoria permite a cierto tipo de componentes de ordenador acceder a la memoria del sistema para leer o escribir independientemente de la CPU principal. Posteriormente en los AT se instalaron dos de estos integrados y las correspondientes líneas auxiliares en el bus de control.Hay que tener en cuenta que el pin INTR del CPU se puede configurar para que no reciba interrupciones (en ensamblador CLI). 3. Cada canal tiene asignada una prioridad para el caso de recibirse simultáneamente varias peticiones (los números más bajos tienen prioridad más alta). pero hay algunos cuya asignación es estándar. el DMAC (“DMA Controller”). Pueden ser utilizados por cualquier dispositivo que los necesite (suponiendo naturalmente que esté diseñado para soportar este modo de operación).5 Controlador de DMA El mecanismo de acceso directo a memoria está controlado por un chip específico. por lo que existen diferentes estrategias para regular su uso. Pueden mover 2 Bytes (de posiciones contiguas) cada vez. que permite realizar estos intercambios sin apenas intervención del procesador. permitiendo así que no quede totalmente acaparado por el controlador DMA. ya que permite a dispositivos de diferentes velocidades comunicarse sin someter a la CPU a una carga masiva de interrupciones. Los canales del segundo DMAC está asignado a las direcciones 0C0–0DFh y son de 16 bits. Cabe destacar que aunque no se necesite a la CPU para la transacción de datos. la transferencia se lleva a cabo por el controlador DMA. En los XT estaba integrado en un chip 8237A que proporcionaba 4 canales de 8 bits (puede mover solo 1 Byte cada vez). tarjetas gráficas y tarjetas de sonido. DMA es una característica esencial en todos los ordenadores modernos. El pin NMI no se puede deshabilitar y esta interrupción puede interrumpir a cualquier otra interrupción que se esté ejecutando en ese momento. En contra de lo que podría parecer. .1. sí que se necesita el bus del sistema (tanto bus de datos como bus de direcciones). Las transferencias DMA son esenciales para aumentar el rendimiento de aplicaciones que requieran muchos recursos. Muchos sistemas hardware utilizan DMA. porque el segundo controlador se colgó en “Cascada” de la línea 4 del primero (más adelante se explica este concepto ). Cada sistema los asigna de forma arbitraria. sus direcciones de puerto son 000–00Fh. Una transferencia DMA consiste principalmente en copiar un bloque de memoria de un dispositivo a otro.

Consiste en varias instrucciones de salida para asignar valores iniciales a: . . Imagine una CPU equipada con una memoria caché y una memoria externa que se pueda acceder directamente por los dispositivos que utilizan DMA. Cuando la CPU accede a X lugar en la memoria. Se realiza una transferencia cuando el dispositivo de E/S solicite una operación de DMA a través de la línea de petición del DMAC. . El sistema operativo debe asegurarse de que esa parte de memoria no es accedida por cualquier subproceso que se ejecute en ese instante.Caché Problema de Coherencia La DMA puede llevar a problemas de coherencia de caché. • Los híbridos también existen. donde el sistema operativo debe asegurarse de que las líneas de caché se vacían antes de que una transferencia de salida de DMA sea iniciada y anulada antes de que una parte de la memoria sea afectada por una transferencia entrante de DMA que se haya requierido. se actualizará la copia en caché de X. pero no la versión de memoria externa de X. se decrementa el valor de WC y se incrementa el de AR. si la copia en caché de X no es inválida cuando un dispositivo escribe un nuevo valor en la memoria. Si se realizan operaciones posteriores en X. el valor actual se almacena en la caché. donde en la caché secundaria L2 es coherente.WC: Número N de palabras de datos a transferir. Este último enfoque introduce cierta sobrecarga a la operación de DMA. mientras que en la caché L1 (generalmente la CPU) es gestionado por el software.AR: Direccion de memoria de la región de datos de E/S IOBUF (buffer de entrada/salida). Una vez inicializado. el dispositivo recibirá un valor caducado de X. Después de cada transferencia. ya que la mayoría de hardware requiere un bucle para invalidar cada línea de caché de forma individual. Secuencia de eventos Una operación de E/S por DMA se establece ejecutando una corta rutina de inicialización. Los sistemas no-coherente dejan este software. Este problema puede ser abordado en una de las dos formas en el diseño del sistema: • Los sistemas de caché coherente implementan un método en el hardware externo mediante el cual se escribe una señal en el controlador de caché. la cual realiza una invalidación de la caché para escritura de DMA o caché de descarga para lectura de DMA. Del mismo modo. entonces la CPU funcionará con un valor caducado de X. el DMA procede a transferir datos entre IOBUF y el dispositivo de E/S. Si la caché no se vacía en la memoria antes de que otro dispositivo intente acceder a X.

el procesador pone las líneas del bus del sistema en alta impedancia y activa la cesión de DMA. generando una correspondiente secuencia de señales de control.1. entonces el DMAC (o el periférico) indica la conclusión de la operación enviando al procesador una petición de interrupción. se repite desde el paso 2. Este chip tiene la capacidad de realizar diferentes funciones de conteo. El DMAC asume el control del bus. pues esta tiene un reloj de batería integrado. El dispositivo de E/S transmite una nueva palabra de datos al registro intermedio de datos del DMAC. Secuencia de eventos detallada 1234567891011El procesador inicializa el DMAC programando AR y WC. El temporizador es un circuito que se encuentra en la tarjeta matriz (Mother Borrad) de la PC y que es capaz de mantener una cuenta de tiempo basada en el reloj de la computadora. El DMAC le responde con una señal de aceptación. Al final del ciclo del bus en curso. El dispositivo de E/S realiza una petición de DMA al DMAC. Otras señales generadas por el controlador se conectan a la unidad aritmética lógica y a los registros internos del procesador para regular el flujo de información en el procesador y a. los buses de dirección y de datos del sistema. El DMAC libera el bus y desactiva la línea de petición de DMA. El DMAC decrementa WC e incrementa AR. a este respaldo de batería se le conoce como CMOS (complementary MOS).6 Circuitos de temporización y control El Circuito de temporizador y control: Es una red secuencial que acepta un código que define la operación que se va a ejecutar y luego prosigue a través de una secuencia de estados.<br> 3. y desde.<br> Si WC = 0. El DMAC compara WC con 0: Si WC > 0. .La operación termina cuando WC=0. El DMAC activa la línea de petición de DMA al procesador. Estas señales de control incluyen el control de lectura escritura y señales de dirección de memoria válida en el bus de control del sistema. Es útil para medir el tiempo que dura cierto proceso o para mantener actualizadas la hora del día y la fecha si se deja la PC conectada y encendida (en el caso de computadoras anteriores a la AT. el DMAC se detiene y envía una petición de interrupción al procesador. El DMAC ejecuta un ciclo de escritura en memoria para transferir el contenido del registro intermedio a la posición M[AR]. Puede usarse para calcular el intervalo entre dos mediciones de tiempo o para generar pausas.

cada uno de los cuales es alimentado por una señal que equivale a 1. 1.055 segundos en forma redondeada).1.2 HZ. El contador obtiene una capacidad máxima de conteo que asciende a 65 536.19/65536) aproximadamente. Veamos un ejemplo de la formación de una letra “A”: 1. se encarga de recuperar los datos que ha dejado el controlador e inyectarlos hasta el sistema de escritura del periférico. Los datos de imagen indican si un punto es blanco o negro. Dicha acción genera una interrupción llamada interrupción del contador. la cual interrumpe brevemente la CPU e incrementa la cuenta del día. cualquier acción que interrumpa a la PC ocurrirá 18.19318 MHZ. El contador 2 generalmente se encuentra programado para trabajar con la bocina.2 veces por segundo (cada 55 ms o cada 0.El chip mantiene tres contadores independientes (definidos como 0. en c aso de una impresora de color de que color será ese punto. Básicamente. 2). significa que la hora es exactamente las 24:00 (hora militar) y entonces es inicializado a cero de nuevo. Son los que procesan la información en primer lugar para saber exactamente qué les está llegando y como manipular los datos. Su salida tiene una frecuencia de 18. Por lo tanto. Este otro dispositivo. Cuando el contador del canal cero llega a 0 (los tres contadores del temporizador timer siempre cuentan en forma regresiva).(1. El contador 1 es usado por la PC para realizar el proceso de refrescamiento de memoria (DMA memory Refresh) y no debe ser alterado bajo ninguna circunstancia. un controlador de una impresora recoge los datos que proceden del PC y los convierte en datos de imagen que deberán pasar a lo que llamamos “video interface” de la impresora. Ese dato es el número 41h. según una tabla el controlador interpreta que 41h quiere decir “A”. El controlador recibe un dato del ordenador. Los primeros dos contadores (0 y 1) envían una interrupción a la CPU mientras que el 2 no lo hace. . 3.7 Controladores de video a Los controladores son circuitos de entrada que tienen todas las impresoras.

tras interpretar el dato como una A el controlador busca en sus fuentes la forma de esa letra.2. .

.3. una vez se ha creado toda la imagen de una página esta se le pasa al video interface. Los datos de una página pasados a imagen se llaman datos rasterizados o rípeados. Los datos rasterízados se transmiten a la video interface de línea a línea.

Y no hay razón para este desaire ya que es un dispositivo esencial y frente al que se pasan muchas horas. pero estos son los principales.3.2 Aplicaciones 3. Las características principales que describen un teclado son las siguientes: Sistema de Conexión: Esta puede ser mediante AT (o DIM de 5 pines): un conector redondo del tamaño de un pulgar. con minijoysticR. o USB. . Veamos los más importantes: El TECLADO Es quizás el periférico al cual se presenta menor atención. Esta característica hace al teclado mecánico más robusto y resistente.1 Entrada/Salida. etc. con hot-Reys (teclas de acceso rápido configurables).2. pero también de tacto más duro. no obstante. es un nuevo sistema de conectividad que permite instalar y desinstalar periféricos “en caliente” (sin apagar el ordenador). ¿Mecaníco o membrana?: El teclado mecánico basa el mecanismo de pulsación de las teclas en unos muelles o resortes. Debemos elegir el sistema adecuado para poder conectar el teclado a nuestra placa. Existen en venta. Los de membrana utilizan para este fin un sistema parecido al de los mandos a distancia de la TV. una membrana de plástico realiza el contacto y vuelve a la tecla a su posición inicial. como hemos visto. Es decir. tienen una función determinada: suministrar datos a la CPU. son elecciones disponibles en el mercado las cuales solo hay que valorar si su precio es acorde con nuestras necesidades. ENTRADA Los dispositivos de entrada. PS-2 (o Míni-Dim): parecido al anterior pero más pequeño de diámetro. Siendo esto así. sobre todo si éste está basado en el procesador de textos. adaptadores entre Dim a Mini-Dim y viceversa. Hay otros. Díseño: Los teclados ergonómicos. elegir un teclado de calidad repercutirá también en el rendimiento de nuestro trabajo.

el movimiento se realiza girando una bola o rodillo sobre un eje fijo. Con dos normalmente es suficiente. lo que los hace más precisos. utilizan tecnología óptica. etc. ruedas. al puerto o puertos de una tarjeta de juegos. Tecnología utilizada: Aquí podemos diferenciar: ratones mecánicos. También es frecuente la conexión al puerto serie. los colores y formas originales. son los más comunes. Tecnología: Aquí dependiendo del tipo de JoystíckR que estemos hablando (palanca. . un híbrido. Si esto es útil o un engorro es algo que deberá valorar el usuario. Los basados en tecnología digital son ideales para los que se requieran precisión en sus “batallas” particulares. ópticos. al de la tarjeta de sonido. Número de botones: Dos o tres. El tercero (central) normalmente es configurable y se utiliza en contadas aplicaciones. Aunque la opción del puerto de la tarjeta de sonido es con mucho la más utilizada por ahorro de recursos. Dentro de este periférico podemos diferenciar los TracR-ball: dispositivos de puntero ideales para lo que no disponen de mucho espacio de escritorio. En ellos. Gran cosa para compartir la acción con amigos/as. o eventualmente. A pesar de ello es útil optar por mandos robustos y que ofrezcan buen soporte de software.EL RATON Sistema de conexión: Vale lo dicho para los teclados. la guía del puntero se realiza mediante una bola que se desliza sobre unos ejes. volante. Muchos joysticR permiten de forma sencilla y simplemente mediante el uso de un cable especial (en forma de Y). la utilización de dos dispositivos simultáneos. pero mucho menos utilizadas. etc. al puerto serie o paralelo. JOYSTICK Sistema de conexión: Van conectados al puerto juegos de la placa. optomecánicos. También los hay con botones laterales. joypad. en vez de desplazar el ratón sobre una alfombrilla. Existen otras tecnologías. etc) la tecnología utilizada es variopinta. Díseño: También encontramos los que apuestan por la ergonomía.

al escáner. Los de rodillo o las impresoras convertidas a escáner (mediante la utilización de un cabezal especial) tienen el inconveniente de limitar nuestro trabajo a documentos que puedan pasar por su torno. . Los escáner de mano son muy versátiles pero también poco útiles para trabajos que requieran gran resolución. como la conexión a puerto SCSI o USB. No obstante hay que tener en cuenta que para cualquier usuario normal o semi-profesional. un escáner de gama media-baja es más que suficiente. las cuales no son comparables y deben tenerse en cuenta a la hora de elegir varias ofertas. Ésta se mide en dpi (dot per inchs = puntos por pulgada. Es frecuente encontrar información sobre la resolución real y la resolución por interpolación (mediante software). Sistema de escaneo: Los escáner de sobremesa permiten tratar imágenes provenientes de libros o revistas. También existen otras opciones. Otros tamaños mayores requerirían escáner especiales. Con lo que con el uso de un solo puerto tendremos dos dispositivos. A tener en cuenta: Sistema de Conexión: Lo más extendido es conectarlos al puerto de impresora y ésta a su vez.ESCÁNER Un escáner es un periférico el cual nos permite digitalizar imágenes o texto con el fin de pasar esta información a un fichero. ya que éstos ofrecen resoluciones superiores a las que nuestra memoria RAM puede soportar (Y también nuestro disco duro). normalmente con el fin de modificarlo o almacenarlo en soportes de alta capacidad. Esto afecta a la calidad con la que podremos obtener el documento resultante. también PPP). Capacidad de escáneo: Los escáner de sobremesa y rodillo normales aceptan tamaños de hasta DIN A4 o folio. Resolución: Hay en el mercado gran oferta en capacidad de resolución.

de hueco en la c aja para alojarlo. más efectividad y velocidad en la lectura de datos. así como los DVD. Velocidad: Medida en kilobytes por segundo (Kb/s). un programa o un DVD pueden tener aspectos parecidos pero no contienen lo mismo ni todos los lectores son capaces de reconocerlos . Sistema de conexión: Lo habitual es a puerto IDE (como los discos duros). y cuanta más. Tiempo medio de acceso (TMA): Es el tiempo. Memoria buffer: Indica si la unidad dispone de una cantidad de memoria donde almacena datos que después serán reclamados por el microprocesador. A menor tiempo. Mejor si tiene. tomando eso como referencia podremos averiguar fácilmente qué nos indica las unidades llamadas x2. Efectivamente hay que multiplicar el número entero por 150 y tendremos la velocidad de transferencia máxima de nuestra unidad. x4. x40. La transferencia de un Cd-Rom X1 es 150 Kb/s. Un compacto musical. Compatibilidad de formatos: Pese a lo que pueda parecer a simple vista. menos tardará en leer una cierta cantidad de datos. en el caso de los internos. Prácticamente toda la información electrónica se distribuye ya en Cd-Roms y la caída de precios de las unidades grabadoras de este soporte lo han hecho aún más popular.…. son la única respuesta al aumento de tamaño que en los últimos tiempos han experimentado los programas. mejor. lógicamente. es lo primero que debemos averiguar. el lector de Cd-Roms es un dispositivo imprescindible en cualquier PC. nos indica la velocidad máxima de transferencia de datos. que tarda como media la cabeza lectora en situarse en un punto concreto del disco. medido en milisegundos. en unidades muy rápidas debemos asegurarnos que el nivel de ruido durante el funcionamiento es aceptable. acelerando así su lectura. pero también podemos encontrarlos a puerto SCSI e incluso externos a puerto paralelo. no todos los Cd-Roms están grabados en el mismo formato. Cuanto más rápida. Ver sí disponemos de un puerto libre adecuado y.CD-ROM La unidad de Cd-Rom. Siendo estos así. Eso sí.

El tamaño es importante sobre todo cuando se trabaja con varias aplicaciones a la vez o cuando utilizamos programas que a su vez abren otras muchas ventanas (programas de diseño). puntos por pulgada) que puede trabajar el monitor.y leerlos. o cristal líquido. no así si disponemos de una con más de 2 o 3 años de antigüedad. lo cual como vemos no depende sólo de la tarjeta gráfica. más definición tendrán las imágenes vistas en pantalla. lo normal en portátiles y monitores ultramodernos de pantalla plana. Cualquier unidad moderna podrá leer la mayoría de los formatos. Tamaño: Medido en pulgadas (= 25. junto con el control digital de la imagen. podremos utilizar siempre todo el tamaño de pantalla.28. En la elección debe primar el estudio de nuestras necesidades y también de nuestra economía. lo normal. También si por cualquier otra necesidad necesitamos una pantalla que sirva también para presentaciones o reproducción de vídeo. Lo normal es 0. SALIDA MONITOR Tecnología: Tubo de rayos catódicos. Resolución máxima: Indica a la máxima resolución (en PPP. a partir de ese tamaño los precios se disparan. es decir. A menor tamaño.4 mm) se refiere a la diagonal. la distancia entre una esquina y su opuesta. por parte del tubo. Baja radiación: Como su nombre indica define que existe una baja emisión. Multisync (Multifrecuencia): Sí nuestro ordenador es Multisync podrá adaptarse automáticamente (o manualmente) a diferentes modos de video o resoluciones.25-0. Un monitor de 15 pulgadas es una buena opción para el usuario medio. Cuanta más mejor. Con ello. . medido en mm. Se refiere al diámetro. También debemos prestar atención a otras características relacionadas como sí el tubo es Trinitron (mas caro pero mayor pureza de color). Tamaño del punto: Llamado también dot pich. de los orificios por los cuales pasan los rayos catódicos. de radiaciones electrostáticas y electromagnéticas. Sin ésta característica la única solución será utilizar un buen filtro de pantalla o un parche para cada ojo.

Y sí como su nombre indica. las necesidades propias de cada uno. Hay quien busca resolución fotográfica y quien nunca imprime en color. pantallas planas. Pero también nos podemos encontrar con más de las que creemos de las de tipo aguja. poseen resoluciones casi fotográficas y son mucho más silenciosas que las anteriores. de baja resolución y no muy limpias. Admisión de papel: Debemos fijarnos tanto en el tamaño del papel con el que es capaz de trabajar. Es algo que deberemos valorar. en ocasiones de escándalo. Para eso está la variedad. ¿Ventajas? Puedes encontrar alguna de segunda mano casi gratis. Tecnología: Hoy día lo más extendido son las impresoras de inyección o láser. Algunas necesitan la compra adicional de un cartucho de color que no viene incluido en el precio. A mayor resolución. ¿Color?: No todas las impresoras pueden imprimir a color. También no todas ellas poseen la misma calidad de impresión a color. Sus inconvenientes es que son ruidosas. es la más recomendada para los usuarios que necesiten imprimir gran cantidad de documentos ya que el precio por una impresión de buena calidad es bastante bajo. IMPRESORA Un elemento casi obligatorio si se posee un ordenador es una impresora. Las impresoras de aguja imprimen como una máquina de escribir. el diseño. más calidad podriamos llegar a obtener en nuestras impresiones. funcionan por inyección directa de la tinta al papel (eso sí. etc. Deberán tenerse en cuenta dependiendo de las necesidades. por contacto de unas piezas metálicas (agujas) con una cinta impregnada de tinta y el papel. como si admite modo vertical o apaisado. Las impresoras láser. una carta o una foto molona? Claro que también hay quien imprime una carta al mes y quien imprime 1000 al día. pese a ser la opción más cara en principio. sí se posee alimentador de hojas automático y de qué capacidad. . a una ínfima distancia). y sí admite sobres. etiquetas y papeles especiales. ¿Quién no tiene que imprimir alguna vez un currículo. Es decir.Otros aspectos como los monitores multimedia (con micrófono y altavoces incorporados). Los inconvenientes son sobre todo el alto precio de los cartuchos de tinta. Resolución: Indicada en PPP (puntos por pulgada) o matriz de puntos (punto ancho x puntos largo).

suelen tener un gran gasto en consumibles debido a que como los cartuchos de tinta también son pequeños se gastan rápidamente y por su peculiar formato reducido normalmente valen más que los otros (que de por si ya son caros). Cuando más rápido mejor. Ciertas marcas venden impresoras baratas pero con un gasto en consumibles superior a sus competidores (bien sea porque consumen más o porque el precio es mayor). pero cuentan con la ventaja que les dan los muchos años que llevan como estándar absoluto para almacenamiento portátil. contando siempre con que la prueba se realiza con un DIN A4 completamente escrito por una cara. toners. .25” SS/DD Capacidad 180 Kb 5. Una impresora muy pequeña puede ser una magnifica solución a la falta de espacio o como compañera de un equipo portátil.2 ALMACENAMIENTO Unidades de disquete Por malo y anticuado que sea un ordenador. No teniendo esta preocupación nos puede salir cuenta comprar una impresora nueva cada vez que se nos gaste la tinta. pero su formato exterior no es lo único que las diferencia. Si no queremos llevarnos un susto de cuidado debemos elegir impresoras con consumibles baratos y fáciles de encontrar en los comercios.2. Sin embargo. pueden resultar un gran handicap a la hora de decidirnos. Tamaño Tipo de disco 5. Desfasado Dos caras. Normalmente veremos la velocidad en B/N y color.25” DS/DD 360 Kb Explicación Una cara. 3. etc. Su capacidad es totalmente insuficiente para las necesidades actuales. siempre dispone de al menos uno de estos aparatos. doble densidad. Consumibles: Quizás el aspecto que el usuario doméstico más debería mirar con lupa. pero no deberíamos desembolsar una gran cantidad de dinero sólo por esto. Velocidad de impresión: Número de páginas por minuto. Los precios de los consumibles: cartuchos.Tamaño y diseño: No todas son iguales.

apilados unos sobre otros. Desfasado pero muy común Dos caras. lo que desgraciadamente hace que se calienten como demonios. Un disco duro está compuesto de numerosos discos de material sensible a los campos magnéticos. .5” DS/HD 1. el tiempo medio de acceso es muy bajo (menos de 20 ms) y su velocidad de transferencia es tan alta que deben girar a más de 5.5” DS/DD 720 Kb 3. doble densidad. en realidad se parece mucho a una pila de disquetes sin sus fundas y con el mecanismos de giro y el brazo lector incluido en la carcasa. alta densidad.44 MB doble densidad. Actualmente los tamaños son del orden de varios gigabytes.2 MB 3.000 rpm (revoluciones por minuto). al menos desde los tiempos del 286.25” DS/HP 1. Desfasado Dos caras. Desfasado pero útil Dos caras. por lo que no es ninguna tontería instalarles un ventilador para su refrigeración. alta densidad. Los discos duros han evolucionado mucho desde los modelos primitivos de 10 ó 20 MB. El estándar actual.5. Discos duros Son otro de los elementos habituales en los ordenadores.

RLL o ESDI. para conseguir configuraciones N+1. se interpretará de forma digital como un 1 o un 0. Dispositivos de almacenamiento ópticos (CD y DVD) Los discos ópticos están formados por una lámina circular de plástico con una fina capa de material metálico reflectante. Un haz láser va leyendo microscópicos agujeros “pits” o espacios planos “lanas”. FUENTES DE ALIMENTACIÓN DE BAJA POTENCIA: Las series LP y Net de fuentes de alimentación conmutadas de baja potencia. La serie VS es una fuente de alimentación modular. Habitualmente se utiliza para almacenar datos o música. disminuyendo la longitud de onda del láser. el DVD y actualmente se están lanzando dispositivos con tecnología de Láser Azul. de forma que si el láser es reflejado o no. un sistema óptico con lentes encamina el haz luminoso. combinados con módulos PFC. Antiguamente se usaban diversos tipos. cargadores de batería enchufables en caliente y paralelables. aumentamos la capacidad de escritura/lectura para el mismo espacio físico en el disco. y lo enfoca como un punto en la capa del disco que almacena los datos. redes. Podemos establecer una división en función de la longitud de onda del láser. que ofrece de 1 a 12 salidas con potencias entre 1000 a 2500 W por unidad. Su capacidad de almacenamiento llega hoy a unos 800 MB de información. como MFM. recubiertas a su vez por un barniz transparente para su protección del polvo. así como la última tecnología. que pueden ser configurables desde 1 hasta 10 tensiones de salida con valores entre 2 y 60 V.Una diferencia fundamental entre unos y otros discos duros es su interfaz de conexión. de este modo tenemos el CD. aunque en la actualidad sólo se emplean dos: IDE y SCSI. con diseño flexible. precio y fiabilidad. tanto en salida única como multisalida. fibra óptica y otras aplicaciones industriales donde se necesitan alimentadores. 3. tiene todas las homologaciones de seguridad necesarias y es un producto marcado ‘CE’.2. ofrecen una óptima combinación de prestaciones. Esto es.3 FUENTES DE ALIMENTACIÓN FUENTES DE ALMACENAMIENTO CONFIGURABLES: La serie MVP es la familia más versátil de fuentes de alimentación de potencia media que utiliza componentes magnéticos de SMD y convertidos DC-DC internos. . FUENTES DE ALIMENTACION DE GRAN POTENCIA: ASTEC es líder mundial en fuentes de alimentación para telefonía. Estos dispositivos ofrecen potencias entre 25 y 350 W y están disponibles en una amplia variedad de configuraciones.

   2. portales o agregados al negocio como los ISP. los primeros requieren de nuevos conocimientos y modelos de negocio. produciendo contenido. entrando a manejar conceptos de mayor conocimiento del cliente por medio de funciones de inteligencias de negocios que le permitan conocer con lujo de detalle el comportamiento de compra del consumidor. Portales (multi-acceso). las principales exigencias áreas de negocio que debe ser consideradas se detallan en los siguientes párrafos. Desarrollo de nuevos mercados y productos: Para un operador típico. El énfasis estará puesto en:   Desarrollo de contenido: Los operadores de las redes deberán buscar esquemas de compartir los ingresos y ofrecerle algún retorno financiero a los dueños del contenido. los CRM y los diferentes dispositivos que se utilizan como medios de acceso se han diversificado. pasando a ser elementos críticos en los negocios como herramientas para atraer y retenerlos. mejorar la segmentación y los clientes meta. Mercadeo y desarrollo de nuevos productos: La segmentación se vuelve vital. Adquisición y Administración de Clientes: La Administración y la retención de los clientes está aumentado en importancia cada vez más. están luchando por convertirse en los dominadores de esta parte del negocio. incorporando nuevas funcionalidades a los CRMS. Los proveedores de servicios tendrán que aprender a diferenciar la experiencia del cliente a través de su ciclo de vida completa. 1. la cadena de valor se han expandido muy particularmente en el área de desarrollo de productos. Esta porción de la provisión de servicio en la cadena de valor ha llegado a ser muy competitiva. los operadores deben integrar y establecer relaciones con muchos nuevos actores para generar contenido. .3. que con frecuencia se termina involucrando o necesitando la colaboración de terceras empresas. así como las mayores operadores de las redes. Por lo que se hace necesario que los operadores tradicionales transformen su negocio para ofrecer los servicios de datos con los niveles de servicio que el mercado exige. así como construir las plataformas para el desarrollo de productos. se busca mantener clientes leales. Para lograr esa fidelidad y conocimiento se debe estar enfocado en:  Nuevos clientes: Hay muchos nuevos competidores. como proveedores de servicios. mejorando la distribución. La incorporación de contenido: Muchos nuevos jugadores. El negocio de proveer servicios de datos es mucho más complejo que la forma en la que se dan los tradicionales servicios. principalmente en los negocios de ventas al por mayor. apalancando marcas. la ayuda de los dispositivos como los CRMS se están volviendo extremadamente importantes conforme su funcionalidad se expande más allá de la simple voz y la mensajería.3 AMBIENTES DE SERVICIOS. que incorporan a nuevos proveedores de servicios que los ayudaran a enfocarse en grupos de clientes muy específicos. se debe segmentar y enfocarse en grupos de clientes en particular y velar por sus necesidades especificas. Disponibilidad de aplicaciones: Los operadores deben ofrecer aplicaciones para uso de los clientes que les genere nuevos ingresos por servicios.

etc. etc. servicios al por mayor. etc. respaldo de datos.tales como:   Servicios principales de la red.  4. la calidad y el rendimiento. va a ayudar considerablemente a posicionar la interfaz de acceso de los usuarios a los servicios. etc. Operación de la red. Administración de los clientes y canales: Diferenciarse a través de la experiencia del cliente. como seguridad.3. de acceso inalámbrico diseñado para ofrecer servicios de computación y comunicación específicos. administración de dispositivos.1 NEGOCIOS La globalización está cambiando el mundo y lo ha convertido en un ambiente sumamente . su utilización y el retorno financiero. mejorar el rendimiento. hace que las empresas se enfocan cada vez más en sus principales destrezas y fortalezas del negocio y complementar con la administración de proveedores el resto de las actividades. Proveer y desarrollar servicios para la red: Los operadores de las redes deben buscar un uso eficiente de los activos. el rendimiento. Retención de clientes: Retener los clientes de alta gama debe ser uno de los focos principales para los proveedores de servicios que dependen de la red y que ya están establecidos. enfocarse en canales directos. reducir costos.   habilitando nuevas aplicaciones. ubicación. SCM. mejorar la calidad. Servicios de valor agregado de la red: Una de las áreas nuevas claves para los operadores de la red. Administración del negocio: Los expertos consideran que los operadores. hospedaje de servicios. la eficiencia. cada vez más estarán volcando sus ojos hacia todos aquellos elementos que no son parte del negocio principal. las oportunidades de ventas al por mayor seguirán en incremento. las áreas candidatas a tercerizar son:  Administración: El ambiente cada vez más complejo.: Son potenciales actividades que no son fundamentales del negocio y son candidatos a ser sujetos a incrementar las relaciones con terceros que provean estos servicios. 3. Dispositivos: poner mucha atención al creciente uso de dispositivos móviles como las PDA. ERP.  3. los operadores deben de crear una capa de servicios dentro de su negocio para soportar las aplicaciones inalámbricas. Hay una oportunidad creciente en los servicios de valor agregado de las redes. Por otro lado los operadores de la red también se están enfocando sobre marcas como diferenciadores.. tales como seguridad. HR. buscando mejorar los costos.

Focalizarse en operaciones optimizadas. reduciendo y controlando los costos. convirtiendo una relación meramente comercial en un alianza estratégica para compartir el conocimiento. ¿Qué es Outsourcing? Outsourcing es una herramienta de gestión que combina la correcta determinación de la estrategia con las medidas adecuadas para llevarla a cabo de una manera operativamente eficaz. una relación que busca la cooperación intensa entre ambos. Una consecuencia del outsourcing es que ha creado un nuevo modelo de relación clienteproveedor. no todas están relacionadas directamente al logro de los objetivos estratégicos. Empujados por la competencia de mercados. el outsourcing ha surgido como una herramienta que facilita la gestión empresarial y se ha convertido en un tema de actualidad. las empresas deben hacer un uso más intensivo de TI y esto genera una mayor gama de oportunidades para el outsourcing. de las cuales. Las organizaciones deben reconocer que es posible realizar todas estas tareas de forma eficiente y . outsourcing es una forma eficaz para apoyar a las organizaciones y asegurar su supervivencia y tiene su principal razón de ser en tres imperativos que deben considerar las organizaciones hoy en día:    Enfocarse en un negocio. más que una moda. Esta situación ha provocado una enorme presión sobre las organizaciones. el impacto del outsourcing es enorme: Outsourcing es la principal fuente de crecimiento en el área de Servicios de Tecnología de Información (TI). Esto significa que no se trata solo de eficacia operativa orientada hacia la estrategia organizacional. Pero esta tendencia requiere también que los CIO y demás lideres de las organizaciones aprendan a manejar esta herramienta como un mecanismo que permita alinear las funciones de TI con la estrategia de la organización. Asegurarse el acceso a la experiencia técnica que es crítica para el negocio. que deben flexibilizarse y encontrar nuevos mecanismos para afrontar las presiones. en el que no existen distancias ni fronteras y donde la información está al alcance de las manos. En el caso de Tecnología de Información. para innovar y en general para sobrevivir. Algunas tareas solo son de apoyo a soporte. En este nuevo mundo. manejar este mecanismo en forma efectiva. Los CIO deben reconocer los límites de sus organizaciones para proveer los servicios estratégicos que requiere la organización e iniciar el desarrollo de las prácticas del outsourcing y sobre todo. Sin embargo.competitivo. sin importar el tamaño. Una organización puede tratar de ser más eficiente y eficaz y puede estar totalmente orientada al logro de sus objetivos. y se ha convertido en un elemento central de las prácticas de negocios de las compañías actuales. Esto implica normalmente un gran número de funciones que debe realizar.

La industria de las telecomunicaciones y sus tendencias Las empresas proveedoras de servicio de telecomunicaciones en estos tiempos tienen un reto mayor. Para lograr esta estandarización. y de cómo los vendedores desarrollan. establecen precios e implementan los servicios. existe una estrategia doble. 3. reducir los costos y paralelamente desarrollar iniciativas para crecer el negocio en un mercado tradicional que se vuelve cada vez menos atractivo económicamente hablando. Bajar los costos de operación automatizando e integrando los procesos del negocio.3.2 INDUSTRIA La “industrialización” de los Servicios de Tecnología de Información va a redefinir el mercado en términos de cómo las organizaciones evalúan. La industria está en un proceso de transición y el impacto de este viraje ya se siente. que deben desarrollar. Dentro del ambiente de TI (Tecnología de Información). Esto es Outsourcing. es decir. Para mejorar los rendimientos los expertos recomiendan como una forma de lograr mayores ahorros en los costos. Las métricas deben cambiar entonces. como la forma en que los servicios son implementados y administrados. Una vez reconocidas y clasificadas las diversas funciones de esta forma. Los proveedores de outsourcing están respondiendo a este llamado de la estandarización. de la medida de capacidades técnicas a la medida en el impacto en los negocios. y de las empresas que ofrecen los servicios completos. pero en forma simultánea deben soportar una gran base instalada de ambientes desarrollados a la medida. El aumento de la estandarización y la consecuente disminución en la customización es un proceso inevitable y es el resultado del tiempo y la experiencia en cualquier industria. las funciones que establecen la diferencia. en los acuerdos de niveles de servicio. . tomar las siguientes medidas: 1. operar y administrar el resultado de estos genéricos de TI. que incluye prácticas customizadas o estandarizadas. para aprovechar las economías de escala. las organizaciones deben enfocarse en las tareas críticas. compran y seleccionan los servicios. es decir. El mercado de valores refleja una mejora muy considerable en el sector de los servicios de la industria de las telecomunicaciones. Aunque los servicios de TI están en proceso de madurez.deben identificar cuales de sus funciones son críticas para el logro de los objetivos estratégicos y cuales son de apoyo. deben concentrarse en el NEGOCIO y deben considerar dar a terceros las funciones de soporte. la madurez de la industria se ha incrementado en aspectos evidentes. se requiere un enfoque hacia soluciones “genéricas” y esto debe ser responsabilidad de los proveedores.

incorporando servicios administrados o mercerizados a través de la cadena de valor o dentro de segmentos especificos. Administrar e incorporar alianzas en toda la cadena de valor.2. normalmente utilizando tecnología como la Electronic Data Interchange (EDI. que permita mejorar el tiempo de lanzamiento al mercado de nuevas fuentes de generación de ingresos. Proveer mecanismos para mantener un amplio conocimiento del mercado y de la empresa. La utilización intensiva de los activos. 3. Apoyar y soportar integraciones B2B (Negocio a Negocio) por medio de la adopción de plataformas. Originalmente. La industria de la tecnología de la información podría verlo como una aplicación informática dirigida a realizar transacciones comerciales. Apoyar los procesos e iniciativas de desarrollo de nuevos productos. analisis de costo/valor. una cadena de abastecimiento extendida y compras que les permita bajar los precios a mayores niveles. dotando a la empresa de una infraestructura escalable que le permita alcanzar los nuevos requerimientos rápidamente.3.3 COMERCIO ELECTRÓNICO El comercio electrónico consiste en la compra. Explotar las sinergias a través de las operaciones. 2. Por el otro lado para crear nuevo valor a la empresa y generar ingresos adicionales recomiendan a las empresas: 1. venta. esto es. como Gastos de Capital justo a Tiempo. 3. Desarrollo histórico El significado del término “comercio electrónico” ha cambiado a lo largo del tiempo. Centros de Servicios compartido 5. Administrar el riesgo y la incertidumbre. por medio de la consolidación de las operaciones. El comercio electrónico también incluye la transferencia de información entre empresas. 4. 3. “comercio electrónico” significaba la facilitación de transacciones comerciales electrónicamente. marketing y suministro de información complementaria para productos o servicios a través de redes informáticas. Hacer inversiones de capital eficientemente. Una definición alternativa la vería como la conducción de comunicaciones de negocios comerciales y su dirección a través de métodos electrónicos como intercambio electrónico de datos y sistemas automáticos de recolección de datos. . sistemas y redes totalmente abiertas. 4.

presentada finales de los años 70) para enviar electrónicamente documentos como pedidos de compra o facturas. Proporcionar atención personal. 9. tecnología de seguridad en averías. definida como la seguridad de que todos los empleados. animación. 5. . fotografías. Proporcionando sistemas de autoayuda sin asistencia puede ayudar en este sentido. Las Webs unidas por links y los programas de publicidad pueden ayudar en este aspecto. tipografías y espacio en blanco puede aumentar el éxito en este sentido. 8. sugerencias de compra y ofertas especiales personalizadas pueden allanar el camino de sustituir el contacto personal que se puede encontrar en un punto de venta tradicional. esquemas de fidelización y programas de afinidad puede ayudar. redundancia de hardware. 4. 7. interactiva tal como se podría alcanzar en una situación cara a cara. La compra de bienes y servicios a través de la World Wide Web vía servidores seguros (véase HTTPS. Proporcionar servicio y ejecución. Más tarde paso a incluir actividades más precisamente denominadas “Comercio en la red”. El uso de colores. Sin embargo. 10. lo que hace ver como sinónimo de la marca. Dejando que los consumidores se ayuden así mismos. 6. Las promociones de ventas pueden incluir cupones. Proporcionar una página Web atractiva. Proporcionar un sentido de comunidad. Esto se consigue tratando con el consumidor como parte de una gran experiencia. Ofrecimiento de una experiencia de compra amigable. posiblemente a través de tecnologías de reingeniería de la información. Servidores paralelos. gráficos. Entre ellos se encuentran: 1. un protocolo de servidor especial que encripta la realización confidencial de pedidos para la protección de los consumidores y los datos de la organización) con tarjetas de compra electrónica y con servicios de pago electrónico como autorizaciones para tarjeta de crédito. encriptamiento de la información y cortafuegos pueden ampliar estos requisitos. Factores claves del éxito en el comercio electrónico Varios factores han tenido un importante papel en el éxito de las empresas de comercio electrónico. los consumidores pueden no apreciar la experiencia de “gran hermano”. Proporcionar valor al cliente. Proporcionar una visión de 360 grados de la relación con el consumidor. registros como cliente. ofertas especiales y descuentos. Proporcionar un incentivo para los consumidores para comprar y devolver. Proporcionar confianza y seguridad. 2. proveedores y socios tienen una visión global e idéntica del consumidor. foros. Poseer la experiencia total del consumidor. 11. 3. Las áreas de chats. Optimizado los procesos de negocio. Webs personalizadas. Los vendedores pueden conseguirlo ofreciendo un producto o una línea de producto que atraiga clientes potenciales a un precio competitivo al igual que suceden en un entorno no electrónico.

Construir un modelo de negocios sólido. 13. Ayudar a los consumidores a hacer el trabajo de consumir. 4. 2. el por qué compran y cómo compran. Construir una organización con suficiente agilidad y sistemas de alerta para responder rápidamente a los cambios en el entorno económico. Si este factor clave hubiera aparecido en los libros de texto en 2000 muchas compañías ‘punto com’ no habrían quebrado. Incluso un producto con una proposición sólida de valor puede fallar si los fabricantes y distribuidores no entienden los hábitos. 16. 15. software. No comprensión de los clientes. La provisión de información de componentes y comentarios de seguridad e higiene puede ayudar a los minoristas a definir el trabajo del comprador.com/doc/43578661/U3-Seleccion-de-componentes-para-ensamble-deequipos-de-computo . Uno puede tener la capacidad de construir un buen modelo de negocios de librería electrónica pero no tener el deseo de competir con Amazon. Las causas de dichos problemas suelen ser: 1.12. 14. Crear una cadena de valor añadido en la que uno se orienta a un número ‘limitado’ de competencias claves. Operar en o cerca del límite de la tecnología y permanecer allí mientras la tecnología sigue cambiando (pero recordando que los principios fundamentales del comercio se mantienen indiferentes a la tecnología). No capacidad de predecir la reacción del entorno. 3. Los vendedores pueden proporcionar esta ayuda ampliando la información comparativa y las búsquedas de producto. y nuestros procesos llevar a cabo la estrategia propuesta? ¿Han fallado los detallistas en desarrollar las capacidaes de los empleados y directivos? Estos puntos pueden motivar la planificación de recursos y la formación de los empleados. El comercio electrónico podría llegar a mitigar este problema potencial con una investigación de marketing preactiva y bien orientada tal como hacen los detallistas tradicionales.com. tal y como sucede en el comercio no electrónico. social y físico. los problemas pueden aparecer igualmente. hardware. expectativas y motivaciones de los consumidores. ¿Qué harán los competidores? ¿Presentarán nuevas marcas o páginas Web competidoras? ¿Complementarán sus ofertas de servicio? ¿Tratarán de sabotear el portal de la competencia? ¿se desatará una guerra de precios? ¿Qué hará el estado? Una buena investigación de la competencia. (Las tiendas electrónicas pueden presentarse bien como especialistas o como generalistas si se programan correctamente). No considerar el entorno competitivo.scribd. Sobreestimar nuestros recursos ¿puede el personal. Problemas del comercio electrónico Incluso si el proveedor de productos en comercio electrónico sigue rigurosamente estos dieciséis “factores clave” para diseñar una estrategia ejemplar de comercio electrónico. fabricantes y mercados puede mitigar las consecuencias de esto. http://es.