Professional Documents
Culture Documents
MANTENIMIENTO
Tarjeta Madre
La placa base, placa madre o tarjeta madre (en inglés motherboard) es la tarjeta de circuitos
impresos que sirve como medio de conexión entre: El microprocesador, circuitos electrónicos
de soporte, ranuras para conectar parte o toda la RAM del sistema, la ROM y ranuras especiales
(slots) que permiten la conexión de tarjetas adaptadoras adicionales. Estas tarjetas suelen
realizar funciones de control de periféricos tales como monitores, impresoras, unidades de
disco, etc.
Para que la placa base cumpla con su cometido, lleva instalado un software muy básico
denominado BIOS.
Formato de Placa AT
Es el empleado por el IBM AT y sus clones en formato sobremesa completo y torre completo.
Su tamaño es de 12 pulgadas (305mm) de ancho x 11-13 pulgadas de profundo. Su gran tamaño
dificultaba la introducción de nuevas unidades de disco. Además su conector con la fuente de
alimentación inducía fácilmente al error siendo numerosos los casos de gente que freía la placa
al conectar indebidamente los dos juegos de cables (pese a contar con un código de color para
situar 4 cables negros en la zona central). El conector de teclado es el mismo DIN 5 del IBM PC
original.
El formato ATX (siglas de Advanced Technology Extended') es presentado por Intel en 1995.
con un tamaño de 12 pulgadas de ancho por 9,6 pulgadas de profundo, este nuevo formato se
resuelven todos los inconvenientes que perjudicaron a la ya mencionada placa. Los puertos más
habituales (impresora Centronics, RS-232 en formato DB-9, la toma de joystick/midi y de
tarjeta de sonido, los puertos USB y RJ-45 (para red a 100) y en algunos casos incluso la salida
de monitor VGA, se agrupan en el lado opuesto a los slots de ampliación. El puerto DIN 5 de
teclado es sustituido por las tomas PS/2 de teclado y ratón (llamadas así por introducirlas IBM
en su gama de ordenadores PS/2 y rápidamente adoptada por todos los grandes fabricantes) y
situados en el mismo bloque. Todo esto conlleva el que muchas tarjetas necesarias se integren
en al placa madre, abaratando costes y mejorando la ventilación. Inmediatamente detrás se sitúa
el zócalo o slot de procesador y las fijaciones del ventilador (que al estar más próxima a la
fuente de alimentación y su ventilador, actúa más eficientemente), justo al lado de la nueva
conexión de fuente de alimentación (que elimina el quemado accidental de la placa). Tras él
vienen los slots de memoria RAM y justo detrás los conectores de las controladoras IDE
(principalmente en servidores y placas de gama alta) y de controladora de disquete, justo al lado
de las bahías de disco de la caja (lo que reduce los cables)
La nueva fuente, además del interruptor físico de corriente como en la AT, tiene un modo de
apagado similar al de los electrodomésticos de consumo, alimentado a la placa con una pequeña
corriente que permite que responda a eventos (como una señal por la red o un mando a
Cabe mencionar la versión reducida de este formato las placas mini ATX.
El formato microATX (también conocida como µATX) es un formato de placa base pequeño
con un tamaño máximo de 9,6 x 9,6 pulgadas (244 mm x 244 mm) empleada principalmente en
cajas tipo cubo y SFF. Debido a sus dimensiones sólo tiene sitio para 1 o 2 slots PCI y/o AGP,
por lo que suelen incorporar puertos FireWire y USB 2 en abundancia (para permitir conectar
unidades externas de disco duro y regrabadoras de DVD).
Basada en un diseño de Western Digital, permite el uso de cajas más pequeñas en una placa
ATX situando los slots de expansión en una placa especial llamada riser card (una placa de
expansión en sí misma, situada en un lateral de la placa base como puede verse en la imagen).
Este diseño sitúa a las placas de ampliación en paralelo con la placa madre en lugar de en
perpendicular. Generalmente es usado sólo por grandes ensambladores como IBM, Compaq, HP
o Dell, principalmente en sus equipos SFF (Small Form Format o cajas de formato pequeño).
Por eso no suelen tener más de 3 slots
Como se menciona anteriormente, la placa base, tiene ranuras de expansión, una de ellas es la
AGP
El puerto AGP (Accelerated Graphics Port en ocasiones llamado Advanced Graphics Port) es
un puerto (puesto que solo se puede conectar un dispositivo, mientras que en el bus se pueden
conectar varios) desarrollado por Intel en 1996 como solución a los cuellos de botella que se
producían en las tarjetas gráficas que usaban el bus PCI. El diseño parte de las especificaciones
PCI 2.1.
El bus AGP es de 32 bit como PCI pero cuenta con notables diferencias como 8 canales mas
adicionales para acceso a la memoria RAM. Además puede acceder directamente a esta a través
del NorthBrigde pudiendo emular así memoria de vídeo en la RAM. La velocidad del bus es de
66 MHz.
• AGP 1X: velocidad 66 MHz con una tasa de transferencia de 264 MB/s y funcionando a
un voltaje de 3,3V.
• AGP 2X: velocidad 133 MHz con una tasa de transferencia de 528 MB/s y funcionando a
un voltaje de 3,3V.
• AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1 GB/s y funcionando a un
voltaje de 3,3 o 1,5V para adaptarse a los diseños de las tarjetas gráficas.
• AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2 GB/s y funcionando a un
voltaje de 0,7V o 1,5V.
Para el caso de GPUs de nVidia, algunos fabricantes como Asus o MSI siguen fabricando
tarjetas gráficas que usan AGP que incluyen GPUs tan poderosos como los de la serie 6
(GeForce 6600 y 6800 en todas sus versiones) y la serie 7 (GeForce 7800 en todas sus
versiones) de nVidia. Para los GPUs de ATI, se alcanzaron a fabricar tarjetas gráficas AGP que
usaban el GPU X800 o X850 como punto máximo. De todas maneras, esto demuestra que el
puerto AGP aún tiene algunas posibilidades de aprovechamiento. Sin embargo, a medida que
salgan GPUs más modernos, su implementación en tarjetas AGP cada vez va a ser menor
debido al gran auge y avance tecnológico de PCI Express.
Ya no se desarrollan mejoras sobre el puerto AGP que ha quedado "obsoleto" y está siendo
reemplazado por el bus PCI-Express (donde se pueden conectar más de una placa, obteniendo
trabajo en paralelo para el procesamiento de video. nVidia llama a esta tecnología SLI y ATI la
llama CrossFire).
A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un dispositivo
periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y
negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs (Interrupt
ReQuest) y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA,
donde las IRQs tienen que ser configuradas manualmente usando jumpers externos. A parte de
esto, el bus PCI proporciona una descripción detallada de todos los dispositivos PCI conectados
a través del espacio de configuración PCI.
• PCI 2.2 funciona a 66 MHz (requiere 3.3 voltios en las señales) (índice de transferencia
máximo de 503 MB/s)
• PCI 2.3 permite el uso de 3.3 voltios y señalizador universal, pero no soporta los 5 voltios
en las tarjetas.
• PCI 3.0 es el estándar final oficial del bus, con el soporte de 5 voltios completamete
removido
• PCI-X cambia el protocolo levemente y aumenta la tansferencia de datos a 133 MHz
(índice de transferencia máximo de 1014 MB/s)
• PCI-X 2.0 especifica un ratio de 266 MHz (índice de transferencia máximo de 2035
MB/s) y también de 533 MHz, expande el espacio de configuración a 4096 bytes, añade una
variante de bus de 16 bits y utiliza señales de 1.5 voltios
• Mini PCI es un nuevo formato de PCI 2.2 para utilizarlo internamente en los portátiles
• Cardbus es un formato PCMCIA(Computer Memory Card International Association) de
32 bits, 33 MHz PCI
• Compact PCI, utiliza módulos de tamaño Eurocard conectado en una placa hija PCI.
• PC/104-Plus es un bus industrial que utiliza las señales PCI con diferentes conectores.
• Advanced Telecommunications Computing Architecture (ATCA o AdvancedTCA) es la
siguiete generación de buses para la industria de las telecomunicaciones.
PCI-Express (anteriormente conocido por las siglas 3GIO, 3rd Generation I/O) es un nuevo
desarrollo del bus PCI que usa los conceptos de programación y los estándares de comunicación
existentes, pero se basa en un sistema de comunicación serie mucho más rápido. Este sistema es
apoyado principalmente por Intel, que empezó a desarrollar el estándar con nombre de proyecto
Arapahoe después de retirarse del sistema Infiniband.
PCI-Express no tiene que ver nada con PCI-X, son totalmente diferentes. PCI-X es una
evolución de PCI, en la que se consigue aumentar el ancho de banda mediante el incremento de
la frecuencia, llegando a ser 32 veces más rápido que el PCI 2.1. Su velocidad es mayor que
PCI-Express, pero presenta el inconveniente de que al instalar más de un dispositivo la
frecuencia base se reduce y pierde velocidad de transmisión.
PCI-Express está pensado para ser usado sólo como bus local. Debido a que se basa en el bus
PCI, las tarjetas actuales pueden ser reconvertidas a PCI-Express cambiando solamente la capa
física. La velocidad superior del PCI-Express permitirá reemplazar casi todos los demás buses,
AGP y PCI incluidos. La idea de Intel es tener un solo controlador PCI-Express comunicándose
con todos los dispositivos, en vez de con el actual sistema de puente norte y puente sur.
PCI-Express en 2006 es percibido como un estándar de las placas base para PC, especialmente
en tarjetas gráficas. Marcas como Ati Technologies y nVIDIA entre otras tienen tarjetas graficas
en PCI-Express.
Ranuras PCI Express (de arriba a abajo: x4, x16, x1 y x16), comparada a la tradicional PCI de
32 bits
Esta cerca de terminarse la versión 2.0 de PCI Express y debe estar disponible para el 2007
En los primeros sistemas operativos para PC (como el DOS), el BIOS todavía permanecía
activo tras el arranque y funcionamiento del sistema operativo. El acceso a dispositivos como la
disquetera y el disco duro se hacían a través del BIOS. Sin embargo, los sistemas operativos SO
más modernos realizan estas tareas por sí mismos, sin necesidad de llamadas a las rutinas del
BIOS.
Al finalizar esta fase busca el código de inicio del sistema operativo (bootstrap). es un programa
que reside en la ROM de la computadora que es ejecutada automáticamente por el procesador
cuando la computadora se prende. Este lee el sector de arranque del disco duro para continuar el
proceso de cargar el sistema operativo de la computadora.
Firmware
La primera y más importante razón para actualizar la BIOS es que nuestro equipo esté
trabajando mal o no funcione; la segunda, es que necesitemos incorporar nuevas
funcionalidades a nuestro computador.
En el caso de que nuestro PC no funcione tenemos que asegurarnos que el problema no este
relacionado con otro factor como un error del sistema operativo, que el equipo tenga algún virus
o que el ventilador no funcione y la placa se esté calentando demasiado.
Una vez descartadas todas las opciones de mal funcionamiento, la opción sería actualizar la
BIOS. En este caso es recomendable leer el manual de la placa madre y ver el reporte de errores
en la página web del fabricante. De esta manera se puede ahorrar tiempo para detectar el
problema, en caso que la placa no funcione con determinado chip, o sea incompatible con
determinadas memorias RAM, etc.
La segunda opción para actualizar la BIOS es que necesitemos instalar nuevas capacidades o
periféricos. Por ejemplo si hace algunos años compramos un computador que no tenía soporte
para puertos USB, lo más probable es que con una actualización de la BIOS estos conectores
funcionen sin problemas.
Otro ejemplo clásico es el que se refiere a los procesadores. Algunas placas no fueron diseñadas
para soportar CPU con más de 1 Gigahertz de velocidad, con el tiempo estos chips se fueron
masificando y los fabricantes de las placas hicieron una actualización de la BIOS para que
reconociera los procesadores de última generación.
En el caso de las BIOS siempre es bueno aplicar: “No trates de arreglar algo que funciona”. Si
tu computador no tiene problemas, es mejor no jugar con algo tan sensible como este programa
que maneja tu placa madre.
Para actualizar el BIOS, lo primero es saber que marca de placa madre estás usando. Esto es
fácil de conocer si guardaste el manual o la factura que te entregaron el día que compraste el
computador. En caso de no tener el manual la técnica más usada es reiniciar el equipo y al
momento de prender, presionas la tecla suprimir o entras al setup, en el monitor podrás ver la
marca y modelo de “motherboard” que estás usando.
En el peor de los casos, deberás abrir el computador y leer en la misma placa que modelo y
marca es. Una vez que sepas la marca, visita la página web del fabricante. A partir de estos
datos podrás bajar un programa ejecutable desde Windows, o un “.exe” que tendrás que correrlo
desde DOS. Otra alternativa es que el programa que bajes desde la red cree un disco de inicio y
tengas que iniciar el equipo con este disco, para esta opción deberás contar con un disquete de 3
½.
Antes de ejecutar cualquier programa es de suma importancia leer las “release notes”. Es en este
archivo donde están detallados los últimos cambios que se han realizado a la BIOS y las nuevas
Chipset
• El SouthBridge controla los dispositivos asociados como son la controladora de discos IDE,
puertos USB, Firewire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos
infrarrojos, disquetera, LAN y una larga lista de todos los elementos que podamos imaginar
integrados en la placa madre. El puente sur es el encargado de comunicar el procesador con el
resto de los periféricos).
Este término fue usado frecuentemente en los años 70 y 90 para designar los circuitos
integrados encargados de las tareas gráficas de los ordenadores domésticos de la época: el
Commodore Amiga y el Atari ST. Ambos ordenadores tenían un procesador principal, pero gran
cantidad de sus funciones gráficas y de sonido estaban incluidas en coprocesadores separados
que funcionaban en paralelo al procesador principal.
Cierto libro compara al Chipset con la médula espinal: una persona puede tener un buen
cerebro, pero si la médula falla, todo lo de abajo no sirve para nada.
La memoria RAM (Random Access Memory o Memoria de Acceso Aleatorio) es uno de los
componentes más importantes de los actuales equipos informáticos, y su constante aumento de
la velocidad y capacidad ha permitido a los PCs crecer en potencia de trabajo y rendimiento.
• EDO-RAM (Extended Data Output RAM): memoria asíncrona, esta memoria permite a
la CPU acceder más rápido porque envía bloques enteros de datos; con tiempos de acceso de 40
ó 30 ns.
nota: a veces a la memoria SDRAM también se la denomina SDR SDRAM(Single Data Rate
SDRAM) para diferenciarla de la memoria DDR.
• DDR SDRAM (Double Data Rate SDRAM): memoria síncrona, envía los datos dos veces
por cada ciclo de reloj. De este modo trabaja al doble de velocidad del bus del sistema, sin
necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos.
Del mismo modo que la SDRAM, en función de la frecuencia del sistema se clasifican en
(según JEDEC):
o PC 1600 ó DDR200: funciona a 2,5 V, trabaja a 200MHz, es decir 100MHz de bus de
memoria y ofrece tasas de transferencia de hasta 1,6 GB/s (de ahí el nombre PC1600).
Este tipo de memoria la utilizan los Athlon de AMD, y los últimos Pentium 4.
o PC 2100 ó DDR266: funciona a 2.5 V, trabaja a 266MHz, es decir 133MHz de bus de
memoria y ofrece tasas de transferencia de hasta 2,1 GB/s (de ahí el nombre PC2100).
o PC 2700 ó DDR333: funciona a 2.5 V, trabaja a 333MHz, es decir 166MHz de bus de
memoria y ofrece tasas de transferencia de hasta 2,7 GB/s (de ahí el nombre PC2700).
§ De dónde salen estos números: La DDR SDRAM tienen un ancho de bus de 64 bits. Para
calcular el ancho de datos de las memorias se sigue la fórmula: ancho de bus en Bytes *
frecuencia efectiva de trabajo en MHz. Por ejemplo, la DDR200 se llama también PC1600
porque 64/8 bytes * 200 = 1600 MB/s que es la 'velocidad' de la memoria, la cual dividida por
1024, nos da los 1,6 GB/s.
• También existen las especificaciones DDR400, DDR466, DDR533 y DDR600 pero según
muchos ensambladores es poco práctico utilizar DDR a más de 400MHz, por lo que está siendo
sustituida por la revisión DDR2 de la cual sólo se comercializan las versiones DDR2-400 y
DDR2-533.
• Las memorias DDR2 son una mejora de las memorias DDR (Double Data Rate), que
permiten que los búferes de entrada/salida trabajen al doble de la velocidad de la frecuencia del
núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias.
Chips
• DDR2-400: Chips de memoria DDR-SDRAM especificados para correr a 100 MHz, con
reloj de Entrada/Salida a 200 MHz.
• DDR2-533: Chips de memoria DDR-SDRAM especificados para correr a 133 MHz, con
reloj de Entrada/Salida a 266 MHz.
• DDR2-667: Chips de memoria DDR-SDRAM especificados para correr a 166 MHz, con
reloj de Entrada/Salida a 333 MHz.
• DDR2-800: Chips de memoria DDR-SDRAM especificados para correr a 200 MHz, con
reloj de Entrada/Salida a 400 MHz.
Módulos
• PC2-3200: Módulo de memoria DDR-SDRAM especificado para correr a 100 MHz usando
chips DDR2-400, con un ancho de banda de 3200 MB/segundo.
• PC2-4200: Módulo de memoria DDR-SDRAM especificado para correr a 266 MHz usando
chips DDR2-533, con un ancho de banda de 4267 MB/segundo.
• PC2-5300: Módulo de memoria DDR-SDRAM especificado para correr a 333 MHz usando
chips DDR2-667, con un ancho de banda de 5333 MB/segundo.
• PC2-6400: Módulo de memoria DDR-SDRAM especificado para correr a 400 MHz usando
chips DDR2-800, con un ancho de banda de 6400 MB/segundo.
Memoria Secundaria
El disquete, el disco duro o disco fijo, las unidades ópticas, las unidades de memoria flash y los
discos Zip, pertenecen a esta categoría.
Memoria Cache
Se define como una pequeña porción de memoria muy rápida, cuyo objetivo es reducir los
estados de espera, y estar a la velocidad del procesador.
En esta memoria las direcciones son dinámicas, es decir, si se ocupa un bloque de memoria, esto
es transportado por la caché para evitar fallas en la asignación de direcciones
Las memorias caché están compuestas por dos elementos distintos: un directorio que almacena
etiquetas que identifican la dirección de memoria almacenada y bloques de información, todos
de igual tamaño, que guardan la información propiamente dicha
• L1 o interna (situada dentro del propio procesador y por tanto de acceso aún más rápido y
aún más cara). La caché de primer nivel contiene muy pocos kilobytes (unos 32, 64 ó 128 Kb).
• L3 esta memoria se encuentra en algunas placas base. Level 3 cache. A medida que los
nuevos microprocesadores comenzaron a incluir cachés L2 dentro de sus arquitecturas, el caché
L3 es ahora el nombre para el caché extra integrado en las motherboards entre el
microprocesador y la memoria principal. Simplemente, lo que una vez fue el caché L2, ahora se
denomina L3 cuando se usa en micros con cachés L2 integrados.
Controlador de Sonido
Es como un manual de instrucciones que le indica cómo debe controlar y comunicarse con un
dispositivo en particular. Por tanto, es una pieza esencial, sin la cual no se podría usar el
hardware.
• Serial ATA. Remodelación de ATA con nuevos conectores (alimentación y datos), cables y
tensión de alimentación.
Las controladoras IDE casi siempre están incluidas en la placa base, normalmente dos
conectores para dos dispositivos cada uno. De los dos discos duros, uno tiene que estar como
esclavo y el otro como maestro para que la controladora sepa a/de qué disposivo
Este diseño (dos dispositivos a un bus) tiene el inconveniente de que mientras se accede a un
dispositivo el otro dispositivo del mismo conector IDE no se puede usar. En algunos chipset
(Intel FX triton) no se podría usar siquiera el otro IDE a la vez.
Este inconveniente está resuelto en S-ATA y en SCSI, que pueden usar dos dispositivos por
canal.
Los discos IDE están mucho más extendidos que los SCSI debido a su precio mucho más bajo.
El rendimiento de IDE es menor que SCSI pero se están reduciendo las diferencias. El UDMA
hace la función del Bus Mastering en SCSI con lo que se reduce la carga de la CPU y aumenta
la velocidad y el Serial ATA permite que cada disco duro trabaje sin interferir a los demás.
De todos modos aunque SCSI es superior se empieza a considerar la alternativa S-ATA para
sistemas informáticos de gama alta ya que su rendimiento no es mucho menor y su diferencia de
precio sí resulta más ventajosa.
Modem
Acrónimo de las palabras modulador/demodulador. El módem actúa como equipo terminal del
circuito de datos (ETCD) permitiendo la transmisión de un flujo de datos digitales a través de
una señal analógica.
Cómo funciona
El demodulador interpreta los cambios en la señal portadora para reconstruir el flujo de datos
digitales.
La distinción principal que se suele hacer es entre módems internos y módems externos.
• Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes
componentes que forman el módem. Existen para diversos tipos de conector:
o ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante muchos
años se utilizó en exclusiva este conector, hoy en día en desuso.
o PCI: el formato más común en la actualidad.
o AMR: sólo en algunas placas muy modernas; baratos pero poco recomendables por su
bajo rendimiento.
La principal ventaja de estos módems reside en su mayor integración con el ordenador, ya que
no ocupan espacio sobre la mesa y reciben energía eléctrica del propio ordenador.
• Externos: son similares a los anteriores pero están ensamblados en una carcasa que se
coloca sobre la mesa o el ordenador. La conexión con el ordenador se realiza generalmente
mediante uno de los puertos serie o COM
Módems telefónicos
Su uso más común y conocido es en transmisiones de datos por vía telefónica. Los ordenadores
procesan datos de forma digital; sin embargo, las líneas telefónicas de la red básica sólo
transmiten señales analógicas.
Existen, además, módems DSL (Digital Subscriber Line), que utilizan un espectro de
frecuencias situado por encima de la banda vocal (300 - 3.400 Hz) en líneas telefónicas o por
encima de los 80 kHz ocupados en las líneas RDSI, y permiten alcanzar velocidades mucho
mayores que un módem telefónico convencional. También poseen otras cualidades, como es la
posibilidad de establecer una comunicación telefónica por voz al mismo tiempo que se envían y
reciben datos.
El Bus de Serie Universal (USB, de sus siglas en inglés Universal Serial Bus) es una interfaz
que provee un estándar de bus serie para conectar dispositivos a un ordenador personal
(generalmente a un PC). Un sistema USB tiene un diseño asimétrico, que consiste en un solo
servidor y múltiples dispositivos conectados en una estructura de árbol utilizando
concentradores especiales. Se pueden conectar hasta 127 dispositivos a un sólo servidor, pero la
suma debe incluir a los concentradores también, así que el total de dispositivos realmente
usables es algo menor.
Fue desarrollado a finales de 1996 por siete empresas: IBM, Intel, Northern Telecom, Compaq,
Microsoft, Digital Equipment Corporation y NEC.
El diseño del USB tenía en mente eliminar la necesidad de adquirir tarjetas separadas para poner
en los puertos bus ISA o PCI, y mejorar las capacidades plug-and-play permitiendo a esos
dispositivos ser conectados o desconectados al sistema sin necesidad de reiniciar. Cuando se
conecta un nuevo dispositivo, el servidor lo enumera y agrega el software necesario para que
pueda funcionar.
El estándar USB 1.1 tenía dos velocidades de transferencia: 1.5 Mbit/s para teclados, ratón,
joysticks, etc., y velocidad completa a 12 Mbit/s. La mayor ventaja del estándar USB 2.0 es
añadir un modo de alta velocidad de 480 Mbit/s. En su velocidad más alta, el USB compite
directamente con FireWire (excepto en el área de cámaras digitales portables, el USB tiene
limitaciones tecnológicas que prohíben su uso viable en esta área).
Las especificaciones USB 1.0, 1.1 y 2.0 definen dos tipos de conectores para conectar
dispositivos al servidor: A y B. Sin embargo, la capa mecánica ha cambiado en algunos
conectores. Por ejemplo, el IBM UltraPort es un conector USB privado localizado en la parte
superior del LCD de los ordenadores portátiles de IBM. Utiliza un conector mecánico diferente
mientras mantiene las señales y protocolos característicos del USB. Otros fabricantes de
artículos pequeños han desarrollado también sus medios de conexión pequeños, y una gran
variedad de ellos han aparecido. Algunos de baja calidad.
Una extensión del USB llamada "USB-On-The-Go" permite a un puerto actuar como servidor o
como dispositivo - esto se determina por qué lado del cable esta conectado al aparato. Incluso
después de que el cable está conectado y las unidades se están comunicando, las 2 unidades
pueden "cambiar de papel" bajo el control de un programa. Esta facilidad está específicamente
diseñada para dispositivos como PDA, donde el enlace USB podría conectarse a un PC como un
dispositivo, y conectarse como servidor a un teclado o ratón. El "USB-On-The-Go" también ha
diseñado 2 conectores pequeños, el mini-A y el mini-B, así que esto debería detener la
proliferación de conectores miniaturizados de entrada.
El puerto serie por excelencia es el RS-232 que utiliza cableado simple desde 3 hilos hasta 25 y
que conecta ordenadores o microcontroladores a todo tipo de periféricos, desde terminales a
impresoras y modems pasando por ratones.
El RS-232 original tenía un conector tipo D de 25 pines, sin embargo la mayoría de dichos pines
no se utilizaban, por lo que IBM incorporó desde su PS/2 un conector más pequeño de
solamente 9 pines que es el que actualmente se utiliza.
Uno de los defectos de los puertos serie iniciales eran su lentitud en comparación con los
puertos paralelos, sin embargo, con el paso del tiempo, están apareciendo multitud de puertos
serie de alta velocidad que los hacen muy interesantes ya que utilizan las ventajas del menor
cableado y solucionan el problema de la velocidad con un mayor apantallamiento y más barato
usando la técnica del par trenzado. Por ello, el puerto RS-232 e incluso multitud de puertos
paralelos están siendo reemplazados por nuevos puertos serie como el USB, el Firewire o el
Serial ATA.
Puerto Paralelo
Batería de Respaldo
Los dispositivos que se conectan a un SAI se les denomina cargas críticas, pueden ser aparatos
médicos, industriales o informáticos y, como se ha dicho antes, requieren tener siempre
alimentación y que ésta sea de calidad debido a la necesidad de estar en todo momento
operativos y sin fallos (por ejemplo, picos de tensión o caídas).
Ranura, en español. Se trata de cada uno de los alojamientos que tiene la placa madre en los que
se insertan las tarjetas de expansión. Todas estas ranuras están conectadas entre sí y un
ordenador personal tiene generalmente ocho, aunque puede llegar a doce
AGP
Al puerto AGP se conecta la tarjeta gráfica y se usa únicamente para tarjetas gráficas en
ordenadores muy potentes y asequibles; está siendo reemplazado por el slot PCI-e que es más
potente. AGP quiere decir Advanced Graphics Port(Puerto de gráficos avanzados).
ISA
El slot ISA fue reemplazado por el slot PCI. Los componentes diseñados para el slot ISA eran
muy grandes y fueron de los primeros slots en usarse en los ordenadores personales. Hoy en día
no se fabrican slots ISA. Los puertos ISA son ranuras de expansión actualmente en desuso, se
incluyeron estos puertos hasta los primeros modelos del Pentium III.
PCI
Puertos PCI(Peripheral Component Interconnect): son ranuras de expansión en las que se puede
conectar tarjetas de sonido, de vídeo, de red etc. El slot PCI se sigue usando hoy en día y
podemos encontrar bastantes componentes(la mayoría) en el formato PCI. Dentro de los slots
PCI está el PCI-Express. Los componentes que suelen estar disponibles en este tipo de slot son:
• Capturadoras de televisión.
• Controladoras RAID.
• Tarjetas de red, inalámbricas o no.
• Tarjetas de sonido.
AMR
Ranura de expansión en la placa madre para dispositivos de audio como tarjetas de sonido o
modems lanzada en 1998, cuenta con 16 pines y es parte del estándar de audio AC97 aun
vigente en nuestros días.
CNR
Adolecía de los mismos problemas de recursos de los dispositivos diseñados para ranura AMR.
Actualmente no se incluye en las placas.
Alimentación al Motherboard
El tipo de alimentación para los conectores ATX es de 20 pines, actualmente existe también ATX
2.0 o ATX de 24 pines que es conector que utiliza micro ATX, además tiene un conector extra de
4 pines
Hay que tomar en cuenta que la tarjeta madre tiene sus especificaciones para el procesador que
soporta, así como el tipo de memoria que soporta y los puertos disponibles, una ventaja es que
toda esta información, la podemos encontrar en el sitio de Internet del fabricante de las tarjetas
madres,
Lo primero que debemos de considerar es la marca del procesador que vamos a instalar: AMD o
Intel, cada marca tiene sus conexiones diferentes o sockets, las conexiones actuales más comunes
por parte de Intel es la del socket LGA775, socket 478 o el más antiguo de todos estos que es el
socket 370, por parte de AMD los sockets más comunes son socket 939, 754s, socket A, o socket
AM2, la siguiente consideración es el tipo y la velocidad del procesador, actualmente las
velocidades comunes en equipos nuevos varian de 2.0 Ghz a 3.0 Ghz aproximadamente, algunos
modelos requieren el mismo tipo de socket, otros no, ejemplo: un procesador Intel Celeron con
una velocidad de 2.26 Ghz requiere de un socket 478, pero un procesador del mismo modelo pero
a una velocidad de 2.53 Ghz requiere de un socket LGA775.
Una vez resueltas todas estas dudas podemos seleccionar una tarjeta madre adecuada para nuestro
procesador. Suponer que tenemos un procesador Intel Celeron a 2.26 Ghz, entonces necesitamos
una tarjeta que soporte un procesador con socket 478, tomando los modelos de la compañía PC
CHIPS puede ser la tarjeta M963GV
• La arquitectura NUMA, donde cada procesador tiene acceso y control exclusivo a una parte
de la memoria.
• La arquitectura SMP, donde todos los procesadores comparten toda la memoria.
Esta plataforma permite que los usuarios de equipos informáticos obtengan el máximo provecho
del video de alta definición, el sonido de gran calidad y la visualización 3D para realizar sus
actividades en audio, video, diseño digital y juegos. Estos sistemas permiten el aumento en la
capacidad y potencia de los equipos para que los usuarios puedan realizar más tareas con sus
ordenadores, lo que va a transformar el modo en el que las personas utilizan la capacidad
informática tanto dentro como fuera de los hogares.
Los procesadores con dos o más núcleos incorporan dos o más unidades centrales con capacidad
de ejecución dentro de un mismo procesador, para facilitar la gestión simultánea de varias
actividades diferentes.
Aunque son muchos los detalles que caracterizan esta nueva microarquitectura, hay dos claros
rasgos que han guiado el diseño de la misma: ahorro energético y rendimiento. Estas dos
características parecen erigirse como los dos aspectos clave que están guiando la lucha entre
Intel y AMD.
Como ejemplo tenemos por parte de Intel el procesador Core Duo, de AMD puede ser el Athlon
64 X2
Podemos retomar el modelo de tarjeta que elegimos anteriormente para analizar que velocidad
tiene, hay que tomar en cuenta que el procesador se comunica mediante un bus, el bus frontal o
FSB, este bus transmite toda la información que pasa del CPU a los demás dispositivos dentro del
sistema, como la RAM, las tarjetas, el disco duro, etc., entonces la tarjeta también debe tener una
velocidad en sincronía, seguimos tomando como ejemplo el procesador Celeron a 2.26 GHz, tiene
un bus frontal de 533 Mhz, y la tarjeta PC CHIPS M963GV tiene soporte para un bus frontal de
533 Mhz.
Vamos a suponer otro caso: elegimos un procesador AMD Athlon 64 2800+, tiene un bus frontal
de 800 Mhz, y requiere de un socket 754; la tarjeta que puede soportar dicho procesador es la
tarjeta modelo M871G de PC CHIPS.
De igual manera, la alimentación al disco duro, la unidad de cd/dvd y al disco flexible tienen la
misma forma de conexión:
Ahora se observa las conexiones de alimentación al disco duro y a la unidad de cd/dvd:
Como se observa, la conexión al disco duro y a la unidad de cd/dvd es la misma, como referencia
podemos tomar que los cables de alimentación siempre deben ir de tal forma que el cable rojo este
a la izquierda, o esté junto al cable de comunicación IDE, de hecho el cable IDE tiene una
referencia de uno de sus cables con color rojo, como también se puede apreciar en las imágenes; el
cable de datos tampoco se puede conectar de otra forma, el hilo rojo debe ir al lado derecho.
La alimentación del disco flexible es similar en el sentido de que sus conectores pueden ensamblar
de sólo una forma:
Condiciones de operación.
Es recomendable utilizar una pulsera antiestática, además que todas las condiciones de
operación estén satisfechas, la temperatura ambiente, debe ser media, asegurarse de que el
voltaje no sea muy variable, y que el lugar en donde se ensamble tanto como funcione esté libre
de humedad.
Unidades Instaladas
En este apartado nos muestra los dispositivos físicos que tenemos conectados a la computadora:
discos duros, CD-ROM, DVD, etc.
Password Check
En esta sección se establece si se desea que el acceso a la computadora como al SETUP de la pc
sea protegido por contraseña.
Internal Cache
Habilita / deshabilita la memoria cache interna del microprocesador
Standby mode
Señala el tiempo que pasará desde que el ordenador no realice ninguna tarea hasta que entre en
modo de ahorro. Igual que antes, si desactivamos esta opción, se pasará directamente al
siguiente estado de energía sin pasar por este.
Suspend mode
Tiempo que pasará hasta que nuestro equipo entre en modo suspendido. Si no se activa el
sistema ignora esta entrada.
HotKey Power On
El equipo se pondrá en marcha al presionar una combinación de teclas determinadas
Ring on Power On
Conectando un módem al puerto serie, lograremos que nuestro equipo se ponga en marcha
cuando reciba una llamada.
OnBoard FDC
Seleccionar habilitado si tu sistema tiene un controlador de disco flexible (Floppy Disk
Controller) instalado en el sistema de la tarjeta madre y desea usarlo, si instala un controlador
extra o el sistema no tiene unidad de disco flexible, seleccionar deshabilitado.
Onboard LAN.-
se habilita / deshabilita el Puerto de red integrado
USB Function
se determina si los puertos usb funcionan en el sistema operativo DOS,
MANTENIMIENTO CORRECTIVO
Partición Activa.- Aquí se habla de la partición en la que el BIOS va a buscar el arranque, por
ejemplo, si el disco duro tiene dos particiones, y se carga el sistema operativo en una de ellas, la
partición activa debe ser esa misma.
La forma más habitual de acceder al modo a prueba de fallos es utilizando la tecla F8. Para ello
reiniciamos el ordenador, cuando vaya a iniciarse Windows debemos presionar la tecla F8
repetidamente hasta que nos aparezca un Menú. Puede que no nos salga a la primera, pero no
hay que desesperar por ello, con un poco de práctica se consigue. En algunos ordenadores este
método no funciona y en lugar de F8 debemos pulsar y mantener presionada la tecla ctrl.
mientras se enciende o se reinicia el equipo hasta que salga el Menú, en el cual con las flechas
de dirección del teclado seleccionaremos, dependiendo del sistema operativo: Modo a prueba de
fallos, Modo a prueba de errores, Modo seguro.
En caso de que la partición de nuestro disco esté con problemas se puede hacer uso de SpinRite,
que es una herramienta que restablece la partición.
KillCMOS
Esta es la forma de reiniciar el BIOS mediante software, es un programa que reinicia el BIOS de
la computadora, esto se puede utilizar en el caso de que se haya olvidado la contraseña para
acceder al SETUP
Sandra Soft
Uno de los mejores programas para evaluar eficientemente la PC y obtener información sobre el
sistema y sus principales periféricos. SANDRA Standard incluye 58 módulos de información
que brindan reportes sobre los principales dispositivos de hard y soft, benchmarks para medir el
rendimiento de la computadora (micro, funciones multimedia, unidades de CD/DVD, memoria,
etc.), y asistentes para generar informes sobre el estado de la PC en cada rubro, por lo que
resulta un excelente asistente de reportes, diagnóstico y análisis del sistema. Además, puede
exportar los datos a distintos formatos.
Belarc
Herramienta de diagnóstico que construye un perfil detallado del software y hardware instalado,
todo esto lo muestra en una ventana de Internet Explorer, toda esta información es confidencial
y no se manda a ningún servidor
CPU Test
Es un pequeño pero útil programa para realizar pruebas de velocidad de velocidad en tu sistema.
Podrás probar la velocidad de procesamiento de tu sistema en pocos segundos, con fiabilidad. El
programa puede ser utilizado en ordenadores antiguos. Podrás ver una lista de los resultados con
sólo presionar la tecla F1 en la ventana del programa. Su interfaz es agradable y muy fácil de
utilizar.
Virus
Estructura de un virus:
- Módulo de propagación
- Módulo de ataque o activación.
- Módulo de defensa.
Activación de un virus
Cuando se activa un virus, las consecuencias son de lo más diversas. Desde las más inocentes
como hacer sonar una melodía, poner un mensaje en pantalla, hacer llover caracteres por nuestra
pantalla o cambiar la etiqueta de nuestro disco hasta de lo más devastadoras como formatear el
disco duro, borrar la CMOS, destruir el sector de arranque, borrar archivos, destruir o encriptar
la FAT, etc. El detonante de esta situación, el módulo de activación, determina cuándo el virus
ha de realizar su función visible.
Un virus puede estar programado para realizar su acción nociva poco a poco e ir degradando así
la integridad de la máquina o bien programado como una bomba lógica y realizar esta acción
una sola vez en un momento determinado (una fecha concreta, una hora, al cumplirse cierto
número de ejecuciones e incluso de forma aleatoria).
Tipos de virus
Virus de sector de arranque: Hasta hace poco, los más difundidos. Infectan en el sector de
arranque el MBR (Master Boot Record) o el DBR (Disk Boot Record) existente en todos los
discos duros y disquetes. El virus sustituye el código de arranque original por su propio código
o parte del mismo, almacenando la secuencia inicial y el resto de sí mismo en algún lugar del
disco. Se propaga cuando introducimos un disco infectado en la unidad de arranque y
encendemos el equipo. El ordenador ejecuta el MBR del disco infectado, carga el virus, el cual
se copia al MBR del disco duro. A partir de ahí, todas las veces que arranquemos nuestro
equipo, se cargará el virus en memoria de forma residente.
Virus de archivo: Este tipo de virus infecta a archivos ejecutables como los del tipo EXE,
COM, DLL, OVL, DRV, SYS, BIN, e incluso BAT. El virus se añade al principio o al final de
los archivos. Su código se ejecuta antes que el del programa original, pudiendo ser o no
residentes. Una vez en memoria, buscan nuevos programas a los cuales puedan trasladarse.
Virus macro: Este tipo de virus ha destruido el concepto que hasta el momento se tenía de los
virus en general. Infectan documentos de determinadas aplicaciones que dispongan o puedan
hacer uso de un potente lenguaje de macros. Los primeros virus de este tipo aparecieron en el
verano de 1995 y, ya a principios del siguiente año, se habían hecho tremendamente populares,
hasta el punto de haber arrebatado el primer puesto en cuanto a porcentaje de infecciones a los
viejos virus de sector de arranque.
La inmensa mayoría utilizan el lenguaje de macros WordScript de Word (si bien podemos
encontrar algunos desarrollados en otros lenguajes como pueda ser LotusScript para Lotus
SmartSuite), aunque la aparición de VBA (Visual Basic for Applications) que emplea Microsoft
Office, posibilita la creación de virus genéricos efectivos en cualquier aplicación con soporte
para OLE2. Esta característica está propiciando que los virus creados con VBA se les denomine
virus de OLE2.
La infección comienza cuando se carga un documento, ya sea un texto de Word, una hoja de
cálculo de Excel, etc. La aplicación además del documento carga cualquier macro que lo
acompaña. Si alguna o algunas de esas macros son válidas, la aplicación las ejecuta, haciéndose
éstas dueñas del sistema por unos instantes. Al tener el control, lo primero que hacen es copiarse
al disco duro y modificar la plantilla maestra (NORMAL.DOT en Word), para que sean
ejecutadas ciertas de ellas al iniciar la aplicación determinada. En cada documento que creemos
o abramos, se incluirán a partir de ese momento las macros "malignas".
Troyanos y gusanos (Worms): No son virus propiamente dichos. Los troyanos son programas
que, al igual que en la mítica historia, bajo un aparente programa funcional, introducen en
Mecanismos de Stealth: Éste es el nombre genérico con el que se conoce a las técnicas de
ocultar un virus. Varios son los grados de stealth. A un nivel básico basta saber que en general
capturan determinadas interrupciones del PC para ocultar la presencia de un virus, como
mantener la fecha original del archivo, evitar que se muestren los errores de escritura cuando el
virus escribe en discos protegidos, restar el tamaño del virus a los archivos infectados cuando se
hace un DIR o modificar directamente la FAT, etc. Técnicas de stealth avanzadas pretenden
incluso hacer invisible al virus frente a un antivirus. En esta categoría encontramos los virus que
modifican la tabla de vectores de interrupción (IVT), los que se instalan en alguno de los buffers
de DOS, los que se instalan por encima de los 640KB e incluso los hay que soportan la
reinicialización del sistema por teclado.
Virus polimórficos: La mayor parte de los productos antivirus basan su análisis en un escáner
que estudia y compara secuencias de los ejecutables a partir de unos patrones de secuencias
víricas. En ensamblador podemos encontrar multitud de secuencias distintas que tienen un
resultado equivalente. Por otro lado, podemos cambiar el orden de los bloques de instrucciones
de un virus y seguiremos teniendo lo mismo. Basándose en esto aparecieron los virus
polimórficos, que cambian de aspecto cada vez que se replican. Los primeros constaban de tan
solo unas cuantas mutaciones por virus, pero la aparición de motores de polimorfismo estándar
consiguen muchos miles de mutaciones de un mismo virus.
Los actuales productos antivirus son una solución completa e integran todo lo necesario para la
luchar contra las infecciones en un solo paquete. En líneas generales, un antivirus se compone
del escáner, el limpiador y un controlador de dispositivo residente.
El escáner es el arma antivirus por excelencia. Antes, analizaban exclusivamente los archivos
en busca de secuencias malignas, basándose en un archivo que contenía los patrones de los
distintos virus. Hoy día, incluyen técnicas más avanzadas que aumentan la velocidad de
detección con mecanismos de checksum e incluso permiten descubrir nuevos virus con lo que se
ha dado a llamar análisis heurístico.
Actualmente existe una terminología denominada malware, (malicious software) que son
programas o archivos que son dañinos para la computadora, está diseñado para insertar virus,
gusanos, troyanos, spyware, etc. intentando conseguir algún objetivo, como podría ser el de
recoger información sobre el usuario o sobre el ordenador en sí.
Una puerta trasera(o bien Backdoor) es un software que permite el acceso al sistema de la
computadora ignorando los procedimientos normales de autenticación. De acuerdo en como
trabajan e infectan a otros equipos, existen dos tipos de puertas traseras. El primer grupo se
asemeja a los caballos de troya, es decir, son manualmente insertados dentro de algún otro
software, ejecutados por el software contaminado e infecta al sistema para poder ser instalado
permanentemente. El segundo grupo funciona de manera parecida a un gusano informático, el
cuál es ejecutado como un procedimiento de inicialización del sistema y normalmente infecta
por medio de gusanos que lo llevan como carga.
El spyware es todo aquel software que recolecta y envía información de los usuarios.
Normalmente trabajan y contaminan sistemas como lo hacen los caballos de troya.
Un exploit es aquel software que ataca una vulnerabilidad particular de un sistema operativo.
Los exploits no son necesariamente maliciosos –son generalmente creados por investigadores de
seguridad informática para demostrar que existe una vulnerabilidad. Y por esto son
componentes comunes de los programas maliciosos como los gusanos informáticos.
Los rootkit, son programas que son insertados en una computadora después de que algún
atacante ha ganado el control de un sistema. Los rootkit generalmente incluyen funciones para
ocultar los rastros del ataque, como es borrar los log de entradas o encubrir los procesos del
atacante. Los rootkit pueden incluir puertas traseras, permitiendo al atacante obtener de nuevo
acceso al sistema o también pueden incluir exploits para atacar otros sistemas.
Ningún sistema de seguridad es 100% infalible. Por eso todo usuario de computadoras debería
tratar de implementar medidas de seguridad antivirus, no sólo para proteger su propia
información sino para no convertirse en un agente de propagación de algo que puede producir
daños graves e indiscriminados.
Respaldos.
La segunda situación es un hardware que solía ser una parte productiva del centro de datos.
Ahora, no es más que un pedazo de acero y silicón inútil. Lo que está faltando en todo el
software y los datos que usted y sus usuarios habían reunido por años. Supuestamente todo ha
sido respaldado. La pregunta es: ¿Está seguro?
El ritmo al cual los datos cambian es crucial para el diseño de un procedimiento de respaldo.
Hay dos razones para esto:
• Un respaldo no es más que una instantánea de los datos respaldados. Es un reflejo de los
datos en un momento particular.
• Los datos que cambian con poca frecuencia se pueden respaldar menos a menudo,
mientras que los datos que cambian regularmente deben ser copiados frecuentemente.
Para poder llevar a cabo los respaldos, es necesario tener el software de respaldo apropiado.
Este software no solamente debe ser capaz de realizar la tarea básica de hacer copias de bits en
una media de respaldo, también debe interactuar limpiamente con el personal y las necesidades
de su organización. Algunas de las funcionalidades a considerar cuando evalúe software de
respaldo incluyen:
El tipo de respaldo discutido al principio de esta sección se conoce como respaldo completo. Un
respaldo completo es un respaldo donde cada archivo es escrito a la media de respaldo. Como se
mencionó anteriormente, si los datos a respaldar nunca cambian, cada respaldo completo creado
será una copia de exactamente lo mismo.
Esta similaridad se debe al hecho de que un respaldo completo no verifica para ver si un archivo
ha cambiado desde el último respaldo; ciegamente escribe todo a la media de respaldo, haya
sido modificada o no.
Esta es la razón por la que los respaldos completos no se hacen todo el tiempo - cada archivo es
escrito a la media de respaldo. Esto significa el uso de gran cantidad de media de respaldo aún
cuando nada se haya cambiado. Respaldar 100 GB de datos cada noche cuando solamente
cambió 10 MB de datos, no es una buena solución; por eso es que se crean los respaldos
incrementales.
Respaldos incrementales
A diferencia de los respaldos completos, los respaldos incrementales primero revisan para ver si
la fecha de modificación de un archivo es más reciente que la fecha de su último respaldo. Si no
lo es, significa que el archivo no ha sido modificado desde su último respaldo y por tanto se
puede saltar esta vez. Por otro lado, si la fecha de modificación es más reciente, el archivo ha
sido modificado y se debería copiar.
Los respaldos incrementales son utilizados en conjunto con respaldos regulares completos (por
ejemplo, un respaldo semanal completo, con respaldos incrementales diarios).
La principal ventaja obtenida de los respaldos incrementales es que se ejecutan muchísimo más
rápido que un respaldo completo. La principal desventaja es que restaurar un archivo dado
puede implicar pasar a través de varios respaldos incrementales hasta encontrar el archivo.
Cuando se restaura un sistema de archivos completo, es necesario restaurar el último respaldo
completo y cada respaldo incremental subsecuente.
Respaldos diferenciales
Los respaldos diferenciales son similares a los respaldos incrementales en que ambos solamente
copian archivos que han sido modificados. Sin embargo, los respaldos diferenciales son
acumulativos — en otras palabras, con un respaldo diferencial, una vez que un archivo ha sido
Esto significa que cada respaldo diferencial contiene todos los archivos modificados desde el
último respaldo completo, haciendo posible realizar una restauración completa solamente con el
último respaldo completo y el último respaldo diferencial.
El efecto de utilizar los respaldos diferenciales de esta forma es que los respaldos diferenciales
tienden a crecer un poco con el tiempo (asumiendo que diferentes archivos son modificados con
el paso del tiempo entre respaldos completos). Esto coloca los respaldos diferenciales en un
punto entre los respaldos incrementales y los completos en términos de utilización de la media y
velocidad de los respaldos, mientras que ofrecen restauraciones completas y de archivos
individuales mucho más rápidas (debido a que hay menos respaldos en los que
buscar/restaurar).
4. MONITORES Y ADAPTADORES
La mejor forma de adquirir la información es a través de la vista, lo que hace que el monitor sea
uno de los periféricos de salida más usual.
¿Qué es un pixel?
Tipos de monitores.
Monitores color: Las pantallas de estos monitores están formadas internamente por tres capas de
material de fósforo, una por cada color básico (rojo, verde y azul). También consta de tres
cañones de electrones, e, igual que las capas de fósforo, hay uno por cada color.
Para formar un color en pantalla que no sea ninguno de los colores básicos, se combinan las
intensidades de los haces de electrones de los tres colores básicos.
Monitores monocromáticos: Muestra por pantalla un solo color: negro sobre blanco o ámbar, o
verde sobre negro. Uno de estos monitores con una resolución equivalente a la de un monitor
color, si es de buena calidad, generalmente es más nítido y más legible.
Funcionamiento:
Los cristales líquidos son sustancias transparentes con cualidades propias de líquidos y de
sólidos. Al igual que los sólidos, una luz que atraviesa un cristal líquido sigue el alineamiento
de las moléculas, pero al igual que los líquidos, aplicando una carga eléctrica a estos cristales, se
produce un cambio en la alineación de las moléculas, y por tanto en el modo en que la luz pasa a
través de ellas. Una pantalla LCD está formada por dos filtros polarizantes con filas de cristales
líquidos alineados perpendicularmente entre sí, de modo que al aplicar o dejar de aplicar una
corriente eléctrica a los filtros, se consigue que la luz pase o no pase a través de ellos, según el
segundo filtro bloquee o no el paso de la luz que ha atravesado el primero.
El color se consigue añadiendo 3 filtros adicionales de color (uno rojo, uno verde, uno azul). Sin
embargo, para la reproducción de varias tonalidades de color, se deben aplicar diferentes niveles
de brillo intermedios entre luz y no-luz, lo cual se consigue con variaciones en el voltaje que se
aplica a los filtros. En esto último, hay un parecido con los monitores CRT, que más adelante
veremos.
Características
Resolución:
La resolución máxima de una pantalla LCD viene dada por el número de celdas de cristal
líquido.
Tamaño:
A diferencia de los monitores CRT, se debe tener en cuenta que la medida diagonal de una
pantalla LCD equivale al área de visión. Es decir, el tamaño diagonal de la pantalla LCD
equivale a un monitor CRT de tamaño superior.
Las señales digitales del entorno son recibidas por el adaptador de VGA, que a veces esta
incluido en el mother de la PC. El adaptador lleva las señales a través de un circuito llamado
El adaptador también envía señales a un mecanismo en el cuello del CRT que enfoca y dirige
los rayos de electrones. Parte del mecanismo es un componente, formado por material
magnético y bobinas, que abraza el cuello del tubo de rayos catódicos, que sirve para mandar la
desviación de los haces de electrones, llamado yugo de desvío magnético. Las señales enviadas
al yugo de ayuda determinan la resolución del monitor (la cantidad de pixeles horizontal y
verticalmente) y la frecuencia de refresco del monitor, que es la frecuencia con que la imagen de
la pantalla será redibujada.
La imagen esta formada por una multitud de puntos de pantalla, uno o varios puntos de pantalla
forman un punto de imagen (pixel), una imagen se constituye en la pantalla del monitor por la
activación selectiva de una multitud de puntos de imagen.
Los rayos pasan a través de los agujeros en una placa de metal llamada máscara de sombra o
mascara perforada.
El propósito de la máscara es mantener los rayos de electrones alineados con sus blancos en el
interior de la pantalla de CRT. El punto de CRT es la medición de como cierran los agujeros
unos a otros; cuanto más cerca estén los agujeros, más pequeño es el punto. Los agujeros de la
mencionada máscara miden menos de 0,4 milímetros de diámetro.
El electrón golpea el revestimiento de fósforo dentro de la pantalla. (El fósforo es un material
El refresco de pantalla
El refresco es el número de veces que se dibuja la pantalla por segundo. Evidentemente, cuanto
mayor sea la cantidad de veces que se refresque, menos se nos cansará la vista y trabajaremos
más cómodos y con menos problemas visuales. La velocidad de refresco se mide en hertzios
(Hz. 1/segundo), así que 70 Hz significa que la pantalla se dibuja cada 1/70 de segundo, o 70
veces por segundo. Para trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar
ergonómicamente, o sea, con el mínimo de fatiga visual, 80 Hz o más. El mínimo son 60 Hz;
por debajo de esta cifra los ojos sufren demasiado, y unos minutos bastan para empezar a sentir
escozor o incluso un pequeño dolor de cabeza. Antiguamente se usaba una técnica denominada
entrelazado, que consiste en que la pantalla se dibuja en dos pasadas, primero las líneas impares
y luego las pares, por lo que 70 Hz. entrelazados equivale a poco más de 35 sin entrelazar, lo
que cansa la vista increíblemente.
La frecuencia máxima de refresco del monitor se ve limitada por la resolución del monitor. Esta
última decide el número de líneas o filas de la máscara de la pantalla y el resultado que se
obtiene del número de filas de un monitor y de su frecuencia de exploración vertical (o barrido,
o refresco) es la frecuencia de exploración horizontal; esto es el número de veces por segundo
que el haz de electrones debe desplazarse de izquierda a derecha de la pantalla. Por
consiguiente, un monitor con una resolución de 480 líneas y una frecuencia de exploración
vertical de 70Hz presenta una frecuencia de exploración horizontal de 480 x 70, o 33,6 kHz. En
este caso, el haz de electrones debe explorar 33600 líneas por segundo.
Quien proporciona estos refrescos es la tarjeta gráfica, pero quien debe presentarlos es el
monitor. Si ponemos un refresco de pantalla que el monitor no soporta podríamos dañarlo, por
lo que debemos conocer sus capacidades a fondo. También hay que tener claro que la tarjeta de
video debe ser capaz de proporcionar una cierta cantidad de refrescos por segundo, ya que de no
ser así, de nada nos servirá que el monitor los soporte.
Resolución
Se denomina resolución de pantalla a la cantidad de pixeles que se pueden ubicar en un
determinado modo de pantalla. Estos pixeles están a su vez distribuidos entre el total de
horizontales y el de verticales. Todos los monitores pueden trabajar con múltiples modos, pero
dependiendo del tamaño del monitor, unos nos serán más útiles que otros. Un monitor cuya
resolución máxima sea de 1024x768 pixeles puede representar hasta 768 líneas horizontales de
1024 pixeles cada una, probablemente además de otras resoluciones inferiores, como 640x480 u
800x600. Cuanto mayor sea la resolución de un monitor, mejor será la calidad de la imagen en
pantalla, y mayor será la calidad (y por consiguiente el precio) del monitor. La resolución debe
ser apropiada además al tamaño del monitor; es normal que un monitor de 14" ó 15" no ofrezca
Tamaño:
El tamaño de los monitores CRT se mide en pulgadas, al igual que los televisores. Hay que
tener en cuenta que lo que se mide es la longitud de la diagonal, y que además estamos hablando
de tamaño de tubo, ya que el tamaño aprovechable siempre es menor.
Radiación:
El monitor es un dispositivo que pone en riesgo la visión del usuario. Los monitores producen
radiación electromagnética no ionizante (EMR). Hay un ancho de banda de frecuencia que
oscila entre la baja frecuencia extrema (ELF) y la muy baja frecuencia, que ha producido un
debate a escala mundial de los altos tiempos de exposición a dichas emisiones por parte de los
usuarios. Los monitores que ostentan las siglas MPRII cumplen con las normas de radiación
toleradas fuera de los ámbitos de discusión.
Ventajas y desventajas
Las ventajas de los LCD frente a los CRT son su tamaño, su menor consumo, y el hecho de que
la pantalla no tiene parpadeo. Al no requerir el uso de un único tubo de imagen, los monitores
LCD tienen un tamaño, especialmente un fondo mucho menor, haciéndolos ideales para
ordenadores portátiles o en entornos donde escasea el espacio. El consumo de estos monitores
es también mucho menor, de ahí su adecuación al mundo de los portátiles, donde la durabilidad
de las baterías es de crucial importancia.
El parpadeo en las pantallas LCD queda sumamente reducido por el hecho de que cada celda
donde se alojan los cristales líquidos está encendida o apagada, de modo que la imagen no
necesita una renovación (refresco). Las desventajas vienen dadas por el costo, el ángulo de
visión, la menor gama de colores y la pureza del color.
El costo de fabricación de los monitores LCD es superior al de las pantallas CRT, no sólo por la
tecnología empleada, sino también por su escaso uso que hace que las cantidades en las que son
fabricados sean pequeñas.
Puesto que la luz de las pantallas LCD es producida por tubos fluorescentes situados detrás de
los filtros, en vez de iluminar la parte anterior como en los monitores CRT, con una visión
diagonal, la luz pasa a través de los pixeles (cristales) contiguos, por lo que la imagen se
distorsiona a partir de un ángulo de visión de 100º 0 140º dependiendo de que monitor sea.
Las variaciones de voltaje de las pantallas LCD actuales, que es lo que genera los tonos de
color, solamente permite 64 niveles por cada color (6 bit) frente a los 256 niveles (8 bit) de los
monitores CRT, por lo que con tres colores se consiguen un máximo de 262.144 colores
diferentes (18 bit) frente a los 16.777.216 colores (24 bit) de los monitores CRT. Aunque
262.144 colores son suficientes para la mayoría de las aplicaciones, esta gama de colores no
alcanza para trabajos fotográficos o para reproducción y trabajo con video.
El modo entrelazado
Cualquier monitor VGA a color del modelo estándar puede operar con la resolución más baja
(480 líneas) de un adaptador VGA a una frecuencia de refresco de pantalla de 70 Hz. Sin
embargo, tal operación resulta del todo imposible con una mayor resolución. Por este motivo, la
mayoría de las tarjetas VGA utilizan frecuencias de exploración vertical más bajas con
resoluciones más elevadas, con lo cuál el monitor dispone de más tiempo para construir dichas
líneas de más. El inconveniente de este método es que a menudo provoca un notable parpadeo,
sobre todo en aquellas imágenes con grandes zonas de brillo intenso. El modo Interlaced
(entrelazado) es un método para que el adaptador de gráficos reduzca dicho parpadeo hasta el
punto de conseguir una calidad de imagen mínimamente aceptable. En este modo, en lugar de
transmitir todos los pixeles en serie, el controlador de video se saltea las líneas pares de la
pantalla. De esta forma, el monitor solo tiene que explorar la mitad de los pixeles de la pantalla
en cada pasada vertical. La recomposición de pantalla siguiente se limitará por consiguiente a la
otra mitad de los pixeles de la pantalla. Por así decirlo, el controlado de video alterna la
transmisión de dos imágenes al monitor, y cada una de estas imágenes contiene tan sólo la mitad
de la información de pantalla. El monitor puede operar fácilmente con las medias pantallas,
incluso a 70 Hz. porque tan sólo se exploran la mitad de líneas cada vez, y esto es así también
cuándo toda la pantalla dispone de más líneas.
Tarjetas de vídeo
La tarjeta VGA
La Video Graphics Adapter (VGA) significó la aparición de un nuevo estándar del mercado.
Esta tarjeta ofrece una paleta de 256 colores, dando como resultado imágenes de colores mucho
más vivos. Las primeras VGA contaban con 256KB de memoria y solo podían alcanzar una
resolución de 320x200 puntos con la cantidad de colores mencionados anteriormente. Primero
la cantidad de memoria video RAM se amplió a 512KB, y más tarde a 1024KB, gracias a ésta
ampliación es posible conseguir una resolución de, por ejemplo, 1024x768 pixeles con 8 bits de
color. En el modo texto la VGA tiene una resolución de 720x400 pixeles, además posee un
refresco de pantalla de 60HZ, y con 16 colores soporta hasta 640X480 puntos.
La tarjeta SVGA
La tarjeta SVGA (Super Video Graphics Adapter) contiene conjuntos de chips de uso especial,
y más memoria, lo que aumenta la cantidad de colores y la resolución.
El estándar XGA soporta una resolución máxima de 1024x768 pixeles, con una paleta gráfica
de 256 colores, o 640x480 con una profundidad de color de 16 bits por pixel (65.536 colores)
El estándar XGA-2 soporta mayor profundidad de color para el modo 1024x768 y mayor
frecuencia de refresco de pantalla, además de una resolución de 1360x1024 a 16 colores. Todos
estos modos de pantalla conservan la relación de aspecto 4:3 redondeado a 8 pixeles.
El acelerador gráfico:
La primera solución que se encontró para aumentar la velocidad de proceso de los gráficos
consistió en proveer a la tarjeta gráfica de un circuito especial denominado acelerador gráfico.
El acelerador gráfico se encarga de realizar una serie de funciones relacionadas con la
presentación de gráficos en la pantalla, que de otro modo, tendría que realizar el procesador. De
esta manera, le quita tareas de encima a este último, y así se puede dedicar casi exclusivamente
al proceso de datos. La velocidad con que se ejecutan las aplicaciones basadas en Windows para
el manejo de gráficos se incrementa muy notablemente, llegando al punto (con algunas placas)
de no necesitar optimizar la CPU. El estándar hoy día está dado por los aceleradores gráficos de
64 bits. También, aunque no tan comunes, hay aceleradores gráficos de 128 bits.
El coprocesador gráfico:
Posteriormente, para lograr una mayor velocidad se comenzaron a instalar en las tarjetas de
video otros circuitos especializados en el proceso de comandos gráficos, llamados
Los gráficos en tres dimensiones son una representación gráfica de una escena o un objeto a lo
largo de tres ejes de referencia, X, Y, Z, que marcan el ancho, el alto y la profundidad de ese
gráfico. Para manejar un gráfico tridimensional, éste se divide en una serie de puntos o vértices,
en forma de coordenadas, que se almacenan en la memoria RAM. Para que ese objeto pueda ser
dibujado en un monitor de tan sólo dos dimensiones (ancho y alto), debe pasar por un proceso
que se llama renderización.
VESA
VESA, Video Electronics Standards Association (Asociación para estándares electrónicos y
de video) es una asociación internacional de fabricantes de electrónica. Fue fundada por NEC en
los años 80 del siglo XX, con el objetivo inicial de desarrollar pantallas de vídeo con una
resolución común de 800x600 píxeles
5. UNIDADES DE DISCO
Para encontrar los sectores, un motor de giro mueve el diskete a una velocidad de 300
rotaciones por minuto.
Tunelamiento: para grabar las pistas, el cabezal graba los datos entre dos pistas de borrado. De
esta manera no se producen solapamientos entre pistas adyacentes.
Disco Duro
Los discos duros constituyen la unidad de almacenamiento principal del ordenador, donde se
almacenan permanentemente una gran cantidad de datos y programas. También conocida como
memoria de almacenamiento masivo.
Esta información que almacena no puede ser procesada directamente por el microprocesador,
sino que, en un paso previo, deben transferirse a la memoria principal donde pueden manejarse.
Las unidades de los discos duros contienen 2 o más discos (platillos) apilados sobre un eje
central y aislados completamente del exterior.
Un disco duro está formado por una serie de discos o platillos apilados unos sobre otros dentro
de una carcasa impermeable al aire y al polvo. Son de aluminio y van recubiertos de una
película plástica sobre la que se ha diseminado un fino polvillo de óxido de hierro o de cobalto
como material magnético.
La superficie de los platillos se divide en pistas concéntricas numeradas desde la parte exterior
empezando por la pista número 0. Cuántas más pistas tenga un disco de una dimensión
determinada, más elevada será su densidad, y por tanto, mayor será su capacidad.
Todas las cabezas de lectura / escritura se desplazan a la vez, por lo que es más rápido escribir
en la misma pista de varios platillos que llenar los platillos uno después de otro. El conjunto de
pistas del mismo número en los diferentes platillos se denomina cilindro.
Así por ejemplo, el cilindro 0 será el conjunto formado por la pista 0 de la cara 0, la pista 0 de la
cara 1, la pista 0 de la cara 2, la pista 0 de la cara 3, etc. Un disco duro posee, por consiguiente,
tantos cilindros como pistas hay en una cara de un platillo.
Las pistas están divididas a su vez en sectores con un número variable de 17 a más de 50. Estos
sectores poseen varios tamaños: los situados más cerca del centro son más pequeños que los del
exterior, aunque almacenan, sin embargo, la misma cantidad de datos, 512 bytes. La densidad,
pues, es mayor en los sectores internos que en los externos.
Los discos duros más modernos que utilizan un procedimiento denominado Zone-bit-recording
colocan un número de sectores distinto en función del diámetro de la pista.
En los discos duros más antiguos el número de sectores es el mismo para cada pista. Seria
lógico pensar que todos los discos duros tienen un número par de cabezas ya que hay un número
par de caras de los platillos. Sin embargo, en la práctica, una cara de un platillo puede contener
informaciones específicas que sirven para el posicionamiento de las cabezas.
Por este motivo, hay discos que tienen un número impar de cabezas. De igual forma, es posible
reservar también uno o varios cilindros.
• Una caja metálica hermética protege los componentes internos de las partículas de polvo; que
podrían obstruir la estrecha separación entre las cabezas de lectura / escritura y los discos,
además de provocar el fallo de la unidad a causa de la apertura de un surco en el revestimiento
magnético de un disco.
Direccionamiento
• Plato: Cada uno de los discos que hay dentro del disco duro.
• Cabeza: Número de cabezal; equivale a dar el número de cara, ya que hay un cabezal por
cara.
• Pista: Una circunferencia dentro de una cara; la pista 0 está en el borde exterior.
• Cilindro. Conjunto de varias pistas; son todas las circunferencias que están alineadas
verticalmente (una de cada cara).
Actualmente al instalar un disco duro el BIOS lo detecta automáticamente, de no ser así, entonces
entramos al SETUP del BIOS, en la sección de Standard CMOS Setup, donde nos muestra la
información general de nuestro sistema, en donde también nos muestra la cantidad de discos duros
instalados, el disco aparecerá en los apartados de “master” o “slave” dependiendo de la
configuración con la que instalo, en las siguientes imágenes se muestra la configuración del disco
en la modalidad de maestro o esclavo
En la configuración de maestro, el jumper debe estar colocado por lo general a la izquierda, al lado
del cable de comunicación, verificar en la parte de abajo, donde muestra la flecha, que se
encuentre una leyenda “MA” al nivel de los pines que estamos cerrando con el jumper.
Caché de Disco
La Caché de disco es una memoria de estado sólido, tipo RAM, dentro del disco duro de estado
sólido. Los discos duros de estado sólido utilizan cierto tipo de memorias construidas con
semiconductores para almacenar la información. El uso de esta clase de discos generalmente se
limita a las supercomputadoras, por su elevado precio
El teclado
Según el tipo de ordenador al que vaya a conectarse, existen tres tipos de teclado que son:
• Teclado XT de 83 teclas
• Teclado AT de 83 teclas
• Teclado expandido de 102 teclas (101 en versión americana), que más recientemente es de
105 teclas.
102 teclas
105 teclas
Desde el punto de vista de las teclas en sí, existen dos tipos de teclado: teclado de contacto y
teclado capacitivo.
Mecánico : usa pequeños interruptores individuales para cada tecla. Cuando se presiona una
tecla se cierra el interruptor y permite el paso de la corriente. Tiene el inconveniente de ser
bastante vulnerable a la suciedad, de forma que después de un tiempo de uso es posible que
alguna de sus teclas empiece a fallar; este teclado se nota porque al pulsar una tecla, suena el tic
del pulsador.
De membrana : las teclas llevan una membrana de goma que al pulsar hace que se unan dos
pistas conductoras en la parte inferior y permite el paso de corriente; son similares a las que
llevan las calculadoras. Estas membranas pueden ser individuales para cada tecla o bien una
lámina completa con membranas que se mueven con cada tecla. Al pulsar una tecla, no suena
como el mecánico. Estos teclados son más económicos.
El teclado Capacitivo: Es de más calidad y más caro que el de contacto, teniendo una vida de
uso bastante más larga. Este teclado está construido sobre una tarjeta de circuito impreso
grabada, de tal forma que cuando se pulsa una tecla, ésta hace presión sobre un condensador, el
cual produce una señal eléctrica que es detectada e interpretada por el procesador de teclado.
Teclados ergonómicos, con diseños especiales para adaptarse a la posición natural que tienen
las manos al escribir; también se denominan teclados naturales.
Teclados con funciones especiales que han aparecido recientemente. El teclado contiene todas
las teclas de una máquina de escribir más algunas suplementarias. Estas teclas permiten realizar
funciones especiales como: desplazamiento del cursor, inserción, borrado, bloqueo del
deslizamiento de imagen, etc…
La introducción del PS/2 de IBM inauguró la moda de utilizar conectores mini DIN para
teclados y ratones. La tendencia actual es utilizar conectores USB para ambos dispositivos de
entrada. Más recientemente se está extendiendo la moda de dispositivos inalámbricos
("Wireless"). Esto no significa que tales modelos no utilicen el conector de teclado; lo que en
realidad desaparece es el cable entre el dispositivo que se conecta al conector del PC y el propio
teclado. La moda comenzó con los de enlace infrarrojo, pero actualmente casi todos son de
radio-frecuencia
Adaptador USB/mini-DIN.
Hay que asegurarse de que el conector de nuestro teclado se adapta al tipo de conector que hay
en la placa base del ordenador. Para conectar un teclado USB hay que activarlo en el SETUP.
7. IMPRESORAS
Tipos de Impresoras
Según la tecnología que empleen se puede hacer una primera clasificación. Los más comunes
son los siguientes: Matricial, de inyección de tinta (o inkjet) y láser.
Las impresoras matriciales han sido muy empleadas durante muchos años, ya que las otras
tecnologías han sido desarrolladas posteriormente, y en un principio eran muy caras. Hoy en día
han sido sustituidas en muchos entornos por sus competidoras, pero todavía son irreemplazables
en algunas tareas.
Asi pues, son las únicas que permiten obtener varias copias de un mismo impreso. Esto resulta
muy conveniente cuando tenemos la necesidad de realizar varias copias de un mismo
documento con la mayor rapidez y que se ejecuten en distintos impresos.
Por ejemplo, cuando necesitamos que cada copia esté hecha en un papel de distinto color, y con
algún texto identificativo. En este caso, mediante papel autocopiativo de varias hojas lo
podemos realizar de una forma rápida y barata, principalmente cuando la información es de tipo
textual.
Sus principales características son su elevado ruido, y su poca definición, pero en la vertiente de
ventajas podemos considerar su economía tanto en compra como en mantenimiento. Aunque
hoy en día sus precios de compra van parejos a los de las inkjet, ofreciendo éstas más ventajas.
Son sólo aconsejables para la impresión de texto, siempre que éste no requiera gran calidad, y
mayormente cuando empleamos papel continuo.
La tinta se obtiene de unos cartuchos reemplazables que dependiendo del tipo de impresora
pueden ser más o menos.
Algunas impresoras utilizan dos cartuchos, uno para la tinta negra y otro para la de color, en
donde suelen están los tres colores básicos. Estas impresoras tienen como virtud la facilidad de
manejo, pero en contra, si utilizamos más un color que otro, nos veremos obligados a realizar la
Esto hace que estas impresoras sean bastante más caras de mantenimiento que las que
incorporan un cartucho para cada color, pero también suelen ser más económicas en el precio de
compra.
También podemos encontrar las famosas impresoras con calidad fotográfica, que suelen contar
con cartuchos de 4 colores en vez de 3.
Las características principales de una impresora de inyección de tinta son la velocidad, que se
mide en páginas por minuto (ppm) y que suele ser distinta dependiendo de si imprimimos en
color o en monocromo, y la resolución máxima, que se mide en puntos por pulgada (ppp). En
ambos valores, cuanto mayores mejor.
Láser.
Las últimas impresoras que vamos a ver van a ser las de tecnología láser. Esta tecnología es la
misma que han utilizado mayormente las máquinas fotocopiadoras desde un principio, y el
material que se utiliza para la impresión es un polvo muy fino que pasa a un rodillo que
previamente magnetizado en las zonas que contendrán la parte impresa, es pasado a muy alta
temperatura por encima del papel, que por acción de dicho calor se funde y lo impregna.
Estas impresoras suelen ser utilizadas en el mundo empresarial, ya que su precio de coste es más
alto que el de las de inyección de tinta, pero su coste de mantenimiento es más bajo, y existen
dispositivos con una muy alta velocidad por copia y calidad y disponibilidad superiores, así
como también admiten una mayor carga de trabajo.
Una pega es que aun y existiendo modelos en color, su precio todavía sigue siendo astronómico
para la mayor parte de economías, y su velocidad relativamente baja, siendo los modelos más
habituales los monocromos.
Una de las características más importantes de estas impresoras es que pueden llegar a
velocidades muy altas, medidas en páginas por minuto. Su resolución también puede ser muy
elevada y su calidad muy alta. Empiezan a ser habituales resoluciones de 1.200 ppm (puntos por
pulgada) y velocidades de 16 ppm, aunque esta velocidad puede ser mucho mayor en modelos
preparados para grupos de trabajo, hasta 40 ppm y más.
Vamos a tratar ahora de otras impresoras de uso mucho menos común, pero que cubren ciertas
necesidades concretas del mercado, como pueden ser los grandes formatos o la calidad
fotográfica.
Plotters
Constituyen una categoría de reciente aparición; usan métodos avanzados como la sublimación
o las ceras o tintas sólidas, que garantizan una pureza de color excepcional, si bien con un coste
relativamente elevado en cuanto a consumibles y una velocidad baja.
La calidad de estas impresoras suele ser tal, que muchas veces el resultado es indistinguible de
una copia fotográfica tradicional, incluso usando resoluciones relativamente bajas como 200
ppp. Sin embargo, son más bien caras y los formatos de impresión no suelen exceder el clásico
10x15 cm, ya que cuando lo hacen los precios suben vertiginosamente y nos encontramos ante
impresoras más apropiadas para pruebas de imprenta y autoedición.