UTI

TALLER N.-3
HARDWARE Y SOFTWARE

CHRISTIAN NÚÑEZ – BRENDA TORRES
26/09/2013

1

TALLER N.-3

Contenido
HARDWARE Y SOFTWARE.....................................................................................................3
ANTECEDENTES HISTORICOS...............................................................................................3
EL SOFTWARE............................................................................................................................6
EL HARDWARE..........................................................................................................................7
AUTOMATIZACION...................................................................................................................8
APLICACIONES DE LOS ROBOTS........................................................................................10
CONCLUSIONES:.....................................................................................................................10
Introducción.................................................................................................................................12
1.1.Historia del computador antes del ordenador personal.........................................................14
El primer microprocesador, y el estado actual de la industria.....................................................24
Estándares de la industria............................................................................................................28
Componente básicos de un PC actual..........................................................................................30
Conclusión...................................................................................................................................32
PREGUNTAS PARA EL EXAMÉN..........................................................................................33

2 Universidad Tecnologica Indoamerica

TALLER N.-3
HARDWARE Y SOFTWARE
ANTECEDENTES HISTORICOS

La segunda guerra en Japón y la unificación de los países europeos. Hasta el extremo de
plantear su superación por parte del complejo Japón-Cuenca del Pacífico. Efectivamente la
evolución de algunos indicadores macroeconómicos abona en favor de esta idea Hegemonía
económica y contradicción estado-capital.
Hablar de hegemonía conlleva una serie de complicaciones que van desde el contenido
necesariamente multifacético del concepto hasta la falta de rigor con que ha sido utilizado en la
teoría.
La capacidad de liderazgo, pero desde la perspectiva de la construcción de consensos planteada
por Gramsci, la hegemonía económica estribaría en la capacidad para determinar el paradigma
tecnológico sobre el cual se asienta la reproducción material global y para establecer los modos
de su implantación generalizada

En estados unidos la producción de plusvalor, busca la ventaja tecnológica y organizativa en su
campo específico incrementando así sus ganancias

Su proceso de acumulación y a su capacidad innovativa generadora de nuevas y superiores
formas de apropiación de la naturaleza. Concretamente proponemos dos, como los elementos
definitorios de la hegemonía económica: la ubicación en la división internacional y nacional del
trabajo y su dimensión específica, por un lado, y la capacidad generadora o sintetizadora de los
conocimientos científicos y tecnológicos

3 Universidad Tecnologica Indoamerica

TALLER N.-3
Hay dos maneras de acercarse al proceso y al producto: los medios de producción y los medios
de subsistencia, con base en los cuales se desarrolla toda la complejidad y sofisticación
capitalista. La estructura de la producción bifurcada en las famosas ramas I y II tiene una
estructura jerárquica que va reproduciendo, en los distintos niveles, la subordinación fundante
del trabajo vivo bajo el capital o trabajo objetivado.
La tecnología electroinformática los elementos determinantes son el microprocesador o cerebro
de la computadora y la memoria. El microprocesador contiene las instrucciones de
funcionamiento plasmadas objetivamente en el diseño de sus circuitos, pero es incapaz de
funcionar sin el apoyo de una memoria o almacén de datos que deben ser utilizados en el
funcionamiento básico de la computadora. Como el problema que nos ocupa concierne a la
supremacía mundial y en este nivel de concreción ésta se procesa a través del liderazgo de los
diferentes capitales, marcaremos en cada caso la situación de competencia a través de la
posición de las empresas. Mucho se ha hablado de la superioridad de Japón en el campo de la
microelectrónica y con razón. Esta es una de las ramas en que las empresas japonesas han
logrado avances considerables, rebasando en algunos aspectos a Estados Unidos o Europa En la
producción de memorias, medular como ya señalábamos, el liderazgo lo tiene Toshiba, pero
Intel es número uno en microprocesadores.
En las tecnologías de aplicación programable (TAP) se expresan las dos ramas de la
electroinformática bajo la imagen de hardware y software o CAM CAD, de manera que
identificaremos cada una de ellas y marcaremos su importancia relativa. En el caso del CAM,
los sistemas programables son principalmente tres: robots, máquinas herramienta de control
numérico y sistemas de manufactura flexible, siguiendo su orden de complejidad.
El robot, que es sin duda la máquina herramienta más perfeccionada que se conoce, ha sido uno
de los campos de especialización de las empresas japonesas, con Matsushita a la cabeza, y las
4 Universidad Tecnologica Indoamerica

TALLER N.-3
máquinas herramienta de control numérico, que tradicionalmente eran un área de los europeos,
ahora son producidas en un 75 % por Japón. El caso de los sistemas de manufactura flexible es
mucho más difícil de determinar porque su producción consiste en una integración de máquinas
de control numérico, software y en ocasiones robots para fines específicos, es decir, es una
producción sobre pedido en la que, muchas veces, coincide el usuario con el productor. Lo
fundamental en los SMF, lo que permite diferenciarlos del resto, es la tecnología blanda
Los principales productores de fibras ópticas en el mundo son AT&T y Siecor, aunque los
japoneses han desarrollado métodos de fabricación alternativos que parecen prometedores. Los
aparatos de codificación son producidos por AT&T y los satélites por Hughes Aircraft, Ford
Aerospace y RCA-GE, todas estadounidenses. Una situación similar se presenta en la
tecnología para la colocación de satélites en órbita, donde todavía predomina la NASA.
Las llamadas tecnologías blandas o software. Actualmente, en que el equipo ha logrado grandes
adelantos, se encuentra en el área del software la posibilidad de aumentar su versatilidad. El
perfeccionamiento y complejización de los programas es lo que está permitiendo una mayor
automatización al conseguir integrar las diferentes fases de los procesos de trabajo, o los
procesos de trabajo dispersos geográficamente, o la producción con el mercado, etc. Dentro de
la producción los simuladores se han convertido en una pieza clave para el diseño de nuevos
productos con cero errores, en los que se puede corregir, modificar, desechar aun antes de
producir la mercancía, eliminando al máximo posible los costos por producción defectuosa.
Asimismo, el mejor aprovechamiento de los materiales, el control de inventarios y hasta la
revisión interna de la maquinaria para detectar piezas gastadas es campo de desarrollo del
software.
Las dos empresas líderes en software son Microsoft Systems e IBM. La primera controla el
llamado sistema operativo, de uso universal y obligado y que constituye una especie de
5 Universidad Tecnologica Indoamerica

TALLER N.-3
equivalente general en al campo de la electroinformática. IBM se encuentra en la frontera del
desarrollo de los sistemas de CAD-CAE y la inteligencia artificial. Este liderazgo se mantiene
en las redes de comunicación de datos con Novell y la disputa en todo caso se encuentra
ubicada entre Novell, IBM y General Motors.

EL SOFTWARE
Software en la automatización – El control de procesos computarizado es el uso de programas
digitales en computadora para controlar el proceso de una industria, hace el uso de diferentes
tecnologías como el PLC está guardado en el proceso de una computadora. Hoy en día el
proceso computarizado es muy avanzado ya que los procedimientos de datos y otras funciones
se pueden controlar más.
En cuanto al proceso de los datos que se introducen a la computadora y los que salen de ella se
implementan sistema de monitoreo y control que es lo que para principalmente se usa el
software en la automatización. Para monitorear un proceso información de manufactura tiene
que ser introducido para que la interfaz de la computadora sepa que monitorear.

la confiabilidad del software creado. Sin embargo, la fuerte unión del software con el hardware
en los sistemas electromecánicos requiere de un sistema de validación completo. Los
ingenieros están cambiando de una simple ejecución de fase de “despliegue” a una ejecución de
fases de “diseño-prototipo-desplegado”. La fase de diseño incluye la simulación de
características mecánicas, térmicas y de flujo de los componentes del hardware en el sistema,
adicional a los algoritmos y lógica de control que podrían controlar estos componentes
6 Universidad Tecnologica Indoamerica

TALLER N.-3

LabVIEW ofrece un solo ambiente para el diseño de sistemas gráficos desde su diseño,
creación de prototipo, hasta el despliegue del sistema final.

EL HARDWARE
Los sistemas de automatización de mañana desempeñarán tareas complejas en una variedad de
productos, con frecuencia de manera simultánea. Los retos del hardware en el diseño de dichos
sistemas son lograr flujo del proceso, la producción, y el tiempo de funcionamiento mientras se
logra cumplir la compleja tarea de automatización
1. Flujo del Proceso
La velocidad de su máquina afecta directamente el flujo del proceso. Para lograr grandes
velocidades, use componentes mecánicos con menor fricción, como un motor lineal es vez del
actuador tipo tornillo. Puede mejorar la velocidad del sistema de control usando tecnologías
embebidas, como los FPGAs con ciclos de ejecución de 1 MHz en lugar de los tradicionales
PLCs con ciclos de 1 kHz. Los sistemas de tipo servo continúan dominando las máquinas
alejándose cada vez más de los sistemas tradicionales.
2. Producción
La reducción de desechos con alto nivel de repetición es clave para lograr una mejor
producción. Programar la máquina para seguir perfiles de control de movimiento deseados
resulta crítico para fijar el nivel de repetición. Puede lograrlo al ajustar sus motores con tiempos
7 Universidad Tecnologica Indoamerica

TALLER N.-3
de ajuste pequeños y menos sobredisparos para la respuesta de un paso. Para un mejor ajuste,
utilice métodos de control basados en modelos para lograr los correctos parámetros de ajuste
PID o reemplazar algoritmos PID tradicionales con algoritmos de control basados en modelos.
Tecnologías, como la inspección automatizada y RFID, juegan un papel importante en manejar
rechazos, lo cual agiliza las velocidades del proceso.

3. Tiempo de Funcionamiento

Una máquina moderna requiere un manejo de más de 10 productos en la misma línea de
manufactura. No es sólo la confiabilidad de los componentes en el sistema, también los tiempos
de relevo entre los diferentes productos que afectan el tiempo de funcionamiento del sistema.
Puede modificar el tiempo de funcionamiento al reconfigurar el algoritmo de control para
adaptar el sistema a un conjunto diferente de condiciones con un producto diferente en la línea
de producción.
AUTOMATIZACION

Definición:

Automatización es la tecnología que trata

de la aplicación de sistemas mecánicos, electrónicos y
de bases computacionales para operar y controlar la
producción. Esta tecnología incluye
Las características esenciales que distinguen la automatización flexible de la programable son:
Capacidad para cambiar partes del programa sin perder tiempo de producción y la Capacidad
para cambiar sobre algo establecido físicamente asimismo sin perder tiempo de producción.

8 Universidad Tecnologica Indoamerica

TALLER N.-3
Razones para la automatización

Incrementa la productividad

Alto costo de mano de obra

Mano de obra escasa

Tendencia de mano de obra con respecto al sector de servicios

Seguridad

Alto costo de materiales en bruto

Mejora la calidad del producto

Reduce el tiempo de manufactura

Reducción del proceso de inventarios

Alto costo de la no automatización

En contra
A favor
1. La automatización resultará en la 1. La automatización es la clave para una
dominación o sometimiento del ser humano semana laboral más corta
por la máquina
2. Habrá una reducción en la fuerza laboral, 2. Brinda condiciones de trabajo más seguras
con el resultante desempleo
para el trabajador
3. La automatización reducirá el poder de 3. La producción automatizada resulta en
compra.

precios más bajos y en mejores productos
4. El crecimiento de la industria de la
automatización

proveerá

por

si

misma

oportunidades de empleo
5. Automatización es el único significado para
incrementar el nivel de vida

9 Universidad Tecnologica Indoamerica

TALLER N.-3
APLICACIONES DE LOS ROBOTS.
Ambientes riesgosos.
Trabajo de repetición ciclica: más consistencia y rapidez que un humano.
Dificultad de manejo de herramientas por parte de los seres humanos: en el caso de
herramientas pesadas o difíciles de manipular.
Muti operaciones: en estos casos, la máquina llega a sustituir varios trabajadores, no sólo
uno.
Posiciones y orientación establecidas: Tiene mayor grado de exactitud.

CONCLUSIONES:
Si aplicamos estos temas hacia el tema visto en clase lo que concluimos en cuanto a estos
temas es la mejor forma de transportar de una manera más rápida los productos. Es acerca de el
transporte en forma de carrusel para tener un mejor control del producto, y así después poder
arreglarlo de una manera más rápida (como se especifica en un documento), en cuanto al
software si lo aplicamos hacia el control y mantener el orden de los productos, es muy
importante contar con un software capaz de llevar el control y un orden de los productos, para
que todo esté coordinado de una manera perfecta. Con el fin de evitar la pérdida de tiempo
innecesaria lo cual también puede estar influyendo en el caso que se nos presentó, al tener un
software y un manejo del producto mejor implementado se ahorra en tiempo y se escatima en
gastos de personal para mantener el control.
Si hablamos de automatización casi inmediatamente lo relacionamos con los robots, en el caso
de la empresa, necesitaría una buena inversión al principio para poder comprar la maquinaria
sin embargo suponemos que a futuro las ganancias serían todavía mayores.

10 Universidad Tecnologica Indoamerica

TALLER N.-3
Como pudimos observar existe mucho material que nos ayuda a encontrarle solución al
problema, porque se encontró maquinaria que puede llevar a acabo las actividades solicitad

La computación
antes del ordenador
personal,
y sus expectativas de futuro

11 Universidad Tecnologica Indoamerica

TALLER N.-3

Introducción

En este trabajo hablaremos de los diferentes hallazgos producidos en las distintas áreas de las
ciencias que han conducido hasta la computación tal y como la conocemos actualmente. Más
adelante explicaremos los detalles por los que las empresas más importantes están situadas hoy
en día como están, y porqué otras fueron relegadas al olvido. Haremos una pequeña explicación
de los estándares manejados a lo largo de la historia del PC y sus componentes básicos.

12 Universidad Tecnologica Indoamerica

TALLER N.-3

13 Universidad Tecnologica Indoamerica

TALLER N.-3

1.1.Historia del computador antes del ordenador personal

Para hablar del ordenador personal y su evolución histórica, debiéramos antes definir lo que se
entiende por ordenador personal.

14 Universidad Tecnologica Indoamerica

TALLER N.-3
Dando una definición formal, se podría decir que un ordenador personal, o pc de aquí en
adelante, es cualquier ordenador que sea compatible con el modelo IBM, cuya primera versión
fue lanzada en 1981, y que más adelante explicaremos detalladamente.

Haremos una evolución de la historia de la computación en orden cronológico (advirtiendo que
la computadora no es un invento de ninguna figura en particular y sí de los descubrimientos en
distintas áreas de la ciencia), para comprender mejor cómo se ha llegado hasta la informática
actual, destacando los eventos y descubrimientos que se han producido en este campo desde
1617 con el ábaco de John Napier o ábaco neperiano, el mismo matemático de éxito reconocido
por el desarrollo del logaritmo, aunque el origen del ábaco se remonta al 500 adC en China.
Más tarde en el 300 adC un matemático hindú llamado Pingala describe el sistema de
numeración binario.

En 1822, Charles Babbage desarrolla la máquina analítica, el primer computador de propósito
general, por lo que es considerado por muchos como el padre de la computación moderna.

En 1906 se patenta el triodo en un tubo de vacío, que se utilizaría posteriormente como un
dispositivo electrónico en los primeros computadores eléctricos.

15 Universidad Tecnologica Indoamerica

TALLER N.-3

En 1936 Alan Turing realiza estudios sobre una hipotética máquina, que se considera uno de
los fundamentos de la computación moderna, a la cuál se le denominará máquina de Turing.

En 1941 Konrad Zuse culminaría el trabajo del Z3, la primera computadora en trabajar
eléctricamente y con métrica binaria, aunque no se le considera realmente como un computador
de propósito general, si es una computadora que trabaja bajo instrucciones. IBM compraría la
licencia de su Z4.

Nace el primer ordenador electromecánico en 1944, partiendo de la idea de Babbage, llamada
la Mark I, y con la subvención de IBM.

16 Universidad Tecnologica Indoamerica

TALLER N.-3
En 1945 John Von Neumann describe la arquitectura de lo que serán los ordenadores con
capacidad para almacenar programas, es decir, con memoria. Adoptándose en la actualidad y
casi desde entonces éste modelo, los ordenadores dejarían de necesitar cambios en el hardware
para realizar distintos cálculos o tener diferentes capacidades, ya que funcionarían en base de
las instrucciones leídas.

La primera computadora de propósito general es concebida en Pensilvania con el nombre de
ENIAC. Esta máquina que data de 1946 necesita de todo un sótano de la universidad para
desplegarse, consume unos 180KW de electricidad y contiene más de 18000 tubos de vacío,
dando una capacidad de 5000 operaciones aritméticas por segundo. Para la entrada salida eran
utilizadas tarjetas perforadoras.

Durante el año 1947 se desarrolla el transistor, permitiendo así el nacimiento de una revolución
en la computación.

Un ratón eléctrico encuentra la salida a un laberinto en el año 1952 a manos de Shannon,
considerándose ésta la primera red neural.

IBM desarrolla su primera computadora, la 701 durante 1952. Un año más tarde es anunciada
la 650, la primera computadora de producción a escala industrial.

En los laboratorios Bell se anuncia la creación de la primera computadora que funciona a base
de transistores exclusivamente, esto fue en el año 1955.

Al siguiente año, IBM lanza el primer disco magnético de almacenamiento.
17 Universidad Tecnologica Indoamerica

TALLER N.-3

En 1960 se desarrolla en los laboratorios de Bell el primer modem, consiguiendo así
conversiones entre señales analógicas y digitales.

Ya en el año 1961, IBM posee el 81.2 % de cuota de mercado de ordenadores, con el
lanzamiento de la serie 1400. Ya desde el 1959 IBM había entrado en el mercado de los
ordenadores de transistores con el serie 7000.

En 1964, desarrollan el primer supercomputador de la historia. Diseñado por Konrad Zuse y
Seymour Cray, es capaz de realizar 3 millones de instrucciones por segundo.

Ese mismo año, IBM anuncia y lanza el System/360, una familia de 6 computadores, que
utilizaban el mismo software, y un conjunto de periféricos compatibles entre sí. Dio pie a la
tercera generación de computadores al empezar a utilizar circuitos integrados, en vez de los
18 Universidad Tecnologica Indoamerica

TALLER N.-3
impresos, esto permitió disponer de una mayor cantidad de dispositivos electrónicos en un
misma área una placa, que los sistemas de impresión no permitían. La arquitectura con estas
prestaciones, sería la que sentaría las bases para el resto de computadores desarrollados. Fue el
primer ordenador en ser atacado por un virus.

Durante el año 1966 Hewlett-Packard entra en el mercado de las computadoras con una gran
aceptación. Un año antes se comercializa el primer minicomputador a manos de Digital
Equipment Corp.

En el año 1969 se empieza a esbozar lo que sería el futuro de Internet, cuando el departamento
de defensa de los EEUU establece nodos de conexión entre las universidades de California,
Santa Bárbara, Los Ángeles y Utah.

El diskette es desarrollado por IBM en el ‘71.

El microprocesador 8008 de Intel, fue lanzado al mercado en 1972 como su segundo
microprocesador tras haber lanzado el 4004 destinado a calculadoras. La compañía fue fundada
en 1968 por Gordon Moore y Robert Noyce.

Durante la década de 1970-1980 se producen una gran cantidad de avances en distintos campos
relacionados con la informática tanto a nivel corporativo como personal, tales como la memoria
virtual, desarrollo de la memoria dinámica de tipo RAM, mejoras en los procesadores, nuevas
compañías que se introducen en el mercado tanto de procesadores como de otros componentes;
es el caso de Seagate con los discos duros, Motorola con los microprocesadores, Apple con sus
versiones I y II, o la primera versión comercial de Internet llamada Telnet.
19 Universidad Tecnologica Indoamerica

TALLER N.-3

Xerox, compañía con un muy pobre carácter empresarial, desarrolla la primera interfaz gráfica
para usuarios en 1981. Años más tarde la compañía Apple se encontraba en la fase de
desarrollo de una nueva interfaz gráfica de ventanas e iconos que más tarde Bill Gates calcaría
para desarrollar su versión de Windows 3.x. Consiguiendo así ser pioneros comercialmente en
el mundo de los sistemas operativos con interfaz gráfica, aunque, debido a su precipitación en
el desarrollo produce una gran cantidad de errores que arrastrará el sistema operativo a lo largo
de su breve historia, y caracterizará a Microsoft como una empresa poco fiable en sus
productos. A pesar de todo, Microsoft se afianza en el mercado dominándolo absolutamente,
relegando a Apple a un segundo puesto tras el lanzamiento un año más tarde su Macintosh.

Este mismo año IBM lanza el ya popular PC basado en el chip de Intel 286 y con 6 Mhz. Al
mismo tiempo Philips y Sony lanzan el compact disc digital audio.

1989 fue el año elegido por Intel para lanzar el microprocesador 486(P4) con mas de un millón
de transistores. Además lanza también el chipset para placas base 486. En este año se denota la
supremacía de Intel en el campo de los microprocesadores.

Durante los años 80 y principios de los 90 se siguen produciendo avances en todos los campos,
pero de carácter poco significativos en relación a los ya mencionados, como puedan ser el
nacimiento del lenguaje C, la programación orientada a objetos, la resolución de diversos
problemas matemáticos, el desarrollo del hipertexto o el protocolo de transmisión HTTP para la
transmisión de datos por Internet, el desarrollo de Linux tras los avances de Unix.

20 Universidad Tecnologica Indoamerica

TALLER N.-3
Cabe destacar que en el año 1991, los laboratorios AT&T (antiguos Bell) desarrollan un
prototipo de procesador óptico que parece sonar como opción alternativa a los semiconductores
y la electricidad, con un consumo mucho menor y una capacidad de paralelización muy
potente. Hasta la fecha, no parece que se haya conseguido avanzar demasiado en este campo y
aunque se han construido diversos prototipos no parece suficiente para dar un salto cuantitativo
importante.

Dos años más tarde, un grupo de investigadores descubren que un rasgo de la física cuántica
llamado entrelazamiento, puede dar lugar a una nueva vía en la computación y la teleportación.
Esta alternativa, parece más consistente que la de los procesadores ópticos. Actualmente
empresas de la talla de IBM han desarrollado varios prototipos y siguen investigando en ello.
En cuanto a la teleportación, la misma empresa ha conseguido teleportar electrones, abriendo
un gran abanico de posibilidades, que dejan también muchas incógnitas en el aire. Existe una
gran cantidad de bibliografía al respecto, en referencia a la computación cuántica, como prueba
de la gran repercusión a nivel científico que está teniendo esta vía.

En el año 2002 Intel bate la barrera de los 3Ghz con el Pentium 4.

En el 2005 comienza la “época de los multinúcleos” con los Pentium dual-core, debido a la
dificultad y el costo que requeriría la producción de procesadores con una reducción de micras,
y que al paso actual parece tener su límite alrededor del año 2015, donde se espera llegar a las
12 micras, a partir de las cuales se produce el llamado efecto túnel, haciendo que los electrones
se salgan del conductor perdiendo así la conductividad y por tanto la información.

21 Universidad Tecnologica Indoamerica

TALLER N.-3
1.2.Ordenadores modernos. Del tubo de vacío al transistor.

Podemos decir que cualquier ordenador digital es una colección de conmutadores electrónicos,
estos interruptores o conmutadores son utilizados en una variante de on/off debido a la
naturaleza del binary digit ó bit. Los primeros conmutadores que se utilizaron para construir
ordenadores fueron los tubos de vacío, y aunque cumplían su papel, daban una larga serie de
problemas, eran incapaces de funcionar durante muchas horas sin romperse o fundirse. El
primero en utilizarse fue el modelo de Lee De Forest que hemos expuesto anteriormente, se
denominaba triodo, y su nombre venía dado por la estructura. Por un lado tenía un cátodo, y al
otro lado un ánodo de plata, separados por una rejilla de control y
suspendidos en un tubo de vacío. El cátodo es calentado por un filamento
eléctrico que desprende electrones. Éstos electrones serán atraídos por la
plata. La rejilla del medio será la que controlará cómo se producirán los
cambios de tensión, disponiendo sobre sí misma un potencial negativo,
repelerá los electrones y los hará volver al cátodo, y viceversa, colocando
un potencial positivo serán atraídos por la plata. De éste modo, controlando la rejilla central,
decidimos si tenemos el conmutador en on/off, aunque su mayor funcionalidad es la de hacer
de amplificador, ya que a partir de un pequeño potencial eléctrico en la rejilla
podremos controlar los potenciales del cátodo y el ánodo. También se le reconoce una mayor
virtud que los semiconductores para la reproducción de sonido en equipos de alta fidelidad.

Como

ya

hemos

comentado,

los

triodos

consumían

22 Universidad Tecnologica Indoamerica

TALLER N.-3
una ingente cantidad de energía eléctrica para realizar su cometido, y además añadían la
problemática de que se estropeaban en breves espacios de uso. Así que, el invento del
semiconductor fue un gran avance en la construcción de computadores, porque precisamente
corrige estos problemas, al ser mucho más pequeños y consumir muchísima menos energía. Y
es en éstos aspectos entorno a los que ha girado la industria de los microprocesadores desde la
invención del semiconductor, aunque tal vez más centrada en la miniaturización, que en la
reducción de consumo. Éste último aspecto ha sido objeto de numerosos avances en los últimos
años, por la necesidad de alargar la vida de las baterías en los portátiles, y por la necesidad de
un cambio de conciencia en la sociedad respecto al consumo energético. En la siguiente gráfica
observamos la evolución de la miniaturización en los procesadores.

23 Universidad Tecnologica Indoamerica

TALLER N.-3
El primer microprocesador, y el estado actual de la industria.

Para hablar del primer microprocesador, hay que recordar que durante muchos años sólo
existieron memorias de tipo magnético. En 1968 se fundó Intel con la intención de cambiar esta
tendencia, y dos años más tarde consiguen desarrollar un chip de memoria basado en
semiconductores, pese a la diferencia de precio existente entre un bit magnético y un bit
construido con silicio, existiendo una relación de un penique por bit y un dollar por bit
respectivamente. Debido al existo de las memorias de Intel, una empresa japonesa llamado
Busicom requirió a Intel los derechos para realizar chips para calculadoras de alto rendimiento,
pero la condición de Intel a la concesión de derechos, fue instar a Busicom a realizar un chip de
propósito general que funcionara leyendo las instrucciones de una memoria. Busicom no tardó
demasiado en terminar el objetivo, e Intel compró los derechos del descubrimiento
inmediatamente, sin ser consciente de la importancia de la compra de esos derechos. Pero la
consecuencia inmediata fue el lanzamiento del Intel 4004 microcomputer set de 4 bit, el que
sería el primer microprocesador de la historia, y que no recibiría tal nombre en ese momento.
Desde el 71, año del lanzamiento del 4004, Intel continua la progresión de sus
microprocesadores , incrementando el número de transistores, mejorando el ancho de los
canales de transmisión, e implementando nuevas funcionalidades casi en solitario. AMD, o
Advanced microsystem devices según sus siglas, fue durante unos años otra de las compañías
que se dedicó a construir procesadores de bajo coste con los diseños de Intel. Más adelante, en
1999 entra en el mercado independientemente con el Athlon para competir directamente con el
dominador absoluto del mercado. En la actualidad, ésta rivalidad continúa, habiendo ambos
desbancado al resto de pequeños competidores, y centrando ahora el futuro en el procesamiento
paralelo, con la producción de microprocesadores con varios núcleos, con versiones para
sobremesa y portátiles, siendo éstos últimos, versiones economizadoras de energía.

24 Universidad Tecnologica Indoamerica

TALLER N.-3
Por otro lado, explicaremos las razones del éxito del ordenador personal de IBM sobre el de la
empresa Apple. Con el desarrollo del ordenador personal por parte de IBM, ésta encargó a
terceras empresas la producción y el desarrollo del sistema operativo y de la bios, la primera
parte recaló en manos de Microsoft, y la segunda en manos de empresas como AMI(American
Megatrends), Phoenix, u otras. Esto permitió que otros fabricantes de ordenadores pudieran
construir de manera más independiente sus sistemas, y permitir una mayor compatibilidad de
periféricos y programas, además claro está, de un montaje más sencillo entre componente
diferentes. En el otro extremo de la balanza, se encuentra Apple, que desde un inicio quiso
producir su propio sistema operativo y su propia Bios, impidiendo a otras empresas producir
software y elementos compatibles con esta plataforma, relegándola hasta la actualidad, a una
cuota de mercado reducida de entre el 3% y el 5%.

Hay que recalcar el hecho de que IBM encargara a Microsoft el desarrollo de un sistema
operativo para su plataforma, ya que se produjo un hecho que posteriormente, sería en sí mismo
la explicación de la dominación de Microsoft en el mercado del software. Estamos hablando de
lo que se puede llamar quizás un error por parte de IBM, tal y como fue el no comprar los
derechos sobre el MS-DOS de Microsoft, y permitir que ésta pudiera vender a cualquier otro
fabricante su sistema operativo. Esto produjo varias cosas, una de ellas es la que ya hemos
comentado, permitió una mayor expansión de los sistemas de pc-compatibles de IBM, aunque
sólo fuera el concepto, ya que el beneficio se repartía entre otras muchas empresas fabricantes
de ordenadores. Otra de las consecuencias, fue el acaparamiento por parte de Microsoft de la
industria del software, ya que a través de la ventaja de la compatibilidad, se aprovechó de la
situación para vender en un mismo paquete, una ingente cantidad de servicios y productos de
software con el sistema operativo. Y decimos que se aprovechó, porque se conocen prácticas
ilegales y monopolistas por parte de Microsoft, para impedir la intromisión de otras empresas
25 Universidad Tecnologica Indoamerica

TALLER N.-3
que compitieran con su gama de productos. Prácticas que actualmente parecen haber relajado.
A base de imposiciones judiciales se ha conseguido que Microsoft ceda su posición
monopolista. Así que, tenemos una balanza a estudiar, y es que, por una lado, permitió una
mayor cantidad de versiones económicas de ordenadores con una misma interfaz operativa, con
una mayor facilidad para el usuario final poco avanzado en la informática, pero por otro lado,
tenemos el reproche de las prácticas ilegales que han llevado a cabo durante muchos años, y
que la han aupado a una posición dominante en la industria del software.

Para terminar con la industria del hardware, nos gustaría añadir algo sobre empresas
ensambladoras y productoras de hardware. En el lado de las empresas productoras de
componentes de hardware como placas base, y componentes de otro tipo tenemos a HP,
Compaq(que ahora pertenece a HP) e IBM entre otras. En el sector ensamblador tenemos a
empresas del tipo Dell, Acer, Gateaway etc.. compañías que aprovechan su capacidad para
comprar grandes cantidades de hardware, obtener descuentos de las manufactureras, y así poder
sacar un beneficio ensamblando ordenadores genéricos para el usuario final. ¿Y quienes son las
empresas que lideran el sector manufacturero? Obviamente Intel, las razones, ya han sido
comentadas anteriormente. Observemos una tabla con los mayores vendedores de componentes
hardware del 2002 como el siguiente:

26 Universidad Tecnologica Indoamerica

TALLER N.-3

Como podemos ver, la diferencia entre Intel y el resto de competidores es abismal, Samsung
como productor de memorias de tipo flash, es la única que quizá con menos ruido, ocupa uno
de los puestos más altos.

27 Universidad Tecnologica Indoamerica

TALLER N.-3

También observamos como empresas de la talla de AMD estan en un puesto bastante mediocre,
quizá algo que no aparenta ser así.

Estándares de la industria.

28 Universidad Tecnologica Indoamerica

TALLER N.-3
Hemos hablado de los primeros procesadores funcionando a 8 bits, y posteriormente, las
arquitecturas de los PC´s evolucionarion a los 16, 32 y en la actualidad a los 64. Aunque
realmente muchos procesadores funcionaban entre placa base y micro a 64 bits, los registros
internos de éstos últimos funcionaban internamente a 32 por lo que no eran una evolución real.
Lo interesante de hablar de éstos datos, es que podemos clasificar los ordenadores en dos
grandes grupos. Los ordenadores de 8 bit que se clasifican como sistemas PC/XT, y el resto de
sistemas de 16,32 y 64 bits que se clasifican como clase AT. Éstos términos, como no, son los
legados de IBM e la industria. Una conclusión a extraer de esta clasificación es que los
problemas entre ordenador de 8 bits, responden siempre a naturalezas diferentes a las de los
ordenadores que funcionan con buses mayores. Las principales diferencias entre utilizar unos
buses mayores que otros no son más que mayor cantidad de espacio direccionable, mayor
precisión en los registros, y una mayor productividad con una frecuencia similar.

Los buses más utilizados en la industria responden a arquitecturas AT, entre los que solemos
encontrar el ISA(usado para antiguas tarjetas gráficas por ejemplo) y el PCMCIA a 16
bits(ampliamente utlizado para tarjetas externas en los portátiles antiguos), EISA y el PS/2
16/32 bits(muy utilizado para los ratones hasta hace unos años), PCI a 32 o 64 bits(para todo
tipo de tarjeta a insertar en las placas bases),PCI-Express,AGP a 32 bits(éstas dos últimas
utilizadas para el soporte gráfico, con una gran ancho de banda).

Para diferenciar un sistema de 8bits, normalmente basta con observar la placa base y
comprobar si dispone de entradas ISA como la de la imágen.

29 Universidad Tecnologica Indoamerica

TALLER N.-3

Componente básicos de un PC actual.

30 Universidad Tecnologica Indoamerica

TALLER N.-3
No están numeradas en el dibujo, solo es un dibujo orientativo, las que numeramos a
continuación son las piezas claves de un ordenador personal.

La placa base podemos decir que es el centro neurálgico del sistema, todo se conecta a través
de ella, y ella controla el flujo de datos y que hace cada cosa en cada momento.

El procesador es el motor principal, donde se realizan todos los cálculos y peticiones.

La memoria ram es otro de los componentes pilares de un sistema, es de tipo volátil y de rápido
acceso, cercana al procesador para los datos que van a ser solicitados con una temporalidad casi
inmediata.

El disco duro es el otro componente indispensable para el funcionamiento en sí del ordenador,
es de tipo no volátil, se utiliza para almacenar grandes cantidades de información, e intercambia
los datos con la memoria ram.

Para la entrada/salida del PC tenemos una serie de componentes tales como el monitor, el ratón,
el teclado, la tarjeta de video, la tarjeta de sonido, el módem, el DVD/CD o disquette. Que no
son indispensables para el funcionamiento pero si para el interacción entre usuario y PC.

31 Universidad Tecnologica Indoamerica

TALLER N.-3
Conclusión

Podemos sacar una conclusión en claro, y es que la industria de la informática ha centrado en
los últimos años sus esfuerzos en la miniaturización del transistor como único objetivo, pero en
un sistema basado en el silicio se nos presenta la problemática del efecto túnel, y la
imposibilidad de reducir más el tamaño de los chips. En este punto, estamos a la espera de
nuevas alternativas a la computación actual, o seguir esquivando escollos cada vez más
complicados en la industria del silicio. En cuanto a los magnates de la industria del hardware y
del software actual, podemos sacar varias conclusiones significantes, que su poderío es
abrumador sobre el resto de competidores en el mercado, y que no escatimarán esfuerzos en
hacer que sea aún mayor, hemos visto como desde sus inicios realizaban prácticas ilegales y
desleales, y que continuarán mientras los consumidores continuemos con la dinámica actual.
Por último, hacemos una breve introducción a los componentes del pc, que más adelante
explicarán otros compañeros en profundidad.

En cuanto al tema de la computación cuántica, justo después de la exposición he visto un curso
en la facultad que se convalida como créditos de libre llamado introducción a la computación
cuántica. En el mismo momento de la realización yo mismo subestimé la repercusión que este
tipo de alternativa tendría, pero parece que estamos ante una base sólida que abre las puertas a
una nueva manera de entender la informática.

Referenciar también el enlace que puse en las diapositivas a la página de greenpeace sobre el
ranking de fabricantes “verdes”
http://www.greenpeace.org/espana/campaigns/contaminaci-n/electr-nicos-alta-tecnologa/ranking-verde-de-electr-nicos#

32 Universidad Tecnologica Indoamerica

TALLER N.-3
y el enlace a una página, que también tiene bastante documentación interesante sobre
contaminación y residuos generados por los ordenadores. http://www.xtec.net/~acastan/
en ella encontraran un pdf bastante amplio sobre todo ésto, con referencias documentadas.

PREGUNTAS PARA EL EXAMÉN

¿Qué se entiende por ordenador personal?

Un ordenador que pertenece a una única persona física o jurídica.

Un ordenador compatible con el modelo desarrollado por IBM en 1981

Una computadora que realiza cálculos concretos

¿Cómo se llamaba la máquina de Charles Babbage, considerado el primer computador de
propósito general?

Máquina computadora avanzada

Máquina de tarjetas perforadas

Máquina analítica.

¿Cúal fue el dispositivo electrónico que se utilizaba en los primeros computadores
eléctricos?

Triodo en tubo de vacío

Z3

Z4

33 Universidad Tecnologica Indoamerica

TALLER N.-3
¿Quién desarrolló la primera computadora electrónica y con métrica binaria, es decir, la
Z4?

Alan Turing

Konrad Zuse

McCulloch y Pitts

La primera computadora de propósito general....

Fue construida con más de 18000 tubos de vacío y se le denominó ENIAC

Se llamaba ENIAC, y consumía 1MW a la hora

No realizaba cálculos aritméticos.

1947 fue un gran año para la industria informática debido a...

Que muere “Manolete”, torero español cuyos movimientos corporales se
asemejan a un electrón agitado e inspira a un miura de 500Kg a matarlo.

Que los EEUU deciden usar la ONU para crear un estado judío independiente en
la región de Palestina.

Que los laboratorios BELL desarrollan el transistor, construidos con silicio y
germanio, propiciando la futura revolución del sector.

Años después del descubrimiento del transitor...

IBM lanza las primeras computadoras de producción industrial que funcionan
con transistores exclusivamente, la 701 y la 650.

Realmente, fueron los laboratorios Bell quienes desarrollaron los primeros
ordenadores en funcionar únicamente con transistores.

Aún siguen produciéndose computadores que funcionen tanto parcial como
completamente con tubos de vacío.

34 Universidad Tecnologica Indoamerica

TALLER N.-3

En 1964 se da pie a la tercera generación de computadores tras la revolución del
transistor.

Fue debido al empleo de circuitos integrados en lugar los circuitos impresos.

En realidad sólo existieron dos generaciones, las iniciales con dispositivos
mecánicos, y la de los transistores, el resto se puede considerar una evolución de
éstas.

Con la construcción de supercomputadores a 15nm que permitían realizar
cálculos inmensos como los cambios metereológicos.

El primer microprocesador de la recién fundada Intel...

Funcionaba a 4 bits y no fue reconocido como un microprocesador hasta años
más tarde.

Era conocido comercialmente como 8008, funcionaba a 8 bits, y fue
desarrollado originalmente por Busicom.

Estaba destinada a calculadoras, y fue denominado microcomputer set 4004.

¿Cuál es la tendencia actual en la construcción y diseño de nuevos procesadores?

Se aboga por el paralelismo, incluyendo varios microprocesadores en una sóla
unidad, procesadores multinúcleos.

Seguir reduciendo el tamaño de construcción del procesador hasta alcanzar el
nivel máximo, estimado en 12 nm, a partir del cual se produce el efecto túnel.

Se estudian alternativas viables de construcción y fundamento, entre las que se
podría encontrar la computación cuántica.

35 Universidad Tecnologica Indoamerica

TALLER N.-3
El modelo de tubo de vacío de Lee De Forest...

Funcionaba gracias al flujo de neutrones entre el cátodo y el ánodo, que eran
regulados por la rejilla de control.

Se llamaba triodo debido al número de componentes de su estructura básica. Un
ánodo, un cátodo, y una rejilla de control

Era un dispositivo electrónico de gran fiabilidad y duración, aunque fue
sustituido por maximizar beneficios en la industria.

El descubrimiento del transistor, ¿en qué mejoraba con respecto al tubo de vacío?

Permitía una gran reducción de costes de producción y una mayor simplificación
para la refrigeración de los sistemas.

Permitía reducir los costes de mantenimiento y uso, ya que consumía mucho
menos que el tubo de vacío, así como una mayor funcionalidad por espacio
utilizado debido a la miniaturización que permitía

El cambio producido era una campaña de marketing, fundada en la convicción
de que un cambio de aires impulsaría el consumo de ordenadores.

¿Qué factores fueron determinantes en el éxito del modelo IBM-compatible sobre los de
Apple?

El hecho de que IBM delegara la creación de BIOS y sistema operativo a
empresas externas, permitiendo una mayor compatibilidad de periféricos y
programas.

Los

ordenadores

de IBM

fueron siempre

cuidadosamente

diseñados

artísticamente hablando.

IBM siempre estuvo a la vanguardia de lo que requería la sociedad de consumo

36 Universidad Tecnologica Indoamerica

TALLER N.-3

Una empresa ensambladora es...

Una empresa que realiza programas en ensamblador o código de bajo nivel.

Una empresa que compra las piezas hardware de un ordenador, y realiza el
ensamblado del conjunto para distribuirlo.

Una empresa que produce componentes hardware de un ordenador.

El uso de anchos de buses mayores permite...

Una mayor cantidad de espacio direccionable, mayor precisión en las métricas y
mayor velocidad de transmisión.

Reducir costes en la fabricación

Aumentar la capacidad de una memoria sin necesidad de realizar cambios
estructurales.

Los ordenadores construidos con silicio y/o germanio

Son el mejor legado ambiental que hemos podido recibir en una sociedad de
consumo indiscriminado

Son la única alternativa posible y viable en temas computacionales.

Consumen una ingente cantidad de energía, y la mayor parte de ésta se consume
durante su fabricación.

37 Universidad Tecnologica Indoamerica