You are on page 1of 30

Guía Práctica de Tecnología | Miranda Sara MARQUINA

I – HISTORIA DE LA COMPUTACION

1.1 El Abaco o Tabla de Cálculo

Un ábaco es un cuadro de madera que contiene varillas paralelas. En estas barras hay dispuestas
una cantidad determinada de bolas móviles, que pueden desplazarse hacia arriba o abajo ó de
derecha a izquierda, dependiendo del tipo de ábaco.

Algunos modelos de ábacos incluyen un travesaño que divide las varillas. De esta forma las bolas
que se encuentran por encima de ese travesaño son múltiplos de cinco, mientras que las se hallan
debajo son múltiplos de uno. Cada barra representa un decimal.

El ábaco fue creado para realizar operaciones aritméticas sencillas, incluyendo sumar, restar,
multiplicar y dividir, e incluso para encontrar raíces cuadradas o cúbicas.

Se lo considera el primer dispositivo con el cual es posible realizar cálculos matemáticos, siendo
uno de los instrumentos de cálculos más antiguo. Se utilizó principalmente por las culturas
orientales.

La palabra ábaco proviene del término griego “abax”, el cual significa “tabla de contar”. Esto es
porque los griegos utilizaban el ábaco para poder resolver ecuaciones matemáticas.

Sin embargo, existen indicios que demuestra casi con certeza que el ábaco pudo tener sus orígenes
en China. El ábaco chino es una herramienta que permite realizar cálculos numéricos, fue
ampliamente utilizado en el Este de Asia. En China, en ciudades urbanas o en las áreas más
atrasadas, aún el ábaco sigue siendo utilizado por alguna persona mayor en una tienda que ofrezca
productos en venta. Los comerciantes utilizaban el ábaco para contabilizar las cifras. El ábaco se
conoce como “suanpan” (算盤, tablero de cálculo) en China. Ha sido mencionado en documentos
chinos desde la época antes de Cristo (BC).

El ábaco chino tiene cuentas ensartadas en hilos o varillas de madera fina. Hay un divisor que
separa de izquierda y derecha una serie de cadenas de bolas. El ábaco chino tiene dos cuentas en
las barras en un lado y 5 cuentas en las varillas del otro lado del divisor. Ábacos chinos están
diseñados para permitir el cómputo hexadecimal. Las versiones romanas y japoneses están
diseñados para cálculos en base 10. El ábaco chino se puede utilizar para sumar, restar, dividir,
multiplicación y para obtener raíces cuadradas y raíces cúbicas.

En el ábaco chino dos cuentas ensartadas representan cada uno de cinco y cinco cuentas
ensartadas representan cada uno. Cada barra tiene un valor decimal: la primera representa
unidades; la segunda representa decenas; la tercera representa cientos; y etc. No necesariamente
se tiene que empezar con las unidades.

En primer lugar, se deben mover todas las bolas fuera de la división central. Si una bola se coloca al
lado de la división central o hacia ella, significa que se activa y tiene un valor. Si deseas grabar un
número, por ejemplo, el número 7, simplemente mueve una de las cuentas que representa el
número cinto hacia el divisor central, y luego mueve dos cuentas que representen unidades hacia
el divisor.

1
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Si quieres sumar utilizando el ábaco chino, digamos que deseas añadir 7 + 5 es igual a 12. Con esta
realización, nos damos cuenta que 7 + 5 es obviamente más grande que 10 por lo que el número
no puede ser mostrado sólo utilizando la cadena de unidades. Entonces deberás en primer lugar
verificar que todas las cuentas estén inactivas, es decir lejos de la división central. Ahora, para
registrar el número 12, primero debes mover dos perlas que representen a las unidades. A
continuación, mueve una cuenta que represente a las decenas. Como puedes ver, utilizar el ábaco
es fácil. Solo se necesita cálculo mental y habilidad para grabar el resultado.

Pero lo cierto es que en definitiva el ábaco es el instrumento de cálculo más antiguo. Se calcula que
el ábaco existe como tal desde hace más de 5.000 años.

En cuanto a la relación entre la informática y el ábaco, la mayoría de los historiadores coinciden en


señalar que el origen de la informática se encuentra en el ábaco chino. No obstante, otros
aseguran que existió un primer acercamiento entre el ábaco y la informática, cuando el filósofo
romano Boethius, en su libro sobre geometría puntualmente en el capítulo dedicado al ábaco,
explicó el método por el cual las cuentas del ábaco podían ser reemplazadas por una sólo cuenta
que tuviese marcados los dígitos del 1 al 9.

1.2 El sistema decimal de numeración

El sistema decimal es un sistema de numeración en el que las cantidades se representan utilizando


como base el número diez, por el que se compone por cifras diferentes cero, uno, dos, tres, cuatro,
cinco seis, siete, ocho y nueve. La representación de estos números puede depender de las
distintas culturas y épocas. Si bien, es el sistema de numeración usada en todo el mundo es la
arábiga de origen indio o fenicio.

Es cierto que existen ciertas técnicas, como por ejemplo la informática, donde se utilizan sistemas
de numeración adaptados al método de trabajo como el binario o el hexadecimal. También pueden
existir en algunos idiomas algunos vestigios del uso de otros sistemas de numeración, como el
quinario, el duodecimal y el vigesimal. Por ejemplo cuando se cuentas artículos por docenas, las
docenas de huevos en muchos países, o cuando se emplean palabras especiales para designar
ciertos números, en francés el número ochenta se expresa como cuatro veintenas.

El sistema decimal es un sistema de numeración posicional, por lo que el valor del dígito depende
de su posición dentro del número: 1.234

41.234 = 4 x 10.000 + 1 x 1.000 + 2 x 100 + 3 x 10 + 4 x 1

Tiene algunas características:

 En base diez, un número primo sólo puede acabar en uno, tres, siete o nueve. Las seis
posibilidades restantes generan siempre números compuestos.
 Los números acabados en dos, cuatro, seis, ocho y cero son múltiplos de dos.
 Los números acabados en cero y cinco son múltiplos de cinco.

1.3 Los logaritmos – La regla de Cálculo

2
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Los logaritmos se inventaron con el propósito de simplificar, en especial a los astrónomos, las
engorrosas multiplicaciones, divisiones y raíces de números con muchas cifras.

El concepto de logaritmo se debe al suizo Jorst Bürgi y su nombre tiene un significado muy
explicativo: logaritmo significa “número para el cálculo”. El escocés John Napier enseguida lo
aprovechó para publicar en 1614 su obra “Mirifici logaithmorum canonis descriptio” (descripción
de la maravillosa regla de los logaritmos) con las primeras tablas de logaritmos para el seno y el
coseno de un ángulo a intervalos de 1’ y con siete cifras. Pero veamos cuál fue su genial idea.

La idea clave: trabajar con los exponentes de potencias es más fácil. Ejemplo, con potencias de 2:

En los cálculos anteriores ha sido una gran ventaja trabajar con los exponentes de las potencias, en
lugar de hacerlo con los números del principio. Gracias a ello, para hacer el producto sólo hemos
tenido que hacer una suma de exponentes; para el cociente, una diferencia; etc. Si los números
con los que hay que operar no están entre esas potencias de 2, esos nuevos números, y
cualesquiera otros positivos, aunque no estén en la tabla dada de potencias de 2, también pueden
expresarse como potencias de 2 con exponentes racionales. Se puede usar cualquier número
racional como base, por ejemplo, el 10. Así:

3
Guía Práctica de Tecnología | Miranda Sara MARQUINA

La regla de cálculo fue la calculadora mecánica rápida, útil y portátil, utilizada por generaciones de
científicos, ingenieros y arquitectos . Su primer diseño data del siglo XVII, se generalizó su uso en el
XIX, en el XX fue ubicua hasta que se vio rápidamente eclipsada por la aparición de las calculadoras
digitales a comienzos de los años setenta.

Se fabrican en multitud de formatos, con las escalas dispuestas en líneas, círculos, espirales o
cilindros. Pero el elemento clave común a todas ellas es la escala logarítmica. Descriptos por
primera vez por John Napier en 1614, los logaritmos fueron acogidos y reformulados rápidamente.
Dispuestos en forma de tablas, los logaritmos permitían traducir prolijas multiplicaciones y
divisiones a sumas y sustracciones mucho más sencillas.

Las reglas de cálculo más básicas son especialmente adecuadas para la multiplicación y la división.
Con la incorporación de escalas adicionales el instrumento puede realizar operaciones más
complejas, como operaciones trigonométricas o extracción de raíces. Modificando las escalas
estándar, se pueden incorporar fórmulas y constantes para multitud de aplicaciones concretas
(química, ingeniería mecánica o eléctrica, finanzas, etc, etc.).

Edmund Gunter construyó el primer instrumento logarítmico colocando escalas logarítmicas en


una regla y realizando cálculos con un par de divisores (esta disposición permite imprimir una
escala Gunter en un libro de texto). La escala Gunter se introdujo en 1620 y dio paso rápidamente
a su transformación en una regla de cálculo autocontenida simplemente usando dos reglas que
podían deslizarse una respecto a la otra linealmente. Aunque es un dato discutido, se suele atribuir
la construcción de la primera regla de cálculo a William Oughtred en 1622, quien también inventó
la primera con formato circular

La regla de cálculo tuvo un lugar preeminente como vanguardia de las matemáticas relativamente
breve; pronto se convertiría en un instrumento de uso cotidiano de profesores y profesionales.

Pasó poco tiempo hasta encontrar reglas de cálculo adaptadas al uso de agrimensores, carpinteros,
artilleros o navegantes, con la aparición de manuales como el de Seth Partridge (1671) para
aprender rápidamente su uso. Durante el siglo XIX, la eminentemente británica regla de cálculo se
convierte en un instrumento de uso global: su diseño como calculadora multiusos se estandariza,
mientras que el diseño de aplicaciones específicas, de la química a las finanzas, se multiplica.

1.4 Mecanismos de ENGRANAJE. PASCAL y LEIBNITZ - 1.4.1. La PASCALINA

4
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Una rueda dentada es una rueda que puede girar y que tiene dientes en su periferia con la misión
de engranar (encajar) con los dientes de otra rueda para transmitir el movimiento.

Los engranajes son mecanismos formados por varias ruedas dentadas unidas por sus dientes con el
fin de transmitir la velocidad de rotación de una a otra. Permiten transmitir un movimiento circular
entre dos ejes próximos, ya sean paralelos, perpendiculares u oblicuos. No necesitan correa de
transmisión ni otro medio de unión, simplemente están unidas por sus dientes.

Blaise Pascal en 1642 desarrolló una calculadora mecánica que contenía un mecanismo de dientes
de engranaje interconectados. El invento era en que uno de los ejes al haber girado diez veces
movía el siguiente diente, el cual contenía las decenas y así sucesivamente.

En 1642, a los 19 años, Pascal concibió la idea de la pascalina con el fin de facilitar la tarea de su
padre, que acababa de ser nombrado superintendente de la Alta Normandía por el cardenal
Richelieu, y que debía restaurar el orden de los ingresos fiscales de esta provincia.

La pascalina abultaba algo menos que una caja de zapatos y era baja y alargada. En su interior, se
disponían unas ruedas dentadas conectadas entre sí, formando una cadena de transmisión, de
modo que, cuando una rueda giraba completamente sobre su eje, hacía avanzar un diente a la
siguiente posición (un diente o un número, pues cada diente del engranaje corresponde a un
número del 0 al 9).

Las ruedas representaban el «sistema decimal de numeración». Cada rueda constaba de diez
pasos, para lo cual estaba convenientemente marcada con números del 9 al 0. El número total de
ruedas era ocho (seis ruedas para representar los números enteros y dos ruedas más, en el
extremo derecho, para los decimales). Con esta disposición «se podían obtener números entre
0'01 y 999.999'99».

Mediante una manivela se hacía girar las ruedas dentadas. Para sumar o restar no había más que
accionar la manivela en el sentido apropiado, con lo que las ruedas corrían los pasos necesarios.
Cuando una rueda estaba en el 9 y se sumaba 1, ésta avanzaba hasta la posición marcada por un
cero. En este punto, un gancho hacía avanzar un paso a la rueda siguiente. De esta manera se
realizaba la operación de adición.

5
Guía Práctica de Tecnología | Miranda Sara MARQUINA

A partir de este proyecto, Pascal consiguió los derechos exclusivos de vender y fabricar
calculadoras en Francia. Pero la Pascalina resultó ser un fracaso, ya que su coste era demasiado
elevado para su época y resultaba más fácil contar con los dedos que utilizar la máquina.

En 1694 el alemán Gottfried Leibniz perfeccionó la calculadora anterior de forma en la que podía
multiplicar y dividir e invento la forma de hacer sumas y restas de manera automática y repetitiva

Leibniz terminó de diseñar otra sumadora mecánica en 1694, la cual ya tenía la posibilidad de
realizar sumas, restas, divisiones, multiplicaciones y raíces cuadradas, a lo que se le llamo
“Calculadora Universal”. Lo que diferenciaba esta máquina de las anteriores conocidas era la
posibilidad de multiplicar y dividir gracias a un contador de pasos (repeticiones numéricas) que
antes solo se conseguían manualmente.

Lebniz ideó un dispositivo capaz de realizar múltiples sumas y restas: un contador de pasos,
consistente en una rueda dentada cilíndrica con nueve dientes o varillas de longitud variable. Esta
rueda dentada, en forma de tambor cilíndrico, impulsaba la maquinaria de los cálculos por medio
de otra rueda menor, también dentada, que se desplazaba a lo largo de su eje por medio de un dial
que marcaba el numero por el que se quería multiplicar o dividir. Así, la máquina repetía la suma o
la resta el número establecido de veces, hasta conseguir la multiplicación o la división deseada.
Este original dispositivo recibe el nombre de rueda escalada de Leibniz.

1.5 Las Tarjetas Perforadas. La producción en serie. JACQUARD y WHITNEY

La producción en serie consiste en la fabricación en masa de gran cantidad de artículos, utilizando


procesos estandarizados secuenciales. Se basa en descomponer todo el proceso productivo en
varios procesos ejecutables y en un tiempo estándar. Este proceso también es conocido como
producción en cadena o producción en masa.

Aunque el término exacto de la producción en serie fue popularizado a partir de la década de


1920, por el auge del modelo productivo del fordismo creado por Henry Ford; en realidad la
producción en serie tiene sus orígenes en los principios de la organización científica del trabajo del
taylorismo, creado por Frederick Winslow Taylor.

Esta organización científica del trabajo y la especialización de la mano de obra en tareas específicas
fueron presentándose de manera aislada en varias industrias en el siglo XIX, tales como en las
Armerías de Springfield y Harpers Ferry, Singer, McCormick, Pope y Western Wheel Works, las
cuales se habían vuelto muy ágiles para la fabricación de grandes cantidades de piezas y partes de
sus productos. Sin embargo, encontraron una problemática en el proceso de montaje que
ocasionaba estancamientos en el proceso productivo.

Es en ese momento que el fordismo toma auge, cuando Henry Ford establece la línea de montaje
en la Ford, alcanzando en 1913 la producción de 800 automóviles diarios; logrando resolver la
problemática y dando paso a la revolución de la producción en serie.

6
Guía Práctica de Tecnología | Miranda Sara MARQUINA

El auge de la producción en serie también se benefició por la estrategia de Ford para bajar costos y
vender un mayor número de vehículos a precios accesibles, lo cual hizo que la producción en serie
se convirtiera en un rotundo éxito como modelo productivo y fuera implementado y difundido en
muchas industrias hasta la actualidad.

Las características principales de la producción en serie son las siguientes:

 Adecuada planificación de las fases del proceso productivo estandarizado.


 Estandarización del producto, maquinaria, diseño, materiales y fuerza laboral.
 Distribución de las instalaciones operativas acorde a la secuencia de producción.
 División de las fases del proceso productivo entre trabajadores y máquinas específicas,
especializadas para cada etapa.
 Progresión secuencial del producto a través del proceso productivo de forma planeada,
ordenada y continua.
 Ciclo de trabajo repetitivo pero inteligente.
 Generación de costos de fabricación más bajos comparados con la producción individual.

En 1725, un francés hijo de un fabricante de órganos, Basile Bouchon, adapta el concepto de los
mecanismos de relojería utilizados en las cajas de música a la tarea repetitiva de un telar operado a
través de una cinta perforada. Este invento será perfeccionado el 1728 por su asistente, Jean-
Baptiste Falcon, que utilizará una serie de tarjetas perforadas ligadas entre ellas. En 1745 el
ingeniero francés e inventor de autómatas mecánicos, Jacques de Vaucanson, aplica sus
conocimientos y crea el primer telar automático. Sobre la base de estos dos inventos, en 1801
Joseph Marie Jacquard crea un famoso telar mecánico de tarjetas perforadas. Estas permitían que
hasta los usuarios más inexpertos pudieran elaborar complejos diseños en una tela.

El matemático británico Charles Babbage, conocedor de los trabajos de máquinas calculadoras


realizadas por Blaise Pascal y Gottfried Leibniz, intentó entre 1833 y 1842 construir una máquina
que fuese programable para hacer cualquier tipo de cálculo, no solo los referentes al cálculo de
tablas logarítmicas o funciones polinómicas. Esta fue la máquina analítica. Su proyecto incluía
dispositivos de entrada basados en las tarjetas perforadas del telar Jacquard, un procesador
aritmético, que calculaba números, una unidad de control que determinaba qué tarea debía ser
realizada, un mecanismo de salida y una memoria donde los números podían ser almacenados
hasta ser procesados. En 1842 el ingeniero, matemático italiano Luigi Federico Menabrea escribe
Nociones sobre la máquina analítica de Charles Babbage, texto inicialmente publicado en francés.

Ada Lovelace, matemática y escritora británica, hija de Lord Byron, se enteró de los esfuerzos de
Babbage y se interesó en su máquina. Lee y traduce al inglés el artículo de Menabrea, y en
septiembre de 1843 Lovelace publica en la revista Scientific Memoirs, con el título de "Sketch of
the analytical engine invented by Charles Babbage" su propio estudio sobre la máquina analítica,
con la traducción como anexo. En uno de los apartado, describe con detalle las operaciones
mediante las cuales las tarjetas perforadas "tejerían" una secuencia de números en la máquina
analítica. Este código está considerado como el primer algoritmo específicamente diseñado para
ser ejecutado por un ordenador, aunque nunca fue probado ya que la máquina nunca llegó a
construirse.

7
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Herman Hollerith desarrolló la tecnología de procesamiento de tarjetas perforadas de datos para el


censo de los Estados Unidos de América de 1890 y fundó la compañía Tabulating Machine
Company (1895) la cual fue una de las tres compañías que se unieron para formar la Computing
Tabulating Recording Corporation (CTR), luego renombrada IBM. IBM manufacturó y comercializó
una variedad de unidades máquinas de registro para crear, ordenar, y tabular tarjetas perforadas,
aun luego de expandirse en las computadoras sobre el final de la década del 50

IBM desarrolló la tecnología de la tarjeta perforada como una herramienta poderosa para el
procesamiento de datos empresariales y produjo una línea extensiva de unidades máquinas de
registro de propósito general. Para el año 1950, las tarjetas IBM y las unidades máquinas de
registro IBM se habían vuelto indispensables en la industria y el gobierno. Do not fold, spindle or
mutilate (No doblar, enrollar o mutilar) es una versión generalizada de la advertencia que aparecía
en algunas tarjetas perforadas, que se convirtió en un lema en la era de la pos-Segunda Guerra
Mundial (aunque mucha gente no tenía idea de lo que significaba spindle).

Desde 1905 hasta 1955, las tarjetas perforadas fueron el primer medio para el ingreso y
almacenamiento de datos, y el procesamiento en computación institucional y según los archivos
de IBM: «Por 1937 […] IBM tenía 32 prensas trabajando en Endicott, N. Y., imprimiendo, cortando y
apilando de 5 a 10 millones de tarjetas perforadas cada día».1 Las tarjetas perforadas eran usadas
incluso como billetes legales, así como cheques y bonos de ahorro del gobierno de los Estados
Unidos de América.

Durante la década del 60, las tarjetas perforadas fueron gradualmente reemplazadas como
primera medida por almacenamiento de datos en cintas magnéticas, mientras computadoras
mejores y más capaces se hicieron disponibles. Las tarjetas perforadas fueron todavía
comúnmente usadas para ingreso de datos y programación hasta mediados de la década de 1970,
cuando la combinación de almacenamiento de discos magnéticos de más bajo costo y terminales
interactivas asequibles sobre minicomputadoras más baratas, hicieron obsoletas a las tarjetas
perforadas también para este rol. Sin embargo, su influencia vive a través de muchas convenciones
de estándares y formatos de archivos. Las terminales que reemplazaron a las tarjetas perforadas,
por ejemplo la IBM 3270, mostraba 80 columnas de texto en modo texto, para compatibilidad con
el software existente.

Algunos programas todavía operan con la convención de 80 columnas de texto, aunque cada vez
menos, mientras que sistemas más nuevos emplean una interfaz gráfica de usuario con tipos de
fuentes de ancho variable.

Hoy en día, las tarjetas perforadas son mayormente obsoletas y reemplazadas por otros métodos
de almacenamiento, excepto por aplicaciones especializadas.

1.5.1 Quién fue el primero o la primere programadora y su trabajo

Nacida el 10 de diciembre de 1815, Ada Lovelace es considerada por muchos la primera


programadora de la historia. Matemática y escritora inglesa, hija del famoso poeta Lord Byron,
revolucionó la ciencia con sus conocimientos matemáticos ideando, con el apoyo de sus amigos

8
Guía Práctica de Tecnología | Miranda Sara MARQUINA

inventores, el primer programa informático. Lo más increíble de su historia, es que lo diseño


cuando aún no existían los ordenadores.

Lovelace fue la única hija legítima del poeta lord Byron y Anna Isabella Noel Byron. Byron se separó
de su esposa un mes después del nacimiento de Ada y dejó Inglaterra para siempre cuatro meses
después.

Su posición social y su educación la llevaron a conocer a científicos importantes como Andrew


Crosse, sir David Brewster, Charles Wheatstone, Michael Faraday y al novelista Charles Dickens,
relaciones que aprovechó para llegar más lejos en su educación. Entre estas relaciones se
encuentra Mary Somerville, que fue su tutora durante un tiempo, además de amiga y estímulo
intelectual. Ada Byron se refería a sí misma como una científica poetisa y como analista (y
metafísica).

A una edad temprana, su talento matemático la condujo a una relación de amistad prolongada con
el matemático inglés Charles Babbage, y concretamente con la obra de Babbage sobre la máquina
analítica. En 1840 Charles Babbage viajó a Italia para explicar el concepto de la Máquina Analítica
en la Universidad de Turín. Entre la audiencia se encontraba el ingeniero militar y matemático Luigi
Menabrea, quien publicará más tarde las notas de la conferencia, en francés. A Ada se le pidió que
hiciera la traducción de lo escrito por Menabrea al inglés, y al hacerlo, añadió un apéndice más
extenso que fue un artículo en sí mismo, consistiendo en siete notas etiquetadas alfabéticamente
de la A a la G. Las notas de Ada se publicaron en la revista Scientific Memoir en septiembre de
1843, con el título de «Sketch of the analytical engine invented by Charles Babbage», que firmó
con sus iniciales A. A. L.

En estas notas Ada diseñó en detalle los pasos a través de los cuales la máquina podría computar
los Números de Bernoulli. Este algoritmo para calcular los números de Bernoulli, una serie de
fracciones con diferentes aplicaciones en matemáticas, se ha considerado por muchos como el
primer programa/algoritmo de la historia.

Las notas de Lovelace son importantes en la historia de la computación. Otros historiadores


rechazan esta perspectiva y señalan que las notas personales de Babbage de los años 1836/1837
contienen los primeros programas para el motor. También desarrolló una visión de la capacidad de
las computadoras para ir más allá del mero cálculo o el cálculo de números, mientras que muchos
otros, incluido el propio Babbage, se centraron solo en esas capacidades. Su mentalidad de 'ciencia
poética' la llevó a hacer preguntas sobre el motor analítico (como se muestra en sus notas)
examinando cómo los individuos y la sociedad se relacionan con la tecnología como una
herramienta de colaboración.

Tras muchas colaboraciones con Baggage, esta pionera falleció con tan solo 37 años de edad. Él a
su vez, seguiría trabajando hasta su muerte, 20 años después, pero nunca conseguiría construirla.
Tras el fallecimiento de ambos, su trabajo fue olvidado, hasta la década de 1950 cuando salió a la
luz todas las anotaciones y trabajos que facilitarían lo que hoy conocemos como informática.

A modo de reconocimiento, desde el año 2009 se celebra el segundo martes de octubre “El día de
Ada Lovelace” para dar visibilizar al trabajo que han hecho las mujeres en la ciencia y tecnología.
Tras los pasos de Ada, han sido muchas mujeres las que han contribuido en los primeros
ordenadores y en los lenguajes de programación.

9
Guía Práctica de Tecnología | Miranda Sara MARQUINA

1.6 La máquina analítica

Se trata del diseño de un computador moderno de uso general, realizado por el profesor británico
de matemática, Charles Babbage, el cual representó un gran paso para la historia informática. En
1816 se inició el diseño, aunque Babbage continuó mejorándolo hasta su muerte, en 1871.

La máquina no se pudo construir por razones de índole política, ya que existieron detractores por
un posible uso de la máquina para fines bélicos. Los computadores que se compararon
lógicamente a la máquina analítica se construyeron hasta 100 años más tarde.

Antes de esta máquina, Charles Babbage en su primer intento, diseñó la máquina diferencial, que
era un computador diseñado específicamente para la construcción de tablas de logaritmos y de
funciones trigonométricas evaluando polinomios por aproximación.

Aunque este proyecto no pudo llevarse a cabo por razones económicas y personales, Babbage
entendió que su trabajo podía ser aprovechado en el diseño de un computador de propósito
general, por lo que inició el diseño de la máquina analítica.

La máquina analítica, en caso de haberse construido, debía funcionar con un motor a vapor, y
mediría 30 m de largo por 10 m de ancho. Para la entrada de datos y programas, se había pensado
en el uso de tarjetas perforadas, mecanismo que ya se utilizaba en aquella época para dirigir
diversos equipos mecánicos.

La salida debía producirse por una impresora, un equipo de dibujo y una campana. La máquina
debía perforar tarjetas que se pudieran leer posteriormente. Trabajaba con una aritmética de
coma fija en base 10 y contaba con una memoria capaz de almacenar 1,000 números de 50 dígitos
cada uno.

El lenguaje de programación que se podría utilizar era similar a los lenguajes ensambladores
actuales. Se podían utilizar bucles y condicionales de manera que el lenguaje propuesto habría sido
Turing-completo.

Se utilizaban tres tipos diferentes de tarjetas perforadas, una era para operaciones aritméticas, una
para constantes numéricas y otra para operaciones de almacenamiento y recuperación de datos de
la memoria, y la transferencia de datos entre la unidad aritmética y la memoria. Disponía de tres
lectores diferentes para los tres tipos de tarjetas.

Se cree que los planos de Babbage eran correctos, pero las disputas con el artesano que construyó
las partes y el fin de los fondos por parte del gobierno, hicieron imposible la construcción de la
máquina. El principal problema era que los engranajes en esa época no aguantaban mucho
esfuerzo y con el calor se deformaban.

En 1878, un comité de la Asociación británica para el avance de la ciencia recomendó no construir


la máquina analítica, por lo que Babbage no pudo tener acceso a fondos del gobierno.

La invención de la máquina analítica fue olvidada prácticamente, salvo por tres inventores, Percy
Ludgate, Leonardo Torres y Quevedo y Vannevar Bush, que independientemente propusieron
diseños de máquinas analíticas basados en la de Babbage, a principios del siglo XX.

10
Guía Práctica de Tecnología | Miranda Sara MARQUINA

1.7 Procesos de Datos con Tarjetas Perforadas

Cuando todo comenzó, la información se almacenaba en papel, y las grandes computadoras se


programaban cada vez que tenía que utilizarlas. Este panorama cambió cuando aparecieron las
primeras tarjetas perforadas para computadora.

Si bien este método era usado ya hace algunos siglos atrás para el control de maquinarias e
instrumentos musicales, como veremos más adelante, lo cierto es que las tarjetas perforadas en
las computadoras aparecieron en la década de 1950.

Se podría decir que las tarjetas perforadas fueron el primer dispositivo que permitió almacenar y
ordenar datos con el fin de automatizar el funcionamiento de las computadoras.

Básicamente, una tarjeta perforada es una lámina de cartulina con una serie de perforaciones
hechos de acuerdo a la programación efectuada en ellas. Podría decirse que es una sistema digital,
ya que utiliza valores como “0” y “1”.

Lo que dictamina los datos es la presencia o ausencia de agujeros en zonas específicas de la tarjeta.
Con el equipamiento necesario, estos agujeros son leídos y traducidos a datos.

El gran paso en la historia de las tarjetas perforadas viene de la mano del norteamericano Herman
Hollerith. Este desarrolló un dispositivo electromecánico que utilizaba cintas perforadas, llamada
“Máquina tabuladora”.

La importancia de su invento radica en que las tarjetas perforadas que utilizaba la Máquina
Tabuladora se usaron por primera vez para tratar y almacenar datos masivos.

Esto ocurrió en el Censo de los Estados Unidos de 1890, que permitió que los datos de millones de
personas fueran procesados en apenas 3 años, algo impensado para aquellas épocas.

Cabe destacar que Hollerith fue uno de los fundadores de IBM, International Business Machines.

Más tarde, en 1928, IBM introdujo en el mercado una tarjeta perforada de 80 columnas que
utilizaba agujeros de forma rectangular, antecesora de los tipos de tarjetas más modernas.

Ya a partir de la máquina tabuladora y otros dispositivos, se comenzó a ver un cambio importante


en como las empresas podían y debían almacenar y procesar sus datos.

Tal es así que ya para la década de 1950, las tarjetas perforadas eran usadas asiduamente allí en
empresas e instituciones para la gestión y almacenamiento de datos.

La forma más sencilla y rápida de hablar sobre las tarjetas perforadas es decir que funcionaban de
forma similar a un pendrive o tarjeta de memoria. En ellos se guardan datos y programas, y en la
tarjeta perforada también. Guardando la distancia de capacidad y performance, las tarjetas
perforadas fueron la piedra angular del desarrollo de la informática moderna.

Estas láminas de cartón agujereadas, eran fabricadas de acuerdo al tipo de computadora que las
utilizaba, es decir que no había ningún tipo de estandarización. En ese sentido, también cambiaron
de tamaño, con el fin de diferenciarlas aún más entre fabricantes.

11
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Es decir que las tarjetas perforadas no podían ser intercambiadas entre computadoras, ya que su
formato no sería reconocido.

Sin embargo, la mayoría de las tarjetas perforadas coincidían en la distribución de los datos. En
este punto cabe destacar que el número de columnas variaba según las dimensiones de la tarjeta.

Otra de las características más interesantes de las tarjetas perforadas es que generalmente una de
las esquinas de la misma se cortaba. Esto era con el objetivo de identificación y organización.

También las tarjetas perforadas podían estar impresas. Estas impresiones podían incluir diversos
campos de información, así como logotipos y otros datos de interesas para su gestión.

Para poder leer las perforaciones de las tarjetas, y que se transformaran en datos era necesaria
una máquina especial, llamada “Lectora de tarjetas perforadas”.

Básicamente, una lectora de tarjetas perforado por computadora es un periférico de entrada, el


cual permitía leer las secuencias de perforaciones y enviarlas a la computadora. Este último equipo
se encargaba de traducir esos datos y convertirles en instrucciones o información.

Estos equipos lectores de tarjetas perforadas eran capaces de leer perforaciones en una tarjeta a
una velocidad de entre 300 y 2000 CPM (Cards per minute).

Estas lectoras leían las tarjetas perforadas mediante una serie de cepillos mecánicos. Estos, cuando
hay contacto con una base a través del agujero, marcan un “1”. Si no hay contacto debido a que no
hay perforación, marca un “0”.

También existieron modelos que funcionaban con un concepto similar, pero utilizaban sensores
eléctricos.

1.8 Los calculadores de Reles: MARK 1

Podríamos definir el relé como un interruptor eléctrico que permite el paso de la corriente
eléctrica cuando está cerrado e interrumpirla cuando está abierto, pero que es accionado
eléctricamente, no manualmente.

El relé está compuesto de una bobina conectada a una corriente. Cuando la bobina se activa
produce un campo electromagnético que hace que el contacto del relé que está normalmente
abierto se cierre y permita el paso de la corriente por un circuito para, por ejemplo, encender una
lámpara o arrancar un motor. Cuando dejamos de suministrar corriente a la bobina, el campo
electromagnético desaparece y el contacto del relé se vuelve a abrir, dejando sin corriente el
circuito eléctrico que iba a esa lámpara o motor.

Los relés sirven para activar un circuito que tiene un consumo considerable de electricidad
mediante un circuito de pequeña potencia -de 12 o 24 voltios- que imanta la bobina. Supongamos
que queremos motorizar una puerta de un garaje o de la entrada de una finca. Para ello
necesitaremos un mando a distancia que consigue activar a través de un receptor esa pequeña
carga de potencia que pone en marcha el funcionamiento del relé: la bobina se imantará y cerrará
el circuito eléctrico que alimenta el motor que sirve para abrir la puerta. También lo podremos
utilizar para encender máquinas y motores, sistemas de alumbrado, etc.

12
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Con base en el funcionamiento del relé, hace casi 80 años IBM creó el Automatic Sequence
Controlled Calculator, más conocido como la computadora Harvard Mark I, el primer ordenador
electromecánico. El proyecto llevado a cabo entre IBM y Howard Airen se inició en 1939, pero no
fue hasta 1944 cuando se presentó oficialmente al público en Harvard.

La Mark I se basó en el diseño de la máquina analítica de Charles Babbage y podía realizar hasta
cinco operaciones aritméticas: suma, resta, multiplicación, división y hacer referencia a resultados
anteriores. Con unas dimensiones de 2,40 metros de alto, 15,5 metros de largo y un peso
aproximado de unas 5 toneladas, la computadora utilizaba señales electromecánicas para mover
las partes mecánicas y ejecutar operaciones matemáticas básicas, así como cálculos complejos de
ecuaciones basadas en el movimiento parabólico. Pero quizá lo más impresionante de esta
máquina creada hace siete décadas era el cerramiento de cristal que protegía el conjunto y que
dejaba ver la belleza de su maquinaria interior.

Aunque la computadora de IBM tenía componentes electromecánicos, era una máquina


automática eléctrica que funcionaba con relés y se programaba con interruptores. Esta recibía las
secuencias de instrucciones y sus datos a través de cintas de papel perforado, cuyos resultados se
imprimían mediante máquinas de escribir eléctricas o perforadoras de tarjetas conectadas a la
Mark I.

Los números se transferían de un registro a otro a través de señales eléctricas usando el cableado
interno con una longitud aproximada de unos 800 kilómetros y sus más de 3 millones de
conexiones que albergaba en su interior. Además de estos componentes, contenía un total de unas
750.000 piezas diferentes como relevadores, ruedas rotatorias para los registros, interruptores
rotatorios, etc.

La máquina contenía 72 registros mecánicos, cada uno de los cuales era capaz de almacenar 23
dígitos. Pero además de los registros mecánicos, la computadora Harvard Mark I incorporaba más
de 1.400 interruptores rotatorios de 10 posiciones para comprobar los valores de los registros que
se iban introduciendo.

La computadora se programaba a partir de la lectura de las secuencias de instrucciones y números


que se perforaban en la cinta de papel. La máquina era algo lenta durante el cálculo según el tipo
de operación que realizara. Para una operación básica, como una suma o una resta, el tiempo
mínimo de transferencia de un número de un registro a otro era de 0,3 segundos. En el caso de las
multiplicaciones, el cálculo se ralentizaba hasta los 6 segundos, incrementándose hasta 12
segundos si la operación era una división. La máquina también podía efectuar cálculos de doble
precisión –46 decimales–, mediante la unión de dos registros de forma similar al mecanismo de
cálculo de la máquina analítica de Babbage.

Uno de los inconvenientes de la Harvard Mark I era la dificultad que planteaba la modificación de
la secuencia de instrucciones en base a los resultados obtenidos durante el cálculo. Aunque la
máquina podía escoger de forma automática entre varios algoritmos para la ejecución de un
cálculo, era necesario detener la computadora y que los operarios cambiaran la cinta de control

13
Guía Práctica de Tecnología | Miranda Sara MARQUINA

para cambiar la secuencia de instrucciones. Pero poco después se subsanó con la incorporación del
Mecanismo Subsidiario de Secuencia, capaz de definir hasta 10 subrutinas con 22 instrucciones
cada una.

II GENERACIONES DE LAS COMPUTADORAS

1.2 El ordenador Digital: VON NEUMAN

El desarrollo de la informática, tal y como la entendemos hoy en día, ha sido posible gracias a las
aportaciones de algunos de los matemáticos más importantes del siglo XX, entre los que
sobresalen Alan Turing y John Von Neumann. Este último propuso una forma de construir
ordenadores capaces de realizar diversos tipos de funciones; como los nuestros, en los que solo
tenemos que instalar un programa diferente para que realicen nuevas tareas.

Von Neumann nació en Budapest en el año 1903 y destacó desde su juventud por sus capacidades
matemáticas y por su notable memoria fotográfica: era capaz de recitar libros que había leído años
antes. Se doctoró en matemáticas con tan solo 23 años y fue uno de los primeros profesores del
prestigioso Instituto de Estudios Avanzados de Princeton, en Estados Unidos. Es conocido por sus
avances en muchos campos de la ciencia, como la computación, la física cuántica, el análisis o la
teoría de juegos. Durante la Segunda Guerra Mundial, colaboró en el proyecto Manhattan.

Su contribución a la computación se basa en las ideas de Alan Turing. En 1936, Turing había ideado
un objeto matemático, conocido como máquina de Turing, que formalizaba el concepto de
algoritmo o, dicho de otra forma, de programa informático. Turing introdujo el concepto de
máquina de Turing universal, capaz de reproducir cualquier algoritmo, siempre que se introdujeran
las instrucciones de manera adecuada. Su construcción real se denominó ordenador de “propósito
general”. Este concepto hace referencia a lo que hoy en día entendemos como un ordenador
programable.

El primer ordenador de propósito general —ENIAC (Computador e Integrador Numérico


Electrónico)— fue construido por los ingenieros John Prepert Eckert y John William Mauchly en
1945. Este ordenador podía, en la práctica, reproducir cualquier algoritmo siempre que se
configuraran las instrucciones reconectando cables de forma adecuada. Este era un proceso largo y
tedioso, muy limitado por el número de cables y, por tanto, del tamaño del propio ordenador.

El matemático estadounidense de origen húngaro John Von Neumann (1903-1957) fue quien
consiguió diseñar un ordenador al que se le podían introducir instrucciones de manera electrónica.
En su prototipo era suficiente con insertar las instrucciones mediante un lector-grabador de cinta
magnética. La arquitectura del ordenador propuesto se conoce hoy en día como arquitectura Von
Neumann. En 1945 Von Neumann hizo circular un borrador donde detallaba cómo construir
ordenadores usando esta arquitectura, que recibieron el nombre de ordenadores de propósito
general con “capacidad para almacenar programas”. Hoy en día, todos los computadores
modernos son de este tipo.

La clave de la arquitectura Von Neumann estaba inspirada por la máquina universal de Turing:
almacenar instrucciones en la propia memoria del ordenador. Von Neumann diseñó su ordenador

14
Guía Práctica de Tecnología | Miranda Sara MARQUINA

con una estructura dividida en tres grandes partes, la CPU (unidad central de procesamiento), la
memoria, y los dispositivos de entrada y salida (cómo un teclado y una pantalla).

La CPU se encargaba de leer y modificar el contenido de la memoria electrónica y lo hacía


siguiendo las instrucciones contenidas en parte de la memoria del ordenador. Además, era posible
modificar la memoria, por ejemplo, introduciendo datos mediante el teclado, y así modificar las
instrucciones de funcionamiento de la CPU y, por tanto, la función que ejecutaba el ordenador. Von
Neumann, junto con Prepert Eckert y Mauchly, construyó el primer ordenador de propósito
general capaz de almacenar programas —EDVAC (iniciales de Calculador Discreto Electrónico
Automático Variable)— en la Universidad de Pensilvania (EE UU).

Las aportaciones de Von Neumann a la computación no acabaron aquí. También inventó un objeto
matemático llamado autómata celular. Estos sistemas dinámicos también tenían cierto parecido
con las máquinas de Turing, y resultaban muy adecuados para modelar sistemas naturales donde
muchos objetos interactúan entre sí. Von Neumann no solo los introdujo, sino que también diseñó
los primeros ejemplos de autómatas autorreplicantes, capaces de duplicar un objeto inicial de
manera indefinida siguiendo unas reglas sencillas de evolución. Estas ideas fueron desarrolladas
posteriormente por el matemático John Conway, e inspiraron el famoso juego de la vida, un
ejemplo de autómata celular.

Von Neumann también es uno de los fundadores del campo conocido como teoría de juegos, que
estudia de manera matemática el comportamiento racional de individuos ante un conflicto con
diversas estrategias posibles. Esta teoría tiene aplicaciones en muchos otros campos del
conocimiento, notablemente en economía y psicología. Por desgracia, este genio de las
matemáticas murió de manera prematura a los 53 años, diagnosticado de cáncer, probablemente
debido a la radiación recibida durante los ensayos nucleares en el proyecto Manhattan.

1.3CARACTERISTICAS DE LA PRIMERA GENERACION

La historia de las computadoras en un momento tuvo que se dividida en generaciones. El objetivo


de esto era poder definir claramente cuando las computadoras daban un salto importante en la
tecnología que usaban.

De las válvulas al transistor, de este al circuito integrado y de allí a la tecnología cuántica, la historia
muestra la evolución de las computradores.

Podemos decir que la primera generación de computadoras nace en 1938, de la mano de la


computadora alemana Z1, construida con elementos electromecánicos. A esta le siguieron muchas
otras, como Colossus, ENIAC, UNIVA y otras, las cuales introdujeron de a poco elementos que las
harían mejores y más rápidas, como por ejemplo las válvulas de vacío en reemplazo de los relés.

Estas computadoras fueron desarrolladas con propósitos bélicos por naciones que en aquellos
momentos estaban en guerra o estaban preparándose para entrar en ella. Es por ello que
requerían de nuevos dispositivos que les pudieran ofrecer mayor exactitud en los cálculos, como
por ejemplo la ENIAC, que fue utilizada para trazar cálculos de balística y así mejorar la efectividad
de los cañones. También fue utilizada para el desarrollo de los cálculos de la bomba de hidrógeno.

15
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Sin embargo, estas primeras computadoras, aunque limitadas, lograron establecer mecanismos y
procedimientos que se utilizan hasta la actualidad, mucho más allá del campo de acción militar,
como por ejemplo la predicción del clima, estudios de los rayos cósmicos, túneles de viento y
muchos otros estudios científicos poco relacionados con la guerra.

La llamada Primera generación de las computadoras abarca todas las computadoras diseñadas y
construidas entre principios de la década de 1940 y 1956.

Estas computadoras fabricadas durante ese tiempo tienen todas algo en común, y es que están
construidas con válvulas de vacío, relés, tarjetas perforadas y componentes discretos. Todos
elementos tecnológicos provenientes de la electrónica analógica.

Estas primeras computadoras, a pesar de que eran muy complicadas de operar, mantener y poner
en servicio, marcaron el inicio de una época, tiempos de grandes descubrimientos y evolución
tecnológica. Sin estas computadoras de la primera generación, el mundo sería muy distinto al que
conocemos.

Las computadoras de la primera generación se distinguen claramente por su tamaño, no


estrictamente relacionado con su potencia.

Sin duda alguna, la característica que llama más la atención de las computadoras de la primera
generación es que empleaban válvulas de vacío para hacer cálculos. Este hecho marcaba que
fueran realmente enormes y pesadas, y que se necesitara gran cantidad de energía para hacerlas
funcionar.

Además eran bastante complejas de programar, por lo cual se requería de personal altamente
calificado. A partir de este punto, conoceremos los ejemplos más importantes de computadoras de
la primera generación.

 Z1 (1938): La computadora alemana Z1 tiene el honor de ser la primera computadora


puesta en servicio. Este equipo fue desarrollado por Konrad Zuse utilizando elementos
electromecánicos, y en su tiempo prestó buenos servicios. Sin embargo, debido a que fue
un desarrollo proveniente de una Alemania políticamente enrarecida, no obtuvo el mérito
que merecía. A este diseño le siguieron en 1939 la Z2, y en 1941 la computadora Z3,
ambos equipos utilizando relés.
 ENIAC (1944): Generalmente se suele sindicar a esta computadora como la primera de la
historia, pero este mérito lo tiene la Z1 alemana. Esta computadora estadounidense fue
desarrollada por John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania.
ENIAC era capaz de resolver 5000 sumas o 300 multiplicaciones en 1 segundo. “ENIAC
estaba constituida por 18.000 válvulas de vacío, consumía unos 160 kW de potencia
eléctrica y pesaba 27 toneladas.”
 Colossus (1944): La computadora Colossus se utilizó para poder descifrar los mensajes
cifrados alemanes durante la Segunda Guerra Mundial. Desarrollada y fabricada por
Inglaterra.
 Z4 (1945): La computadora Z4 es un rediseño de las primeras computadoras alemanas tipo
Z. Esta es la primera computadora del mundo en ser vendida de forma comercial, lo que
ocurrió en 1950.

16
Guía Práctica de Tecnología | Miranda Sara MARQUINA

 EDVAC (1949): La EDVAC incluía en su diseño conceptos que servirían más tarde para el
desarrollo de las computadoras que conocemos en la actualidad. Se trataba de una
computadora programable. EDVAC ya era binaria, y tiene el honor de haber sido la primera
computadora que pudo almacenar un programa.
 UNIVAC I (1951): Otro ejemplo de como a veces la historia no se cuenta correctamente.
UNIVAC es considerada como la primera computadora comercial en ser vendida, sin
embargo, antes que ésta, se vendieron primero la alemana Z4 y la inglesa Feranti Mark I.
 IBM 701 (1953): La computadora IBM 701 fue el primer desarrollo de esta famosa
compañía, conocido como la “calculadora de Defensa”. Tiene el honor de ser la primera
computadora científica comercial de IBM.
 Zuse Z22 (1955): Computadora alemana desarrollada por Konrad Zuse, diseñador de la Z1,
la primera computadora, la Z3 y la Z4. Todos estos modelos empleaban dispositivos
electromecánicos como relés, pero en la Z22 se comenzó a usar la tecnología de válvulas
de vacío.

En este punto cabe destacar que existían dos grandes tipos de computadoras de la primera
generación. Aquellas completamente electromecánicas como la alemana Z1, y las que tenían una
tecnología híbrida compuesta por válvulas de vacío y relés.

Sin embargo, todas estas computadoras tenían mucho en común, ya que se programaban
mediante lenguaje de máquina, el cual era ingresado por los especialistas mediante tarjetas
perforadas. Lo mismo sucedía que los programas y datos necesario para operarla.

El método que utilizaban para almacenar los datos eran memorias construidas con tubos de
mercurio líquido, además de tambores magnéticos.

Básicamente, las Unidades de Proceso Central o CPU de las computadoras de las primera
generación usaban una mezcla de componentes electromecánicos como relés y conmutadores,
válvulas de vacío, componentes discretos y poco más.

Se usaban sistemas operativos de procesamiento en lotes, y los datos se ingresaban y


almacenaban en tarjetas perforadas, cinta magnética y cinta de papel.

La primera función de aquella primigenias computadoras no fue otra que la de hacer cálculos.

En este sentido, si tomamos la primera computadora, la alemana Z1, podremos ver que apenas
tenía una memoria de 64 palabras de 22 bits y dos registros de coma flotante de 22 bits cada uno.
Esto sin embargo le permitía hacer sumas, restas, divisiones y multiplicaciones en poco menos de
10 segundos, según el tipo de operación.

Esto significa que aquellas gigantescas computadoras de varias toneladas de peso realizaban
puramente cálculos que permitían llevar adelante otros proyectos, no tenían ninguna función
específica.

2. Segunda Generación de Ordenadores (1959 a 1964)

La segunda generación de computadoras está signada por la aparición del transistor.

17
Guía Práctica de Tecnología | Miranda Sara MARQUINA

En términos sencillos, la segunda generación de computadoras es aquella que abarca


aproximadamente desde el año 1947 hasta principios de la década de 1960, cuando la industria
dio otra vuelta con la aparición del circuito integrado.

Esta época está signada por la aparición del transistor en el año 1947, componente electrónico que
comenzó a reemplazar los circuitos de válvulas de vacío. Este cambio posibilitó que las
computadoras disminuyeran su tamaño, y con ello su conste de compra y operación.

La tecnología de los transistores no se incorporó a estos diseños hasta mediados de la década de


1950. Y además, para poder hablar de una verdadera revolución tecnológica, fue necesario mucho
más que los transistores; para que una computadora fuera realmente útil en ese contexto, se
tuvieron que dar múltiples pasos, como por ejemplo desarrollar la microprogramación y las
memorias de núcleos magnéticos, que aparecieron en 1953.

No se tardaría mucho en añadir características a estas computadoras con el objetivo de mejorar su


comodidad de uso. Como las investigaciones del MIT en 1956 para incorporar la entrada de datos
por medio de un teclado.

En 1957 se da otro paso importantísimo en la evolución de las computadoras de la segunda


generación. Se crea Fortran, un lenguaje de programación que permitía a la computadora realizar
tareas repetitivas leyéndolas desde un conjunto de instrucciones o programa.

Luego de estas primeras computadoras se desarrollarían otras, cada vez más potentes, como las
mainframe de la Serie 7000 de IBM, que podían procesar palabras de 64 bits y ofrecía a sus
clientes muchas características muy modernas.

Cuando comenzaba la década de 1960, ya había cientos de computadoras instaladas en


compañías, organismos gubernamentales y centros de investigación y estudio funcionando a todo
régimen.

Podría decirse que quienes desarrollaron el transistor inventaron o inauguraron la segunda


generación de computadoras, ya que su aparición está intrínsecamente ligada a este
acontecimiento.

El transistor fue inventado en 1947 por John Bardeen y Walter Houser Brattain, investigadores de
los Laboratorios Bell. Hasta este punto en la historia, las computadoras desarrolladas en torno a
válvulas de vacío habían cumplido con todo lo que se esperaba de ellas. Gracias a estas válvulas se
habían podido desarrollar las computadoras de la primera generación como la ENIAC, la Z1 y otras,
sin embargo, llegó un momento en que había que avanzar.

Todas las computadoras mencionadas tenían algo en común: eran enormes, consumían mucha
energía y se había llegado al límite de esa tecnología.Era el preciso instante en el cual abandonar
un esquema y buscar algo nuevo era absolutamente necesario para seguir avanzando. Esto vino de
la mano del transistor.

El transistor básicamente es un componente electrónico semiconductor de estado sólido, que


cumple la función de entregar una señal de salida en respuesta a una señal de entrada.

18
Guía Práctica de Tecnología | Miranda Sara MARQUINA

En la actualidad todos los circuitos de los aparatos electrónicos cuentan con transistores, sea como
componente o dentro del encapsulado de un circuito integrado.

Básicamente el transistor fue capaz de remplazar la tecnología de las válvulas o tubos de vacío con
las mismas características electrónicas pero con un tamaño, precio y consumo mucho menor.

Desarrollar electrónico en torno a este nuevo componente electrónico permitió que los diseños de
computadoras pudieran ser más sencillos, livianos y hasta incluso transportables, lejos del tamaño
de los titanes de la primera generación.

La primera computadora totalmente transistorizada fue la Tradic (TRAnsistor DIgital Computer or


TRansistorized Airborne DIgital Computer) de 1955, y se desarrolló a pedido de las Fuerzas Aéreas
Estadounidenses.

Contaba con unos 700 transistores y operaba en una frecuencia de reloj de 1 Mhz, y podía
procesar 1 millón de operaciones por segundo. Con respecto al consumo eléctrico, era de apenas
100 W, en contraposición de las computadoras con válvulas de vacío, que oscilaban en los varios
KWh de consumo.

La segunda generación de computadoras trajo consigo algunas novedades y características,


algunas de las cuales se usan todavía en la actualidad. La característica principal es la electrónica
de estado sólido, es decir sin incluir válvulas.

Asimismo, se desarrollan técnicas, periféricos y dispositivos que hasta el momento no se habían


visto, y que también forman parte de la informática actual, como el almacenamiento en disco y
cintas magnéticas, que permitían guardar el sistema operativo, los programas de usuario y sus
datos.

Por otra parte, también se comenzó a usar la memoria, que permitía un intercambio más fluido de
la información en el funcionamiento interno de aquellas computadoras.

Además de ello, se comenzaron a usar lenguajes de programación más complejos y que permitían
otro nivel de relación entre el hardware y el operario, como FORTRAN y COBOL.

Sin embargo, el hecho de reemplazar las válvulas o tubos de vacío por transistores logró que estas
computadoras fueran más pequeñas y por lo tanto más baratas. Si a esto le sumamos que además
sólo consumieran unos 100 Watts de energía, su expansión a toda clase de compañías alrededor
del mundo estaba asegurada.

Quizás el más claro ejemplo de computadora de la segunda generación sea la IBM 1401, un
modelo que fuera considerado uno de los equipos clave en la modernización de muchas empresas.

Sin duda alguna, las claves que definieron a las computadoras de la segunda generación fueron la
posibilidad de poder almacenar los programas y los datos de usuario.

La clave más importante aquí es la posibilidad de poder almacenar un programa en disco. Esto
significaba que un programa podría ser ejecutado, eliminado de la memoria, donde se ejecutaba, y
ser reemplazado por otro almacenado en disco o cinta.

19
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Todas estas características consiguieron que estas computadoras fueran herramientas flexibles que
toda empresa necesitaba tener para alcanzar sus metas de maneras más sencillas y ágiles.

Sin embargo, lo más importante para toda empresa es conservar la relación coste/beneficio, y
estos dispositivos cumplían a la perfección con este concepto. Gracias a sus costes de operación
bajos se mantenían en niveles productivos para cualquier tipo de negocio.

Las computadoras de la segunda generación más importantes son:

 IBM 1401: La IBM 1401 fue éxito global para la empresa, ya que gracias su tamaño
compacto y prestaciones era la computadora ideal para empresas y negocios de todo tipo.
Este modelo de IBM salió al mercado 1959. Algunas de sus características más importantes
era que los datos se ingresaban al sistema mediante un sistema de tarjetas perforadas.
Otras características destacables de la IBM 1401 es que eran muy sencillas de programar,
gracias a un software que se relacionaba bien con el hardware.
 Honeywell 800: La Honeywell H-800 fue lanzada al mercado en 1960. Era en esencia un
equipo básico, pero que podía ser ampliado de acuerdo a las necesidades de las empresas
con otros periféricos extra como bancos memoria extra. Técnicamente, el diseño de la H-
800 incluía unos 6.000 transistores. Además incluía una opción muy celebrada por muchas
empresas, básicamente un sistema que permitía la ejecución de múltiples programas
diferentes y sus registros al mismo tiempo.
 IBM 1620: Otra computadora de IBM que salió al mercado en 1959. El IBM 1620 era un
equipo que funcionaba por medio de tarjetas perforadas, como la 1401. Contaba con una
memoria de núcleo magnético que permitía operar con más de 60.000 dígitos decimales.
Al igual que la mencionada 1401, la 1620 fue una computadora que tuvo un gran éxito
entre las empresas gracias a su excelente desempeño.
 DEC PDP-1: La PDP-1 (Programmed Data Processor 1) fue un diseño de Ben Gurley para
Digital Equipment Corporation, más conocida como DEC, que se lanzó al mercado en 1960.
Entre sus características más destacadas eran su velocidad de 5 Mhz y utilizaba cinta de
papel perforado. Tuvo bastante éxito entre las empresas debido a que estaba equipada
con la posibilidad de usar impresoras. La PDP-1 juega un papel trascendente en la cultura
informática, ya que con ella se diseñó Spacewar!, y era muy utilizada en el ambiente
hacker de aquella época, fundamentalmente universitario.

Como sabemos, las computadoras de la primera generación eran armatostes que ocupaban
habitaciones enteras y consumían la misma energía que pueblos pequeños. Y por supuesto solían
alcanzar los varios millones dólares o Libras. Esto con la segunda generación de computadoras
cambió gracias a los transistores con los que se reemplazó a las válvulas de vacío. Con esta nueva
tecnología, el precio de las computadoras bajó hasta ser accesible no sólo para los gobiernos, sino
también para empresas y universidades.

En este sentido, el precio de una computadora en la década de 1950, auge de la segunda


generación, podía oscilar entre los u$s 50.000 y más de un millón de dólares.

3. Tercera Generación de Ordenadores (1964 a 1971) - 3.3 Características de la Tercera


Generación

20
Guía Práctica de Tecnología | Miranda Sara MARQUINA

La señal más importante de que estás adentrándote en esta generación es la utilización del circuito
integrado, el cual básicamente reúne grandes cantidades de transistores y otros componentes
dentro de un mismo encapsulado.

Esto permitió que otra vez las computadoras pudieran achicarse en tamaño y ofreciera más
potencia que la generación anterior. En este contexto, las computadoras se desarrollaron
rápidamente hasta llegar a convertirse en dispositivos rápidos, pequeños, de poco consumo y
sobre todo baratos.

Gracias a la incorporación del circuito integrado, esta vez las computadoras pudieron realmente
expandirse a todos lados. Incluso llegar con cada modelo que aparecía más cerca del usuario
promedio, es decir del hobbista, el estudiante y la pequeña empresa, entre otros.

El circuito integrado fue desarrollado en la década de 1950 y patentado en el año 1958 por Jack S.
Kilby, ingeniero de Texas Instruments. Los circuitos integrados son básicamente componentes
electrónicos semiconductores que reúnen decenas de miles de resistencias, capacitores y
transistores de grado miniatura, en una misma capsula o pastilla de silicio.

Las computadoras de esta generación contaban con hasta 2 megabytes de memoria y la capacidad
de procesar más de 5 millones de instrucciones por segundo. Además esta tercera generación de
computadoras ya funcionaba con otro sistema de programación, que le permitía ser operada por
personal especializado, pero no totalmente dedicado a esa función.

A pesar que el circuito integrado se inventó en 1958, las primeras computadoras con este
componente tardaron hasta mediados de la década de 1960. Estas computadoras incluían en sus
opciones ciertas características como la utilización de medios magnéticos para el almacenamiento
de datos, por ejemplo.

 IBM 360: Precisamente el 7 de abril de 1964, apareció en el mercado la IBM 360, una de
las computadoras más representativas de la tercera generación. Es una de las más
importantes computadoras comerciales de esta generación, debido fundamentalmente
gracias a que incluía funciones que le permitían al dispositivo realizar análisis numéricos,
administración o procesamiento de archivos, es decir que podía ser programada para
cumplir con múltiples propósitos.

Esta nueva computadora tuvo una gran aceptación entre los clientes de IBM, por diversos
motivos, como la posibilidad de poder expandir el sistema una vez instalado, pero seguir
ejecutando los mismos programas.

Asimismo, dada la mayor capacidad y velocidad de estos modelos, se podían ejecutar


varios de programas de forma simultánea, en un modo llamado multiprogramación. Tal fue
el éxito de estas computadoras que IBM logró fabricar y vender más de 30.000.
o
 CDC 6600: En el año 1965 se desarrolla lo que se conoce como la primera
supercomputadora del mundo, y también cuenta con el galardón de ser la más rápida del
mundo por aquella época.

21
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Esta supercomputadora contaba con una CPU de 60 bits y 10 unidades periféricas de


procesamiento (PPUs), principios de lo que hoy se conoce como procesamiento
superescalar. Podía alcanzar un rendimiento de 1 megaFLOPS.
Cabe destacar que esta no era una computadora comercial.La primera de las CDC 6600 fue
entregado a la Organización Europea para la Investigación Nuclear (CERN). Este organismo
uso esta computadora por años para investigar diversos aspectos de la energía nuclear.
 Burroughs B-2500: Burroughs es otro de los grandes fabricantes de computadoras que fue
capaz de evolucionar y entrar en el mundo de las computadoras de la tercera generación. Y
lo hizo a lo grande. En el año 1966 presentó al mercado dos importantes computadoras, la
Burroughs B-2500 y B-3500, las cuales fueron desarrolladas para un uso científico y
empresarial.
Una de las características más importantes de estas computadoras era que estaban
diseñadas con el objetivo de mejorar la experiencia de uso del usuario. Con estas mejoras
se quiso obtener una mejor relación entre ambas partes, operario y máquina, con el fin de
lograr mejor rendimiento.
 Honeywell 6000: Esta computadora era parte de una serie de modelos que incluían CPU
que ejecutaba palabras de 32 bits. Otras características interesantes de estas
computadoras de Honeywell era que podían ejecutar diferentes sistemas operativos, tales
como GCOS, Multics y CP-6.
 PDP-8: La PDP-8 de DEC fue lanzada al mercado en 1965 por la firma DEC. Ostenta el
galardón de ser la primera minicomputadora más vendida. Precisamente de la PDP-8 se
vendieron alrededor de 50.000 unidades.
También fue una de las computadoras de la tercera generación más exitosas. Estos
modelos se vendían tanto en disposición de escritorio como de rack. Estas computadoras
se podían programara a través de diferentes lenguajes como Basic, Focal 71 y Fortran II/IV.

Estas computadoras tuvieron gran éxito comercial debido fundamentalmente a su bajo costo y
tamaño, lo que permitía ubicarlas en cualquier lugar. También por ser sencillas de programar y
operar. Sin embargo, la capacidad más apreciada por los operadores era la posibilidad de poder
expandirla de manera sencilla.

Con la tercera generación de computadoras, los sistemas comenzaron a utilizar software más
complejo, pero que a la vez era más sencillo e intuitivo para los operadores.

La principal herramienta de esa época era el sistema operativo, con el cual se podía administrar
todos los recursos de hardware del sistema con mucha facilidad.

El uso de sistemas operativos en las computadoras de la tercera generación le permitió a los


operadores la posibilidad de ejecutar múltiples aplicaciones simultáneamente.

Por supuesto que este hecho consiguió obtener mucho más rendimiento que antes. También se
comenzaron a usar sistemas operativos de procesamiento remoto.

Uno de los primeros sistemas operativos para las computadoras de la tercera generación fue el
OS/360, desarrollado por IBM para la familiar de computadoras mainframe 360. Por otro lado,
también se hacía un uso intensivo de lenguajes de alto nivel.

22
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Como sabemos, los lenguajes ensambladores habían sido muy útiles para programar y poner en
marcha estas computadoras. Sin embargo, pronto se hizo evidente que era necesario cambiar
hacia un esquema más flexible.

Este cambio se hizo realidad con las muchas investigaciones y desarrollos que se hacían en
aquellos años en paralelo en muchos centros de estudios.

Los lenguajes para las computadoras de la tercera generación que vieron la luz y que podían ser
usados en muy diferentes aplicaciones eran:

 FORTRAN
 COBOL
 BASIC
 PASCAL
 PL-1

Estos eran lenguajes de alto nivel, es decir que eran lenguajes orientados a procedimientos, lo que
significa que se podían adaptar para resolver un problema determinado en un campo específico.

Este hecho, sumado a la curva de aprendizaje sencilla de estos lenguajes, permitió que más tarde
el usuario promedio se interesara más en las computadoras para sus propios usos.

Es decir que la causa principal por la cual la informática se convirtió en una de las industrias más
importantes fue el desarrollo de software para la tercera generación de computadoras.

También debemos agregar al escenario que el software dejó de venderse como una parte
inseparable del hardware, ya que se comenzaron a desarrollar de forma separada programas que
fueran compatibles con las computadoras de la época.

No cabe duda que la posibilidad que brindaron los lenguajes de programación de aquella época a
los desarrolladores independientes permitió que la industria informática se expandiera.

Lo cierto es que de otro modo la informática sería hoy negocio sólo de las grandes corporaciones
capaces de absorber los costos de investigación y desarrollo de hardware y software.

Los avances en las computadoras de la tercera generación fueron los siguientes:

 Menor consumo
 Mayor capacidad de proceso
 Más facilidad para programarla
 Más transportables
 Más entendibles para todo tipo de usuarios

Cuando las computadoras eran diseñadas en torno a las válvulas de vacío, se desarrollaban para
cumplir con un único propósito. Como ejemplo podemos decir que se asemejaban a radios o
televisores, sólo servían para una sola tarea. Con esta tercera generación se consiguió que las
computadoras fueran dispositivos multipropósito, dependiendo del software con que se cargaran,
y no de un diseño específico de hardware.

23
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Además de la capacidad de poder realizar distintas tareas, las computadoras de la tercera


generación avanzaron en otros aspectos.

Gracias a los circuitos integrados y transistores podían ser mucho más pequeñas, lo que permitía
ubicarlas en casi cualquier ubicación.

El tamaño reducido de las computadoras de la tercera generación también resulto en un beneficio


para las empresas, ya que la menor cantidad de disipación de calor permitía reducir las
necesidades de refrigeración.

Otro punto de beneficio fue el tema del consumo eléctrico. Al ser mucho más pequeñas que antes,
no era necesario ni disponer de un sistema eléctrico especial, ya que consumían mucho menos
corriente que las generaciones anteriores.

Los dos puntos anteriores se relacionan con costes de operación, en este caso eléctrico. Sin
embargo, también debemos destacar que se reducían los costes de operaciones gracias a que la
electrónica de estado sólido es mucho más fiable.

Esto se traduce en los plazos largos de recambio de componentes por reparaciones, que en el
tiempo de las válvulas de vacío era todo un problema.

También destacable es el tema de que ya no era necesario personal especializado para operar
estas computadoras. Una persona con el entrenamiento adecuado podía hacerlo, sin ser ingeniero.
Esto repercutía directamente en la reducción de costes por sueldos de personal especializado.

Con las computadoras a válvulas de las generaciones anteriores la estabilidad del equipo era un
problema. Sin embargo con la llegada del transistor y del circuito integrado esto cambio mucho, ya
que se pudieron lograr diseños mucho más complejos pero a la vez mucho más estables.

Mediante los circuitos integrados se pudo lograr mucha más potencia de procesamiento en menos
espacio y con menor gasto.

Gracias a esto se pudieron implementar técnicas de proceso como por ejemplo la


multiprogramación. Este procedimiento implica que dos o más procesos son ejecutados en forma
simultánea por la CPU mientras están alojados en la memoria principal del equipo.

Otro punto que permitió la miniaturización de las computadoras es el llamado “Teleproceso”. Esto
básicamente se refiere al procesado de datos de distintas terminales en una unidad central.

El circuito integrado también se utilizó para el diseño de nuevos periféricos. Esto significa que
gracias a estos componentes, se pudieron lograr avances importantísimos en periféricos como
impresoras, pantallas, teclados y demás.

Al ser mucho más pequeñas que antes, las computadoras de la tercera generación también se
caracterizaban por su capacidad de expandirse, hecho que no era posible en las anteriores
generaciones.

Es decir que si una empresa compraba una computadora, siempre podía ampliarla para adecuarla
a sus necesidades con más memoria o almacenamiento.

4. Cuarta Generación (1974 - 1983) – Características de la Cuarta Generación

24
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Cuarta generación, desde 1971 hasta el presente: Computadoras de estado sólido con
microprocesadores.

En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el


microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el
difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la
cuarta generación surge con los chips VLSI, de integración a muy larga escala.

Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el
vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR 8800
en 1974/5.

En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una
adaptación BASIC para el ALTAIR. En 1976 Kildall establece la Digital Research Incorporation, para
vender el sistema operacional CP/M. En 1977 Jobs y Wozniak crean el microcomputador Apple, a
RadioShack el TRS-80 y la Commodore el PET. La plantilla Visicalc de 1978/9, primer programa
comercial, de Software Arts.

En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el Wordstar, y Paul
Lutus produce el Apple Writer. El programa de un ingeniero de la NASA, Waine Ratliff, el dBASE II,
de 1981. También de 1981 IBM-PC y el Lotus 1-2-3, de Kapor, que alcanzó la lista de los más
vendidos en 1982.

El Sinclair ZX81/ZX Spectrum fue un ordenador minúsculo concebido por John Sinclair, profesor en
la Universidad de Cambridge en U.K. Inicialmente concebido para la utilización de los estudiantes
de la Universidad de Cambridge. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una
memoria compuesta por una ROM y una RAM y una ULA.

La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc.
necesarios para el funcionamiento del sistema y un traductor para el lenguaje de programación
BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K pero, era expandible
hasta 16K.

En la caja de plástico se alojaba también un subsistema de comunicaciones para conexión en serie


a periféricos denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida de
sonido y un codificador de imágenes para TV. En la parte trasera de la caja de plástico tenía un
conector donde se podía conectar una impresora minúscula que usaba un rollo de papel especial.

El ordenador era suministrado con un cable para la conexión al televisor y otro para la conexión
con un grabador de "cassettes" musical (norma Philips). El transformador de corriente eléctrica
alterna a continua era adquirido por separado. Los programas y datos eran grabados en un
cassette magnético y eran también leídos desde uno. El teclado no tenía teclas. Los caracteres
ASCII eran impresos en una membrana.

Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las causas
principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy popular debido a
su bajo precio de venta.

25
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de 64KB, una
UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta attaché con un peso de
11 Kg, albergaba 2 unidades de disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad,
un monitor de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante (servía de
tapa de la maleta) con dos bloques de teclas, uno alfanumérico con los caracteres ASCII y otro
numérico.

Disponía de conectores para un monitor externo, puertos serie RS-232C y paralelo IEEE-488 o
Centronics. El sistema era alimentado por una batería propia recargable con una autonomía de 5
horas, por una batería externa de automóvil o por un transformador de corriente eléctrica alterna
a continua.

El sistema operativo era el CP/M desarrollada por la Digital Corporation. El software suministrado
incluía un Interpretador M BASIC desarrollado por MICROSOFT, un Compilador BASIC desarrollado
por la Compyler Systems, una hoja de cálculo SUPERCALC (derivada del Visicalc) y un procesador
de texto denominado WORDSTAR. Podía ser programado en BASIC, FORTRAN, COBOL, PASCAL, PL
1, ALGOL, C, FORTH, ADA, ASSEMBLER y CROSS-ASSEMBLER

Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una
versión PC-AT. IBM PC-XT En la década de 80, fue creado el IC LSI (Integratede Circuit Large Scale
Integration), que en español significa, “Circuito Integrado en Ancha Escala de Integración”, donde
fueron desarrolladas técnicas para aumentarse cada vez más el número de componentes en el
mismo circuito integrado. Algunos tipos de IC LSI incorporaban hasta 300.000 componentes en un
único chip.

El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible hasta
640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ. Era
construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con
25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores.

La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de
360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad,
que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles
correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseía una salida
para impresora y el PC-XT disponía de un interfaz para comunicaciones asíncronas.

El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft para IBM.
El lenguaje de programación que utilizada era el BASIC. Sólo cerca de dos años después, con la
presentación de los modelos PS/2-50 y PS/2-60, que eran equipados con un procesador Intel
80286, la IBM recuperó el sector de mercado de los PCS utilizando para el efecto la penetración en
las empresas donde tenía instalado grandes mainframes y “pequeños ordenadores”.

Surgieron en el transcurso del uso de la técnica de los circuitos LSI (Large Scale Integration) y VLSI
(Very Large Scale Integration). En ese periodo surgió también el procesamiento distribuido, el disco
óptico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de
texto, cálculos auxiliados, etc.

26
Guía Práctica de Tecnología | Miranda Sara MARQUINA

En 1982- Surge el 286, usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con
memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos
raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris.

5. Quinta Generación

La quinta generación comenzó en 1983 y sigue vigente en la actualidad. Con el perfeccionamiento


del uso de los microprocesadores y la llegada de nuevas tecnologías de hardware, las
computadoras pasaron a ser equipos de uso portátil, livianos y sencillos de utilizar. Fue a partir de
este período que surgieron las computadoras portátiles o laptops, lo que revolucionó la
concepción del uso de la computadora.

Otro avance significativo que tuvo lugar con la llegada de la quinta generación fue la llegada del
internet, un medio que permitió conectar las computadoras a través de una red sin importar la
distancia entre cada ordenador. Gracias a esto, la comunidad informática se enriqueció en gran
medida, dando paso a que se crearan grupos de programadores que trabajaban de manera
conjunta para ofrecer soporte y creación de softwares de manera conjunta.

Es a partir de esta generación que se asienta la idea de que un ordenador debe ser fácil de utilizar,
intuitivo y útil para cumplir con todo tipo de propósitos: desde fines científicos y administrativos,
hasta de entretenimiento y desarrollo.

Durante la década de los años 80, Japón lideró un proyecto enfocado en crear un computador cuya
tecnología fuera capaz de funcionar como una inteligencia artificial, sin embargo, al no obtener
resultados significativos, el proyecto fue abandonado. No obstante, actualmente es cada vez más
evidente que esta meta está más cerca de ser lograda.

Las principales características de las computadoras de quinta generación son las siguientes:

A partir de la llegada de la quinta generación empieza el boom de las computadoras económicas,


eficientes y portátiles.

Es a partir de 1983 que aparece la tecnología que utiliza los materiales superconductores, lo que
permitió el desarrollo de microprocesadores cada vez más potentes.

Comienza el estudio y desarrollo de la inteligencia artificial.

El uso de interfaces amigables para cualquier usuario se vuelve una tendencia.

Surgen lenguajes de programación de alto nivel cada vez más completos.

Empieza a ganar popularidad el uso de los ordenadores con fines recreativos.

Con la llegada de la quinta generación de computadoras, empieza a implementarse el


procesamiento paralelo, lo que permitió hacer que el procesamiento de datos fuera cada vez más
veloz y eficiente.

Nace el sistema operativo Microsoft Windows, uno de los más populares de todos los tiempos.

Principales modelos: Smartphone, Tablet, Laptop

27
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Es imposible mencionar todos los modelos de computadora que han surgido tras la llegada de la
quinta generación, esto se debe a que actualmente una computadora se ha vuelto una tendencia
en todos los hogares del mundo. No obstante, podemos señalar algunos de los equipos o las
formas de computadoras de quinta generación más comunes:

Laptops: Se trata de computadoras personales portátiles ligeras que pueden ser transportadas y
utilizadas prácticamente en cualquier sitio. Cuenta con las mismas facilidades que una PC de
escritorio convencional, solo que cuenta con una batería capaz de almacenar energía eléctrica para
que ésta pueda ser utilizada sin necesidad de estar conectada a una fuente de alimentación de
manera continua. Las laptops también cuentan con periféricos integrados como mouse, teclado,
cámaras e incluso unidades lectoras de DVD.

Teléfonos inteligentes: Los teléfonos inteligentes son dispositivos que funcionan como celulares
convencionales pero que además, integran todas las posibilidades de una PC. Así, podemos ver
como Android, por ejemplo, es un sistema operativo que permite que un teléfono móvil pueda
contar con todo tipo de softwares de aplicaciones.

Computadoras de alto rendimiento: Las PC de escritorio se encuentran en casi todos los hogares,
instituciones y oficinas del mundo. Gracias a estos equipos, el ser humano puede llevar a cabo
todo tipo de tareas y satisfacer sus necesidades. Desde ver una película y jugar un videojuego,
hasta realizar trabajos científicos o prácticas de laboratorio asistidas desde la comodidad de un
ordenador.

Los enormes avances en informática y tecnología permitieron generar un importante cambio en la


década de los 90, cuando se estima que se inició la quinta generación de computadoras.

Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento
de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y
sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas
necesidades.

Una de las principales características de esta generación es la simplificación y miniaturización del


ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con
los precios cada vez más accesibles. La tecnología VLSI fue sustituida por la ULSI (Ultra Large Scale
Integration).

El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la ejecución de
muchas operaciones simultáneamente por las máquinas.

La reducción de los costos de producción y del volumen de los componentes permitió la aplicación
de estos ordenadores en los llamados sistemas embutidos, que controlan aeronaves,
embarcaciones, automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación
de ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL.

Hoy en día sólo han quedado dos combatientes en el terreno de los procesadores para
computadoras, Intel y AMD. Entre ambos fabricantes cubren casi la totalidad de las necesidades de
proceso de cómputo en ámbitos como el hogar, la oficina y la industria, y han puesto en el
mercado CPUs con velocidades y rendimientos imposibles de imaginar tan sólo una década atrás.

28
Guía Práctica de Tecnología | Miranda Sara MARQUINA

En paralelo, Apple desarrollaría su sistema operativo iOs, para sus equipos MacBook, iPad, Apple
Watch, a la vez que Microsoft evolucionaba con sus Windows.

Por otro lado, para dispositivos móviles surge Android, que es un sistema operativo móvil basado
en el núcleo Linux y otros software de código abierto. Fue diseñado para dispositivos con pantalla
táctil, como teléfonos inteligentes, tabletas, relojes inteligentes Wear OS, automóviles con otros
sistemas a través de Android Auto, al igual los automóviles con el sistema Android Automotive y
televisores Android TV.

Inicialmente fue desarrollado por Android Inc., que fue adquirido por Google en 2005. Android fue
presentado en 2007 junto con la fundación del Open Handset Alliance (un consorcio de compañías
de hardware, software y telecomunicaciones) para avanzar en los estándares abiertos de los
dispositivos móviles. El código fuente principal de Android se conoce como Android Open Source
Project (AOSP), que se licencia principalmente bajo la Licencia Apache. Android es el sistema
operativo móvil más utilizado del mundo, con una cuota de mercado superior al 90 % al año 2018,
muy por encima de IOS.Android, Windows 10 y muchas otras innovaciones.

5.1 Computadores sin Generación

En 2019 – IBM presenta al mundo la primera computadora cuántica comercial, llamada IBM Q
System One. Este es considerado como uno de los saltos más importantes en la historia de la
computación.

La sexta generación será desarrollada en torno a las computadoras inteligentes basadas en redes
neuronales artificiales.

El ordenador cuántico usa, en lugar de los tradicionales microprocesadores de chips de silicio, un


dispositivo basado en propiedades físicas de los átomos, como el sentido de giro de ellos, para
contar números uno y cero (bits), en vez de cargas eléctricas como en los ordenadores actuales.
Otra característica es que los átomos también pueden sobreponerse, lo que permite al
equipamiento procesar ecuaciones mucho más rápido.

Este tipo de computación beneficiará, con el paso de los años, a muchos ámbitos, no sólo al de la
investigación o el desarrollo, sino que también será una parte más que importante de nuestra vida,
ya que permitirá desarrollar tareas que al día de hoy son imposibles de llevar a cabo debido a la
relativa poca potencia de cálculo de las computadoras modernas.

Este mayor poder de cómputo permitirá, entre otras cosas, una transformación total de cómo
hacemos las cosas los seres humanos, y no cabe ninguna duda que con el paso de los años en
buena medida dependeremos de su funcionamiento para poder llevar adelante nuestras
actividades. En este punto, sólo el tiempo dirá si es una buena idea o no.

Esta transformación por supuesto implica que cada vez más se magnifique el uso de nuestros datos
para poder brindarnos servicios más puntuales, así como también para ofrecernos beneficios para
nuestro trabajo o actividad diaria. Un ejemplo de ello es la llamada “Analítica aumentada”, la cual
intenta encontrar una nueva mirada sobre la forma en que los datos recolectados sean procesados
y ordenados, aun lo más simples y mundanos, de una manera en que puedan ser más útiles.

29
Guía Práctica de Tecnología | Miranda Sara MARQUINA

Si estos datos son usados con precisión, pueden mejorar en mucho el rendimiento de la mayoría
de los servicios que utilizamos en la actualidad, desde YouTube hasta el Home Banking. Se
considera que hasta el momento, el proceso de la incontable cantidad de datos de todos los
habitantes que usan servicios digitales a diario es algo que excede a la informática moderna, y por
este motivo se busca en la computación cuántica un modo de encontrar la solución a esta
problemática.

Otro punto en donde la computación cuántica puede ser el futuro de la informática es en el ámbito
de la Inteligencia artificial, ya que la tecnología cuántica podrá trabajar con miles de millones de
datos con mucha mayor facilidad que en la actualidad, lo que facilitará mucho el análisis de los
mismos sean mucho más directos y que las respuestas de los diferentes mecanismos que utilicen la
inteligencia artificial puedan ser mucho más rápidos y precisos.

Asimismo, la relación entre la inteligencia artificial y la computación cuántica podrá ofrecernos


escenarios que hoy en día son considerados de ciencia ficción, como por ejemplo, la aparición de
humanoides, robots con formas humanas diseñadas para brindarnos su ayuda donde sea que las
personas la necesiten. No es de extrañar que con el paso del tiempo, los humanoides sean
considerados como parte de un hogar, así como hoy consideramos a la tecnología de Internet de
las cosas (IOT) una asistencia que cada vez se está volviendo más irremplazable.

Como sabemos, la tecnología de la realidad aumentada es una de las formas más modernas de
poder interactuar con el mundo que nos rodea. Desde la simple aplicación en el entretenimiento
hasta la incorporación en muchas industrias para el desarrollo, la realidad aumentada es una
tecnología que llegó para quedarse, y es capaz de brindarnos resultados increíbles, en términos de
velocidad y comodidad.

Si a la realidad aumentada le sumamos la potencia de cómputo cuántica, podremos obtener


desarrollos impensados hasta hace unos pocos años atrás, como por ejemplo el diseño de espacios
inteligentes, como las llamadas “Smart Cities”, ciudades por completo automatizadas, y que sería
bastante improbable de poner en práctica sin la ayuda de una tecnología de computación
adecuada en términos de velocidad y potencia.

30

You might also like