You are on page 1of 30

EVALUACION DE SISTEMAS DE COMPUTO

ALUM: VAZQUEZ CEDILLO MARIO ALBERTO SEC: 5NV1

INVESTIGACION 2° UNIDAD

1

INDICE
2.1. Evaluación del hardware……………………………………………………………3 2.1.1. Consideraciones para la adquisición……………………………………………3 2.1.2. Consideraciones de operación…………………………………………………..7 2.1.3. Capacidad de crecimiento…………………………………………………….....10 2.1.4. Consideraciones de mantenimiento…………………………………………….10 2.1.5. Desarrollo de especificaciones de hardware…………………………………..14 2.1.6. Pruebas de rendimiento (Benchmark)………………………………………….17 2.2 Herramientas…………………………………………………………………………25 2.2.1. Familia de hardware de la computadora personal de IBM……………………26 CONCLUSIONES…………………………………………………………………...........29 BIBLIOGRAFIA…………………………………………………………………………….30

2

2.1 EVALUACIÓN DE HARDWARE
Es frecuente que una empresa adquiera un equipo de computo que al poco tiempo no cubre ya sus requerimientos de procesamiento de dates. Esto es producto, fundamentalmente, de no haber realizado un estudio a fondo de Io que se requería de dicho equipo y las necesidades reales de la empresa. Este aspecto ha prevalecido durante décadas, porque muchas empresas no entienden que adquirí el equipo de computo. mas que resolverles de manera inmediata un problema, automáticamente les implica otros. Muchos directivos no son advertidos por su personal técnico acerca de que la inversión en tecnología no solo esta en las herramientas que se adquieren, sino en la capacitación para saberlas utilizar de acuerdo con sus necesidades reales de automatización. Por eso sucede que: • EI equipo queda obsoleto al poco tiempo. • El equipo no se aprovecha al 100%. • Gran cantidad del equipo resulta incompatible con las nuevas maquinas, o no es posible intercambiar información o hacer respaldos con otras instalaciones. • EI equipo se satura cuando entra en producción por no haber analizado con certeza las cargas de trabajo ni los volúmenes de información a los cuales iba a ser sometido. • EI equipo no se utiliza como se debe porque el personal especializado es escaso y la capacitación as difícil de conseguir.

2.1.1 Consideraciones para la adquisición.
Durante el desarrollo de software, las distintas técnicas de evaluación son las principales estrategias para detectar faltas y fallos. Por tanto, son métodos de control de la calidad. En términos generales, se pueden distinguir dos tipos de evaluaciones durante el proceso de desarrollo: Verificaciones y Validaciones. Según el IEEE Std 729-1983 éstas se definen como:

3

De esta forma se intenta que la detección de defectos se haga lo antes posible y tenga menor impacto en el tiempo y esfuerzo de desarrollo. el único producto ejecutable del desarrollo. En otras palabras. En general. la verificación tiene que ver típicamente con errores de los desarrolladores que no han transformado bien un producto del desarrollo en otro. siguiendo así una estregia botomup. Mientras que la validación tiene que ver con errores de los desarrolladores al malinterpretar las necesidades del cliente. esto es la corrección de los mismos. cuando no existe código. Así pues. Esto es. Tanto para la realización de verificaciones como de validaciones se pueden utilizar distintos tipos de técnicas. La aplicación de técnica dinámicas es también conocido como pruebas del software o testing y se aplican generalmente sobre código que es. es necesario evaluar el sistema software a medida que se va avanzando en el proceso de desarrollo de dicho sistema. a diferencia de la evaluación dinámica que únicamente puede dar comienzo cuando finaliza la actividad de codificación. Esto es. ya sea durante su desarrollo como una vez finalizado. Ambas tareas (detección y correción) pueden realizarse por una misma persona o por personas distintas según la organización y el modelo de desarrollo sobre el que se esté aplicando la técnica. 4 . la evaluación estática acompaña a las actividades de desarrollo.  Verificación: Proceso de determinar si los productos de una determinada fase del desarrollo de software cumplen o no los requisitos establecidos durante la fase anterior. al ejecutar dicho sistema sobre esas entradas. Técnicas de Evaluación Dinámicas: Generan entradas al sistema con el objetivo de detectar fallos. Esto es. se pone el sistema a funcionar buscando posibles incongruencias entre la salida esperada y la salida real. Así. tanto a requisitos como a modelos de análisis. Ahora bien ¿cómo se realiza esta evaluación? Las técnicas de evaluación estática se aplican en el mismo orden en que se van generando los distintos productos del desarrollo siguiendo una filosofía top-down. estudian los distintos modelos que componen el sistema software buscando posibles faltas en los mismos. hoy por hoy. ya que será quien pueda detectar si hubo o no errores en la interpretación de sus necesidades. Validación: Proceso de evaluación del software al final del proceso de desarrollo para asegurar el cumplimiento de las necesidades del cliente. mientras que la validación ayuda a comprobar si se ha construido el producto correcto. Tal como se ha indicado anteriormente. Así la única persona que puede validar el software. La evaluación estática es el único modo disponible de evaluación de artefactos para las primeras fases del proceso de desarrollo (análisis y diseño). Veamos en la siguiente sección cómo estas técnicas de evaluación han de aplicarse durante todo el proceso de desarrollo. estas técnicas se agrupan en dos categorías:   Técnicas de Evaluación Estáticas: Buscan faltas sobre el sistema en reposo. Pero antes recordemos que todo proceso de evaluación además de la posible detección de defectos conlleva un proceso de depuración. la verificación ayuda comprobar si se ha construido el producto correctamente. diseño y código. estas técnicas se pueden aplicar. es el cliente.

los programas deberán evaluarse estáticamente. la Figura 2 muestra en detalle la aplicación de las técnicas estáticas y dinámicas para evaluar software. constando de una actividad de evaluación emparejada con cada actividad de desarrollo. No obstante. La actividad siguiente a la de implementación es la fase de pruebas unitarias. la actividad de Definición de Requisitos Software va emparejada con su correspondiente actividad de revisión y así. Más concretamente. Lo mismo ocurre con el diseño arquitectónico: sufrirá una mejora iterativa hasta que su nivel de calidad permita pasar al diseño detallado y así. sucesivamente. Es decir. la actividad de Definición de Requisitos de Usuario va acompañada de una actividad de Revisión de Requisitos de Usuario. antes de pasar a ella. Nótese que esto también ocurre en la fase de codificación. La evaluación estática (conocida con el nombre genérico de Revisiones) se realiza en paralelo al proceso de construcción. Las actividades de revisión marcan el punto de decisión para el paso a la siguiente actividad de desarrollo. Es decir. Modelo en V de Evaluación de Software Por tanto.Esta idea se muestra en la Figura 1 en la que como se observa la evaluación estática se realiza en el mismo sentido en que se van generando los productos del desarrollo de software. mientras que la dinámica se realiza en sentido inverso. la actividad de requisitos interactúa con la actividad de revisión de requisitos en un bucle de mejora iterativa hasta el momento en que la calidad de los requisitos permite abordar la subsiguiente fase de desarrollo. las actividades de evaluación estática constituyen los puntos de control o revisión utilizados por los gestores de proyectos y las organizaciones para evaluar tanto la calidad de los productos como el progreso del proyecto. las actividades de 5 . sucesivamente. . Del mismo modo que se ha hecho con los otros productos. Es decir.

el usuario ha de realizar la Prueba de Aceptación final sobre el sistema completo. Tomar medidas correctivas del desarrollo si las estimaciones indican que se está llevando a cabo un trabajo pobre. es gracias a la evaluación estática que se puede realizar esta estimación de la calidad del software de manera temprana. hay problemas con las técnicas que se están utilizando. pero la cantidad de faltas encontradas en un producto dan una idea de las faltas que aún pueden quedar así como de la calidad del trabajo de desarrollo de dicho producto. Una vez realizadas estas revisiones se procede con la evaluación dinámica. La experiencia parece indicar que donde hay un defecto hay otros. algún miembro del equipo tiene problemas que está afectando a su trabajo. la importancia de las técnicas estáticas de evaluación a la hora de controlar el nivel de calidad con el que se está llevando a cabo el desarrollo es crucial. la probabilidad de descubrir nuevos defectos en una parte del software es proporcional al número de defectos ya descubiertos. se prueban los distintos componentes que constituyen el software en la denominada Prueba de Integración. si las estimaciones de faltas remanentes indican que un determinado producto contiene más faltas de las habituales. por lo que la Prueba de Sistema es la que se encarga de buscar errores en este ensamblaje sofware/hardware. la estimación de faltas que aún quedan en un producto utilizando datos de las revisiones permiten dos acciones que ayudan a prevenir futuros defectos en el proyecto:   Seguir revisando el producto para disminuir el número de faltas remanentes. ayudan a predecir la fiabilidad del software que se está entregando (cuántas fallos quedan en el sistema sin encontrar). Nótese cómo la evaluación de los productos software mediante revisiones permite contar con una estimación temprana de la calidad con que se está llevando a cabo el desarrollo. Esto es así porque las revisiones encuentran faltas. Por tanto esta detección temprana previene encontrar estas faltas en estadios más avanzados del desarrollo. Es decir. Es en este principio sobre el que se basan los métodos de estimación de los defectos que quedan en un software. No obstante. Aunque más adelate se estudiarán en detalle los distintos tipos de pruebas dinámicas. Es decir. Esta prueba está orientada a detectar fallos provocados por una incorrecta comunicación entre módulos (no acorde con la especificación de diseño de alto nivel). El software se puede ejecutar en un contexto hardware concreto. quizás el equipo no las conoce 6 . Sin embargo. que como ya se ha indicado se realiza sobre el código. Seguidamente. algo se está haciendo mal (hay problemas en el equipo de desarrollo. se puede indicar que la primera prueba a realizar es la denominada Prueba de Unidad en la que se buscan errores en los componentes más pequeños del programa (módulos). Estos errores se detectan cuando dichos componentes no actúan como se ha especificado en el diseño detallado. Así pues. Es decir. excepto seguir probando el sistema hasta elevar el nivel de fiabilidad del mismo. la falta que detectemos en los requisitos estaremos evitando contagiarla al diseño y al código. Finalmente.revisión son una herramienta de control para el producto software. pero poco se puede hacer ya. ya sean los modelos de fiabilidad (que utilizan como entrada los fallos encontrados durante las pruebas) ya sean los métodos de estimación del contenido de faltas (que utilizan como entrada las faltas encontradas mediante revisiones). Los modelos que utilizan los datos de las técnicas de testing. puesto que los modelos de fiabilidad requieren el código ya desarrollado para dar una indicación de los posibles fallos que quedan remanentes en dicho código.

Veamos una analogía con la arquitectura de edificios. puede afirmarse que la utilización de inspecciones de código produce un ahorro del 39% sobre el coste de detectar y corregir defectos. con las técnicas estáticas. defectos en los requisitos se traducirán en defectos en el sistema final.) y deben tomarse acciones que remedien o palien estos problemas antes de que afecten al resultad final del proyecto.1. La experiencia demuestra que entre el 30% y el 70% de los defectos. Nótese que cuando durante la evaluación dinámica del sistema se detecta una fallo en un programa. frente a únicamente utilizar la evaluación dinámica. lo que se detecta son directamente faltas. Por ejemplo. Es decir. Sistema y aceptación. si los resultados no son satisfactorios el software (y en su caso el hardware) no debe adquirirse hasta que cambios o modificaciones en éste o en el equipo permitan obtener una garantía de satisfacción al adquiriente. Si en un plano el color de una línea indica su significado. una vez detectada.2 Consideraciones de operación. lo que se detecta es el fallo. no la falta que lo provoca. Entre éstos se pueden citar los siguientes:    Evaluación del progreso del proyecto Potencia las capacidades de los participantes Mejoran la comunicación entre el equipo de desarrollo. se puede pasar a la fase de corrección. El plano de un edificio es el artefacto equivalente al diseño de un producto software. pues los productos pasan a ser documentos públicos. una confusión en el color se traducirá en un error en el edificio. Las revisiones también proporcionan beneficios más generales. La detección temprana de errores acarrea grandes beneficios. de diseño y código son detectados por las técnicas estáticas. Esto significa. La razón para buscar defectos en productos tempranos es porque éstos se traducen en defectos en la funcionalidad del producto final. Es decir. Pero los ahorros son mayores si se inspeccionan artefactos tempranos del desarrollo. Estudiando los resultados publicados sobre ahorros con las revisiones.bien. se requiere una labor de localización en el programa de la falta que provocó el fallo. desaparece la tarea de localización de la falta. tras la detección del fallo. Si las revisiones únicamente se aplican al código mejoran la calidad y producen ahorros en los costos del proyecto. los electricistas que usen el plano como guía para su trabajo no colocarán cables eléctricos mientras que los fontaneros colocarán tuberías de agua donde no debían ir. Cuando el software se adquiere ya desarrollado (compra de paquetería o funcionando en otra organización) las pruebas cobran especial importancia. Esto supone un gran ahorro. 7 . si el azul indica tuberías de agua y el amarillo cables eléctricos y el arquitecto comete un error usando el azul en una conducción eléctrica. 2. sobre todo las de integración. Si un diseño contiene defectos. el ahorro es del 44% si se inspecciona también el diseño. Sin embargo. Es decir. Sin embargo. seguramente estos defectos se trasmitirán al código cuando los programadores usen ese diseño como guía para su trabajo. pues la corrección es más fácil y menos costosa durante la evaluación estática que durante la dinámica. aumentando su motivación. etc. Por tanto. que las técnicas estáticas son más baratas por falta que las dinámicas.

Si esto es así.  Proporciona aprendizaje. Digamos que si uno no sabe lo que busca (por ejemplo.. La calidad significa una cosa distinta para cada producto. Compleción. código. La evaluación estática de los distintos artefactos o productos que se generan en el desarrollo de software (especificación de requisitos. retroalimentación y prevención Forma y educa a los participantes En el caso concreto de las revisiones de código. digamos. Es decir. un mismo requisito puede ser interpretado de modo distinto por dos personas diferentes y. a escala. que no se caiga). En un plano de un futuro edificio se desea que sea claro (se entienda suficientemente bien como para servir de guía a la construcción del edificio).Especificación completamente del problema. no sobra nadaConsistencia. o pide que haga algo que no deba hacer. permiten localizar secciones críticas. Del mismo modo que la calidad de un plano y la calidad de una casa significa cosas distintas. que sea correcto (por ejemplo. que las líneas que identifican paredes indiquen. Puesto que la función de un requisito es indicar qué debe hacer el sistema. además. un requisito incorrecto será aquel que. que las medidas de las líneas en ambas páginas se correspondan con la misma medida de la realidad). entre las distintas hojas que forman el plano. Los defectos que se buscan al evaluar estáticamente los productos software son: • Para los REQUISITOS:  Corrección. precisamente porque son artefactos distintos. usable (por ejemplo. los requisitos pierden su valor pues dejan de cumplir su función (indicar qué debe hacer el sistema). Si fuese así. cuando se esté evaluando estáticamente un producto software. etc.. una especificación debe carecer de ambigüedades. modelos conceptuales. inconsistencias al revisar la calidad de un plano) es difícil que lo encuentre. No hay requisitos contradictorios. efectivamente el lugar donde se desea que vayan las paredes). Ambigüedad. si una página se focaliza. un requisito incorrecto es un requisito que no cumple bien su función.Los requisitos especifican correctamente lo que el sistema debe hacer.   8 . Por tanto. éstas. en una habitación que en otra página aparecía sólo sus cuatro paredes. lo que permitirá dedicar un mayor esfuerzo a ellas en la fase de pruebas. Sin embargo. Por tanto. es importante que el evaluador tenga en mente qué tipo de defectos está buscando y cuál sería un producto de ese tipo de calidad adecuada. crear dos sistemas distintos. En dos palabras: no falta nada.. por tanto.Los requisitos no pueden estar sujetos a interpretación. aunque lo tenga delante. de una casa se espera que sea robusta (por ejemplo.) pretende comprobar su calidad. que los peldaños de las escaleras no sean tan estrechos que provoquen caídas) etc. o bien pide que el sistema haga algo que no es lo que debe hacer.. Está especificadotodo lo que tiene que hacer el sistema y no incluye nada que el sistema no deba hacer. diseño. etc. que no tenga inconsistencias (por ejemplo. Las ambigüedades provocan interpretación por parte de la persona que use o lea los requisitos.

Compleción. Código Fuente:  Corrección. No puede indicarse algo en una parte del diseño. Un defecto de corrección es un código que está mal para cualquier dominio. Defectos de “escritura”. nada sobra. Defectos con respecto a los requisitos: el diseño no realiza lo que el requisito establece. al diseño).. pasando por el fragmento de diseño. Un defecto de validez es un código que. en este caso. el código debe ser consistente entre todas sus partes. los primeros son los puros defectos de corrección. etc. Por ejemplo.. Los errores de corrección se pueden referir a dos aspectos. mientras que los segundos son defectos de validez... Factibilidad. los primeros son los puros defectos de corrección. estos requisitos.Se debe poder navegar desde un requisito hasta el fragmento de código donde éste se ejecute. nada falta. y lo contrario en otra. Defectos de “escritura”. lo que habitualmente se conoce por “programa que no funciona”. Consistencia. Hablando apropiadamente. De nuevo.. es decir. contador que se sale de las dimensiones de un array.El diseño debe estar completo. Debe poderse implementar. mientras que los defectos de corrección son errores siempre.El código debe estar completo. Una vez más. es decir. Trazabilidad. Claridad.Al igual que en los requisitos y diseño. Ya sea que diseña todo el sistema marcado por los requisitos. en este dominio particular (el marcado por esta necesidad de usuario. Defectos con respecto al diseño: el diseño no realiza lo que el diseño establece. mientras que los segundos son defectos de validez. aún sin conocer el problema que se pretende resolver.    Compleción. hablando apropiadamente. De nuevo.Al igual que en los requisitos. o define un array de un tamaño que no es el que se corresponde con el problema.El diseño no debe contener errores. Por ejemplo. No puede hacerse algo en una parte del código. el diseño debe ser consistente entre todas sus partes.. 9 .El código no debe contener errores.Se entiende claramente lo que está especificado.. nada falta ni nada sobra (con respecto. variable definida de un tipo pero utilizada de otro.. “a primera vista” no hay nada incorrecto en la definición del tipo y su uso) que no es la que corresponde con el problema. Los errores de corrección se pueden referir a dos aspectos. y lo contrario en otra. Consistencia. • Para el DISEÑO:      Corrección. y este diseño) hace algo inapropiado.. Trazabilidad. bucles infinitos. es decir.. ya sea no diseñando ninguna parte no indicada en los requisitos.El diseño debe ser realizable. define una variable de un tipo (y se usa en el programa con ese tipo. defectos en el uso de la notación de diseño empleada (el diseño contiene detalles prohibidos por la notación). Nótese que para detectar los errores de validez (en cualquier producto) debe entenderse el problema que se pretende resolver.Se debe poder navegar desde un requisito hasta el fragmento de diseño donde éste se encuentra representado.

3 Capacidad de crecimiento El software. electromecánicos y mecánicos. El término proviene del inglés y es definido por la RAE 10 . Hardware Corresponde a todas las partes físicas y tangibles de un computador. Las ligas contenidas en cada uno de los elementos enunciados amplian la información al respecto. Iniciaremos presentando el siguiente esquema de el hardware típico de un computador PC. sus componentes eléctricos.2. Esto nos permite ver que se requieren técnicas de evaluación dinámicas para poder pensar en un comportamiento adecuado del sistema en futuro. contrariamente al soporte lógico intangible que es llamado software. por ello debemos prever que la capacidad de un sistema deberá aumentar conforme la carga de trabajo y la demanda de los usuarios se hace mayor. Concretamente la Prueba de software se puede definir como una actividad en la cual un sistema o uno de sus componentes se ejecuta en circunstancias previamente especificadas (configuración de la prueba). Seguidamente se realiza un proceso de Evaluación en el que los resultados obtenidos se comparan con los resultados esperados para localizar fallos en el software. La Figura muestra el contexto en el que se realiza la prueba de software. Como se ha indicado anteriormente. al igual que la gran mayoría de productos y procesos cambia en el tiempo. la información y formato que aquí se presenta ayuda efectivamente a lograr este propósito.4 Consideraciones de mantenimiento. 2.1. La base del mantenimiento de cualquier máquina es el conocimiento de la estructura y funcionalidad de la misma. Como resultado final se puede obtener una determinada Predicción de Fiabilidad. tal como se indicó anteriormente. o un cierto nivel de confianza en el software probado. a la aplicación de técnicas de evaluación dinámicas se le denomina también prueba del software. Estos fallos conducen a un proceso de Depuración en el que es necesario identificar la falta asociada con cada fallo y corregirla. lo cual ocurre en la gran mayoría de casos. registrándose los resultados obtenidos.1. electrónicos. pudiendo dar lugar a una nueva prueba.

por lo tanto será necesaria su automatización absoluta. es decir. cuando se utiliza una calculadora. El objetivo debe ser un mecanismo para todo propósito. Es interesante mencionar que las primeras computadoras funcionaban en forma similar a las actuales calculadoras. CD-ROM. existe como información. oraciones. 11 . durante los dos años siguientes el documento constituyó un punto central de tensión entre Goldstine y von Neumann por una lado y Eckert y Mauchly por el otro. Tal velocidad hará que resulte imposible la intervención del ser humano inteligente durante el tiempo de trabajo de la máquina. Como analogía: Una computadora sin software sería tan inútil como un libro con páginas en blanco. generalmente para describir componentes físicos de una tecnología. resulta por completo inadecuada. La computadora propiamente dicha incluye tomas de decisiones internas. un equipo electrónico. y en muchos casos con detalles tan impredecibles. la aerodinámica. un equipo informático o un robot. símbolos. etc. la mecánica celeste y en otras áreas diversas…prácticamente inaccesibles para los métodos actuales de análisis matemático abstracto. monitor. en el caso de una computadora personal serían: Unidades de disco. así el hardware puede ser de un equipo militar importante. párrafos (información) son el software. Este es uno de los aspectos importantes del trabajo de von Neumann. o de las máquinas de computación no electrónicas existentes. mientras que el contenido en las palabras. Por ello ninguna máquina analógica que represente números por medio de cantidades físicas (como el analizador diferencial) será aplicable. quien escribió: “Existen diversos problemas importantes en la hidrodinámica. y para los cuales la capacidad de un equipo de computación humano. con el transcurso del tiempo las actitudes referidas a ambos temas se endurecieron”. sin embargo. disquetera (floppy). asociadas al programa que se ejecuta. se podría decir: lo que no tiene materia. en algunos casos incluso más). El hardware se refiere a todos los componentes físicos (que se pueden tocar). se requerirá una precisión considerable (en muchos casos 10 dígitos decimales. placa base. Especialmente cuando existen derechos de patentes de por medio. Los problemas son tan variados. Esos problemas sólo pueden ser resueltos con máquinas de velocidad intrínseca. teclado. es usual que sea utilizado en una forma más amplia. ese desacuerdo produjo la ruptura de relaciones entre ellos. armarios o cajas. aparecen los conflictos. Finalmente. conceptos. En cambio. Una buena metáfora sería un libro: las tapas. En dicho conjunto se incluyen los dispositivos electrónicos y electromecánicos.como el "Conjunto de los componentes que integran la parte material de una computadora". Al parecer. etc. William Aspray escribió: “No obstante. ideas. las decisiones intermedias son tomadas por la persona que realiza cálculos. el software es intangible. Existían dos temas íntimamente ligados: el crédito intelectual de las ideas expresadas en el borrador y los derechos de autor de las ideas presentadas en el EDVAC. cables. el mecanismo propuesto deberá ser estrictamente digital (al igual que las famosas multiplicadoras de escritorio)” (Citado en “John von Neumann y los orígenes de la computación moderna”). la cual sólo puede ser alcanzada con procesos electrónicos. En informática también se aplica a los periféricos de una computadora tales como el disco duro. periféricos de todo tipo y cualquier otro elemento físico involucrado. Como en todas las grandes historias. que no sería sensato construir una máquina de un solo propósito para un solo problema o grupo de problemas relacionados. hojas y la tinta son el hardware. circuitos. el microprocesador.

mayor cantidad de operaciones podrá realizar en cierto tiempo. Prensa Científica SA  El ENIAC (Electronic Numerical Integrator and Computer) fue el primer ordenador electrónico conocido por el público. Y a mayor frecuencia. Uno de los primeros ordenadores personales. pero no era rentable y perdimos varios centenares de millones de dólares”. pero el procedimiento de impresión es más sencillo que el de recubrimiento con plantillas y tratamiento químico. para conseguir el efecto deseado. 12 . Jack Kilby. fue el TI99/4A. información requerida por las empresas petroleras. cada fotografía en color es descompuesta en tres colores y en negro. Así. Para quienes crecimos sin Internet. En 1952 obtuvo una licencia de los Bell Laboratories para fabricar transistores y en 1954 produjo la primera radio a transistores. otra es la reducción de las dimensiones de una computadora.Circuitos integrados La integración a gran escala presenta varias ventajas. A menor longitud. que realizaba perfilajes electrónicos del suelo. Se construyó entre 1943 y 1946 en el departamento de ingeniería eléctrica de la Universidad de Pensilvania (EEUU) bajo la dirección de J. uno de sus empleados. Un empleado de la empresa expresó: “El TI99/4A se estaba vendiendo muy bien. Las computadoras personales La aparición de los ordenadores personales permitió la realización de la mayor red informática mundial. aparecido en 1978. Tenía una memoria RAM de 16 Kb y disponía de una selección de 16 colores. En el proceso de fabricación del chip se emplean capas de silicio dopado y otros materiales en vez de tinta. Los circuitos integrados se deben a Jack Kilby y a Robert Noyce. La Texas Instruments fue una empresa creada a partir de la Geophysical Service Incorporated. de la Texas Instruments. con mucha precisión. En 1958. aunque sus comienzos estuvieron velados por el secreto de la guerra. En la actualidad no sólo fabrica ordenadores personales. realiza el primer circuito integrado. menor ha de ser el tiempo de propagación de las señales eléctricas en su interior. aumentando la velocidad de cómputo. desde nuestra propia casa. que alguien nos hubiera dicho que en el futuro podríamos comunicarnos tan fácilmente. Internet. Las cuatro películas se imprimen. y mayor ha de ser la frecuencia a la que podrá funcionar. con todo el mundo. nos hubiese resultado poco creíble. Esta técnica es muy parecida a la forma en que se imprimen las ilustraciones en color. Algunos datos curiosos en el desarrollo de la computadora MÁQUINAS DE CÓMPUTO – Investigación y ciencia – Ed. una sobre otra. sino también gran parte de los chips utilizados en los distintos circuitos electrónicos. El proceso de fabricación del circuito integrado requiere que cada capa del circuito (realizado con materiales adecuados) sea depositada por separado sobre la superficie de una lámina de silicio. hace unos años. una de ellas es la reducción de costos de fabricación.

La calculadora científica HP-35.        Presper Eckert. Su precio era algo superior a un millón de pesetas de las de entonces. científicos y contables a partir de 1974. MS-DOS o simplemente DOS. en cambio. La programación consistía en modificar manualmente las conexiones según el problema a resolver. Las estimaciones de la demanda existente para la nueva máquina que realizaron por aquella época las grandes compañías norteamericanas de equipos de oficinas (entre ellas IBM) no eran muy optimistas: se consideraba que bastarían dos docenas de ejemplares para cubrir todas las necesidades de cómputo de los sectores público y privado de los EEUU. la HP-65. ZX-81 y finalmente Spectrum. tuvo especial aceptación. de Sinclair. El primero de ellos que alcanzó cierta popularidad se llamaba CP/M (Control Program/Monitor) y había sido desarrollado por Gary Kildall en 1973. Encuentra sus primeros usos en calculadoras portátiles y relojes electrónicos. Hacia 1970 se convierte en realidad el primer “microprocesador” físico: una pastilla que puede funcionar por sí sola como unidad central de proceso (CPU). manejaba números decimales de un máximo de 10 cifras. El inesperado éxito comercial del PC enriqueció a Microsoft y le permitió iniciar su vertiginosa carrera posterior en el ámbito de la programación. La serie constituida por los modelos ZX-80. no fue elaborado por IBM. consistentes por lo general en conjuntos de componentes que los aficionados a la electrónica montaban por sí mismos.000 lámparas de vacío. Todavía a principios de los años ochenta. La precipitada adaptación de CP/M que Microsoft realizó se convirtió en la primera versión del famoso PC-DOS. IBM no tenía puestas en él muchas expectativas. Las ventas mundiales fueron tales que la reina de Inglaterra concedió el título de Sir a Clive Sinclair. Su sucesora programable. pantalla y dispositivos de almacenamiento externo (cintas y discos magnéticos) fue necesario contar con programas encargados de manejar esos recursos. para el Estado mayor del ejército norteamericano. lo que se conocía como “sistema operativo”. El sistema operativo del PC. sino sólo una o dos unidades de disco flexible de 5 ¼ pulgadas (que no actuaban inicialmente más que por una cara) y ninguna capacidad gráfica en su monitor monocromo. Cuando se añadieron teclado. fue el inicio de la informática personal para muchos ingenieros. No tenía disco rígido. Jr. La memoria interna era muy reducida y la externa inexistente. significó el paso a la historia de la regla de cálculo. y John Mauchly. entonces desconocida. Inicialmente no tenían teclado ni pantalla: las instrucciones y los datos se introducían mediante series de conmutadores situados en un panel frontal y los resultados se obtenían leyendo otra serie de indicadores luminosos. En 1975 algunas firmas comerciales empezaron a ofrecer “microordenadores”. presentada por Hewlett-Packard en 1972. haciendo los cómputos en paralelo y su reloj batía a 100 Khz. sino que se encargó a una pequeña empresa de programación. su promotor. Intel y Texas Instruments son las compañías que disputan su paternidad. la mayor parte de los particulares que deseaban tener un acceso directo a los ordenadores lo hacían por medio de aparatos que hoy parecen poco más que juguetes. Utilizaba 18. por el impulso que supusieron para las exportaciones británicas. El tipo de máquina que hoy se conoce como PC fue inicialmente un producto puesto a la venta por IBM en 1981. 13 . llamada Microsoft.

los clásicos de tubo de rayos catódicos (o CRT) y los de pantalla plana. Las capacidades extraordinarias que tienen los computadores no se deben a su habilidad para ejecutar instrucciones complejas. los de pantalla de cristal líquido (o LCD). Aunque físicamente hay una miríada de formas. Teclado Un teclado de computadora es un periférico. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos 14 . Los programas de ordenador son simplemente largas listas de instrucciones que debe ejecutar el computador. muestra los resultados del procesamiento de una computadora. es un dispositivo de salida que. ya que mejoran el rendimiento de la computadora y a la hora de trabajar con ellos se daña menos la salud del usuario. utilizado como entrada o control de datos. Hay diferentes tipos de monitores. Tiene su origen en los teletipos y las máquinas de escribir eléctricas. pues salvo casos muy especiales es común a todos los dispositivos y fabricantes (incluso para teclados árabes y japoneses). que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). se almacenan los datos y se va a por la siguiente instrucción. Actualmente se usan más estas últimas. El computador trae las instrucciones y los datos de la memoria. Se ejecutan las instrucciones. Este procedimiento se repite continuamente.5 Desarrollo de especificaciones de hardware Monitor El monitor o pantalla de computadora. dibujar un punto en la pantalla) y luego ponen dichos grupos de instrucciones a disposición de otros programadores para que estos elaboren funciones o tareas más complejas. utilizado para la introducción de órdenes y datos en una computadora. se suelen clasificar principalmente por la distribución de teclado de su zona alfanumérica. Hay programadores que desarrollan grupos de instrucciones para hacer tareas comunes (por ejemplo. 2. un computador personal moderno (en el año 2003) puede ejecutar de 2000 a 3000 millones de instrucciones por segundo.El funcionamiento de un computador es en principio bastante sencillo. a veces con tablas de datos.1. Ratón El ratón (del inglés. Muchos programas de computador contienen millones de instrucciones que se ejecutan a gran velocidad. generalmente fabricado en plástico. físico o virtual (por ejemplo teclados en pantalla o teclados láser). pronunciado [ˈmaʊs]) es un periférico de computadora de uso manual. Los computadores ejecutan millones de instrucciones simples diseñadas por programadores. hasta que se apaga la computadora. mediante una interfaz.

Impresora Una impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico. Muchas impresoras son usadas como periféricos. que llevan el principio de las memorias USB. tienen un interfaz de red interno (típicamente wireless o Ethernet). ya que la luz láser no desempeña su función correcta. Escáner En informática. Hoy. mediante el uso de la luz. utilizando cartuchos de tinta o tecnología láser. una superficie que no genere un reflejo. y están permanentemente unidas a la computadora por un cable. el puntero reacciona a los movimientos debido a un rayo de luz que se refleja entre el ratón y la superficie en la que se encuentra. reflejándose habitualmente a través de un puntero o flecha en el monitor. y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. es donde en la mayoría de los casos reside el Sistema operativo de la computadora. conferencias. La superficie a apoyar el ratón debe ser opaca. normalmente en papel o transparencias.dimensiones por la superficie horizontal en la que se apoya. imprimiendo en papel de lustre los datos en medios físicos. También hay impresoras multifuncionales que aparte de sus funciones de impresora funcionan como fotocopiadora y escáner. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. llamadas impresoras de red. sonidos de errores. En los discos duros se almacenan los datos del usuario. imágenes o cualquier otro impreso a formato digital. Cabe aclarar que un ratón óptico apoyado en un espejo por ejemplo es inutilizable. En una nueva generación están los discos duros de estado sólido. la información del desplazamiento era transmitida gracias al movimiento de una bola debajo del ratón. Anteriormente. Altavoces Los altavoces se utilizan para escuchar los sonidos emitidos por el computador. etc. En él encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. tales como música. un escáner (del idioma inglés: scanner) es un periférico que se utiliza para convertir. 15 . Otras impresoras. la cual accionaba dos rodillos que correspondían a los ejes X e Y. Disco duro El disco duro es un sistema de grabación magnética digital.

Etimología de la palabra ordenador La palabra ordenador proviene del francés ordinateur. lápiz óptico. memoria ROM Bus Entrada/salida Periféricos     Teclado Ratón. Tableta digitalizadora Monitor Impresora 16 . Tipos de computadores           Computador analógico Supercomputadora Computadora central Minicomputadora Microcomputadora Computadora de escritorio Computador personal Computadora doméstica Multiseat         Computadora portátil escritorio Computadora portátil Tablet PC Subportátil PC Ultra Móvil PDA Smartphone Cliente ligero Sistema empotrado de Componentes y periféricos Componentes principales       Tarjeta madre CPU o microprocesador BIOS Memoria RAM. El resto de idiomas europeos. En 1984. la technique et nous" que el uso de este sustantivo es incorrecto porque la función de un PC es procesar datos. El uso de la palabra ordinateur se ha exportado a algunos idiomas de la península Ibérica. que a su vez procede de ordonnateur (el que da órdenes). no dar órdenes. académicos franceses reconocieron en el debate "Les jeunes. Fue introducida por IBM en Francia en 1954 por cuestiones de marketing. como el castellano. entre los que se incluye el portugués. utilizan derivados del término computare. el catalán y el vascuence. pantalla táctil. touchpad. el alemán y el holandés.

ejecuta mas de una docena de las aplicaciones mas populares en el ambiente Windows. CD-ROM. DVD Otros         Carcasa Puerto serial Puerto paralelo PS/2 USB Firewire Tarjeta de red PCI 2. sino que las ejecuta directamente en los subsistemas específicos.6 Pruebas de Rendimiento (Benchmark) Las pruebas de rendimiento están estandarizadas para medir como los diferentes procesadores ejecutan específicos tipos de aplicaciones. las cuales usan llamadas al sistema durante actividades especificas de una aplicación(Ej. diskette. la cual enlaza actividades de la aplicación en subsistemas específicos. Los test de aplicaciones base entregan la mejor forma de medir el rendimiento completo de el sistema en el mundo real. la cual no intenta imitar la actividad de la aplicación.   Tarjeta de sonido Tarjeta de video Disco duro. Prueba de inspección (inspection tests). Prueba sintética (synthetic test) . Pruebas playback (playback test). El programa Winstone de Zdnet.: Llamados a gráficos o uso del disco) y las ejecuta aisladamente. Típicamente las pruebas de rendimiento miden el desempeño en tareas tales como:      Productividad Internet Codificación de Video y proyección de imagen Juegos Cómputo Intensivo Hay cuatro categorías generales de pruebas de comparación :     Pruebas aplicaciones-base (application-based) las ejecuta y las cronometra. 17 .1. Donde sea factible la tecnología playback le da la manera mas real de medir subsistemas individuales en aislación. es un ejemplo de este tipo de comparadores.

Por lo tanto el Dhrystone no tiene suficiente código de programa o acceso suficiente a las locaciones de memoria para simular la actividad de la mayoría de los programas reales. El Dhrystone benchmark hace un uso intensivo de estas áreas.El programa WinBench de ZDnet utiliza la tecnología playback para probar gráficos. Desde que el Dhrystone no ofrece una buena indicación del rendimiento de memoria. diseñado para contener ejemplos representativos de las operaciones normalmente requeridas por las aplicaciones. El Dhrystone benchmark es ampliamente usado en la industria de las computadoras como una medida de rendimiento. Esto permite al benchmarks trabajar apropiadamente en múltiple threads en Windows NT. El Whetstone benchmark es ampliamente usado en la industria de la computación como una medida de rendimiento. Los test Synthetic continúan en el estado de medición del rendimiento es por eso que winbench usa las pruebas de procesadores. Estas no calculan el resultado de ningún tipo. Su lugar de trabajo de código y datos puede generalmente ser mantenido en el cache de la CPU. Whetstone Whetstone es una medida de rendimiento de la CPU en punto flotante. con lo cual resulta con un alto rendimiento. Cdrom y subsistemas de disco duro. Wintune usa una versión modificada del Whetstone que mantiene sus datos en el programa de almacenamiento. Wintune tiene un set separado de prueba de memoria. El resultado del Dhrystone es determinado por el tiempo que toma la medición para ejecutar esta secuencia de instrucciones . expresado en Millones de instrucciones por segundo(MIPS). manteniendo alguno de sus datos en variables estáticas globales. Esto permite al benchmarks trabajar apropiadamente en múltiples threads en Windows NT. decisiones lógicas. por esto se incluye el test de inspección en el winbench. expresado en Millones de operaciones de punto flotante por segundo (MFLOPS). El Dhrystone es un benchmark sintético. también corre cientos de otras pruebas en áreas especificas del computador. La aritmética del entero simple. 18 . pero hacen enlaces de complicadas secuencias de instrucciones usadas por las aplicaciones. fue originalmente diseñado para un ambiente único. y accesos de memoria son las actividades dominantes de la CPU en la mayoría de los programas Windows. Dhrystone Dhrystone es una medida de rendimiento de la CPU en entero. Wintune (programa benchmark) usa la versión modificada del Dhrystone que mantiene sus datos en el almacenador del programa. El Dhrystone estándar . El Whetstone estándar. manteniendo alguno de sus datos en variables estáticas globales . Los test de inspección tienen su lugar verificando el comportamiento libre de fallas y midiendo rendimiento operación por operación. fue originalmente diseñado para un único ambiente (singlethreaded).

El efecto de cada componente 19 . y programas de ayuda de diseño en computación.aquellos que ofrecen el máximo rendimiento posible y aquellos que ofrecen un mínimo nivel de rendimiento. Estos son en su mayoría ingeniería científica. dibujo y pintado de programas. obtener de su PC depende de cómo cada uno de sus componentes trabajan juntos para realizar una tarea.La aritmética del punto flotante es la mas significativa en programas que requieren FPU . Las flechas indican que comprando el de mayor rendimiento se obtiene una vida útil más larga. Esto significa que no solo va a gestionar el software de hoy sino que dispone de los recursos necesarios para ejecutar los mas complejos programas del día de mañana.) Los programas procesadores de texto típicamente no hacen ningún computo en punto flotante. Tal como se muestra en el diagrama de más arriba. quiere obtener el máximo en la compra de su sistema. y un poco la aritmética del entero. Es importante evaluar a una serie de aspectos relativos al rendimiento cuando se han de tomar decisiones de compra. Ud. Factores del rendimiento de una computadora El rendimiento global que puede Vd. Es también un pequeño componente en hoja de cálculo. (Aunque la hoja de calculo trabaja con números también tiene una mejor presentación en pantalla. Usando el rendimiento para elegir el sistema correcto ¿Porqué considerar el Rendimiento? Juzgar el rendimiento de un sistema cuando se están tomando decisiones de compra es algo crítico a fin de retardar la obsolescencia y proteger su inversión. Parte de esto consiste en asegurarse que el sistema que elige le permite hacer lo que desea durante toda la vida del sistema. El Whetstone hace mucha aritmética del punto flotante un poco de acceso de memoria. de estadísticas. para cualquier punto determinado en el tiempo se encuentra disponible una gama de procesadores-.

Entonces puede Vd. Para tomar la decisión correcta. Otros componentes tales como memoria. 20 . buscando cual es el procesador que le ofrece el mejor rendimiento para su software. interesado en obtener un mejor rendimiento. a fin de ganar tiempo de respuesta en las actividades que diariamente realiza. el 54% del rendimiento del sistema depende de su procesador . Los porcentajes representan la utilización de los componentes cuando se ejecutan aplicaciones Windows* típicas Por tanto. Una manera de diferenciar estos productos consiste en saber cómo su rendimiento se ve afectado con los trabajos de los que está Vd. Es algo así como utilizar RPM para medir la velocidad de su automóvil. Tambien puede Vd. le ayudará a realizar una elección mejor informada.individual puede variar dependiendo de en cuanto está interviniendo en ejecutar una aplicación particular. a un precio razonable. comprender qué es lo que está midiendo. cuando se ejecutan aplicaciones Windows típicas. vídeo y disco también juegan un papel. medir el rendimiento no es siempre algo simple. necesita Vd. o CPU. Como se muestra más abajo. Una "conexión débil" en el sistema puede reducir significativamente la velocidad y el tiempo de respuesta que Vd. empezar a analizar los otros componentes del sistema para asegurarse que se benefician de todas las ventajas de la potencia del procesador. tales como crear un documento o trabajar sobre el último programa multimedia. ¿ Qué es lo que tiene que tener en cuenta acerca del rendimiento ? El decidir qué procesador Intel y qué sistema es el adecuado tiende a ser cada vez más difícil dado los nuevos productos PC que están apareciendo en el mercado. precisar de un rendimiento que le posibilite la opción de ejecutar el software cada vez más complejo de hoy dia. debe de empezar Vd. experimente. MHz Rendimiento Un error frecuente es medir el rendimiento entre PCs estableciendo la comparación entre la velocidad del procesador en MHz o velocidad del reloj. Saber cómo el rendimiento del procesador y el sistema se puede ver afectado. Sin embargo. cuando elija un sistema.

Es. por lo tanto. 21 . Algunas pruebas evalúan lo rápido que se dibuja un gráfico en la pantalla. de su computadora. Por ejemplo. Cada prueba evalúa un diferente tipo de trabajo. Estas es una de las razones por las que la industria creó las pruebas de rendimiento. etc. Es importante que. Ambos tipos tienen ventajas y desventajas. dado que el tacómetro NO mide la velocidad del vehículo. ejecutando exactamente la misma cada vez. Las pruebas sintéticas usan programas software creados específicamente para evaluar el rendimiento. tales como el procesador. Las pruebas de componente evalúan solamente partes específicas de una computadora. Probablemente no. para determinar si está excediendo el límite de velocidad (y evitándose una elevada multa)?. Otras evalúan cómo de rápidas se realizan determinadas operaciones matemáticas . la tarjeta gráfica. La utilidad y exactitud de cualquier prueba depende fundamentalmente de la calidad de su implementación y las suposiciones que se hacen. Las pruebas de sistema evalúan el rendimiento global del sistema.  Hay dos tipos de pruebas: APLICACION y SINTETICAS. que mide RPM.. los megahertzios no indican lo rápido que su hoja de cálculo se ejecutará. el disco. Crear una prueba requiere una considerable experiencia e inversión. un procesador Pentium(R) corriendo a 75 megahertzios supera fácilmente a un procesador IntelDX4(TM) a 100 megahertzios. pero no todas las pruebas han sido creadas de la misma forma. por lo que puede darse que los resultados pueden variar de una prueba a otra. Algunas pruebas evalúan lo rápido que una computadora puede generar un documento.  Hay dos niveles de pruebas: COMPONENTE y de SISTEMA. Estas pruebas no solamente pueden ayudarle a comprender el rendimiento de los diferentes sistemas a comparar. Para obtener resultados que tengan algún significado para Vd. versiones actualizadas de las pruebas. ¿Qué son las pruebas comparativas? Una prueba comparativa es un programa software que mide el rendimiento de una computadora. consiga Vd. sino que mide cuan rápido está rotando el motor. o las partes que la componen. como hace normalmente con su software cuando se le queda obsoleto. use pruebas que reflejen el uso que hace Vd. Así como las RPM no indican cuan rápido está circulando su automóvil. Pruebas de aplicación evalúan el rendimiento usando aplicaciones reales en la forma en que se utilizan. el tacómetro de su automóvil.¿Miraría Vd. inadecuado comparar cuan rápido dos PCs realizarán una tarea comparando únicamente velocidades de reloj o megahertzios. sino que también pueden ayudarle a evaluar el rendimiento de un sistema determinado bajo diferentes configuraciones hardware y software. Hay muchas pruebas de rendimiento diferentes disponibles hoy día. Algunas pruebas pueden evaluar todas esas tareas al mismo.

aplicaciones y características. ¿Porqué las antiguas pruebas pueden ser inadecuadas? 22 . los procesadores y las plataformas son cada vez más sofisticados . . y subsistemas mejorados de display. Estos avances han coincidido con nuevos sistemas operativos. . Pruebas como Dhrystone y PowerMeter MIPS* podían considerarse adecuadas en los tiempos del procesador 286 cuando los sistemas se configuraban de una forma relativamente simple comparada con hoy dia y cuando se ejecutaban aplicaciones DOS. Al mismo tiempo que la sofisticación ha aumentado. El resultado: una continua necesidad de nuevas pruebas comparativas para medir el rendimiento. necesita saber. el software continua mejorando en características y prestaciones . .Las pruebas comparativas modernas Como medir el rendimiento de los PC de hoy: La tecnología actual suministra rápidos procesadores de 32-bits. Para explorar la evolución de las nuevas pruebas para PC --y el porqué son tan importantes en su decisión de compra. la industria se ha dirigido a crear nuevos tipos y herramientas de evaluación del rendimiento a fin de poder obtener resultados más ajustados. Cuando se compra un PC. Al mismo tiempo. no pueden decirle todo lo que Vd. Esto se debe a que pruebas obsoletas basadas en antiguos entornos hardware y software. . es crítico incorporar a su proceso de evaluación métodos actualizados para obtener el rendimiento. mejor memoria. Ante todo. lo que da como resultado una continuada necesidad de pruebas comparativas modernas para medir adecuadamente el rendimiento de los PCs de hoy y mañana.

Esto proviene de los tiempos de programación para el 286 y el DOS. hay significativas diferencias entre el software para 32-bits y 16-bits. así como para aplicaciones de 16bits en Windows 3. Diferencias entre software de 32-bits y 16-bits La continua evolución a sistemas operativos de 32-bits está alentando a los vendedores de software a crear nuevas aplicaciones escritas en el modelo de programación para 32bits. El gráfico muestra el porcentaje del tiempo que el procesador ha gastado en diferentes instrucciones para aplicaciones de 32-bits en Windows*95.cuando ejecuta aplicaciones de 32-bits. con lo que típicamente las aplicaciones de 32-bits 23 .  Comparativamente. donde solamente era posible un direccionamiento de memoria de 64K al mismo tiempo. tales como tratamiento de instrucciones ALU y coma flotante. el software para 32-bits típicamente precisa menos gestión de memoria. Dos factores contribuyen principalmente al declive de este tipo de pruebas para medir el rendimiento. Ante todo.1. por ejemplo). Y los avances en el hardware y los sistemas operativos estan creando una gama de nuevas características del software que este tipo de pruebas antiguas sencillamente no tienen en cuenta.Ese tipo de pruebas no tienen completamente en cuenta la diferencia de rendimiento entre el software de 16 y 32-bits. Esto significa que todas las aplicaciones de 32-bits se ejecutan más rápidamente que todas sus equivalentes de 16-bits. ni son capaces de testear las posibilidades globales de las plataformas o los sistemas operativos de 32-bits de hoy dia.  El software de 16-bits necesita más tiempo en gestionar todo el entorno (tal como la gestión del segmento de memoria. liberando al procesador para gastar más tiempo en actividades críticas. El uso de software de 32-bits tiene implicaciones importantes para el procesador de los PC's dado que el sistema usa el tiempo de proceso de forma diferente --y de forma más eficaz-.

El aumento de aplicaciones que hacen un uso intensivo de vídeo y gráficos. la memoria y la arquitectura de la gestión de memoria. Estas incluyen mejores gráficos 3D..Los nuevos sistemas operativos como Windows NT dotan al sistema de una mayor fiabilidad para aislar las aplicaciones. requiere operaciones de entrada/salida más eficaces para un ancho de banda más alto del sistema. Incremento del tamaño de los datos. lo que es por aplicaciones aislantes desde el uno al otro y el sistema operativo -. que precisan de una mayor potencia de computación. 24 . y soporte de datos más complejos tales como audio y vídeo.El mayor número de características de una aplicación obligan a consumir un mayor espacio en todos los subsistemas de memoria. La evaluación del rendimiento de aplicaciones multitarea y sistemas multiprocesador requiere técnicas especiales.La multitarea tiene una mayor eficacia ejecutando algunas aplicaciones modernas.deberán de tener una significativa mejora sobre la versión para un entorno DOS de 16bits. Mejor protección de memoria. Este tipo de trabajo en modo múltiple requiere una gran potencia de proceso. Nuevas características del Software La mayoría de las pruebas antiguas pueden también fallar al analizar las nuevas características ofrecidas por el software más recientes como:       Multitarea. protocolos de telefonía (TAPI).tales como impresión o conmutar entre distintas aplicaciones.Estos Sistemas Operativos que aparecen incluyen nuevos Interfaces de Programación de Aplicaciones (APIs) que hacen más fácil a los desarrolladores de software integrar las más nuevas posibilidades en sus aplicaciones..otra característica que requiere adicional capacidad de proceso. Aplicaciones más grandes. Multitarea / Multiproceso. así como velocidades más rápidas de red.-La mayoría de los sistemas operativos de 32-bits dividen el tiempo de proceso en tareas múltiples --muchas de las cuales pueden ejecutarse de forma continuada en segundo plano-. Esto aumenta los requerimientos de rendimiento para discos... Nuevos recursos del sistema..

por ejemplo. de esta manera es mucho más fácil encontrar las informaciones que buscas. drives ópticos y tarjeta de sonido. 25 . tomando en cuenta que las divisiones temáticas te auxilian en tu lectura. basta escoger el ítem que deseas verificar y hacer clic sobre él. procesador. Las informaciones suministradas por la aplicación abarcan: Sistema Operativo. tarjeta madre. Además de eso.2. en caso de que quieras introducir más tarjeta de memoria. puedes saber si tiene slots suficientes apenas consultando las informaciones suministradas por Speccy. de esta forma. HERRAMIENTAS Todos saben que el mundo está lleno de aprovechadores. Memoria RAM. Todo está organizado en listas. pues hay muchos casos de técnicos mal intencionados que cambian las piezas nuevas de la computadora por piezas usadas. disco duro.2. Saber exactamente lo que hay por dentro antes de comprar o mandar a arreglar es esencial. tarjeta de video. este programa sirve para señalar la capacidad de la computadora. principalmente en el área de ventas y reparación de computadoras. Informaciones Los datos colectados por Speccy son mostrados en categorías.

Tenía un bus ISA de 16-bit y unidad de disco duro de 20MB. Los programas viejos no aprovecharán novedades como estándares de pantalla de alta resolución o instrucciones extendidas de procesamiento. La tarjeta de vídeo CGA (Color Graphics Adapter) podía usar una TV estándar como pantalla. la compañía china Lenovo Group se aseguró los derechos para producir computadoras personales con la marca IBM. Una unidad de disco flexible estaba disponible como opción extra. durante el segundo trimestre de 2005. son conocidos por sus números de modelo: Model 25.1 Familia de hardware de la Computadora Personal de IBM El primer IBM PC fue lanzado el 12 de agosto de 1981. Fue vendido con un MDA [Monochrome Display Adapter . Tenía 8 ranuras de expansión y un disco duro de 10 megabytes (ST-412). Todas las computadoras personales IBM son.77 MHz y el bus de expansión de 8-bit ISA con arquitectura bus XT El PC AT utilizó un procesador Intel 80286. 64 en la tarjeta principal y tres tarjetas de expansión de 64 K. Modelos IBM PC La PC original tenía una versión de BASIC en ROM. era económico para las empresas. Los modelos de su segunda generación.565. compatibles desde el punto de vista del software. IBM Portable. el Personal System/2 (PS/2). El procesador fue un Intel 8088 corriendo a 4. en general.2. pero la vendió principalmente como una PC más rápida para los usuarios. originalmente a 6 MHz y después a 8MHz. La PC original fracasó estrepitosamente en el mercado casero. Dentro de cada serie. empezaron a comprar máquinas con sus propios presupuestos para hacer los cálculos que habían aprendido en las escuelas de negocios. Algunos programas son sensibles al tiempo para una clase de velocidad particular. el máximo de memoria usando partes de IBM fue 256 K. Aunque no era barato. pero no todos los programas funcionarán en todas las máquinas. sino una serie de administradores de rango medio que vieron el potencial de la PC cuando se portó la hoja de cálculo VisiCalc. IBM hizo algunos intentos en el mercado con una máquina multi-usuario. IBM Convertible. Muchos años más tarde. los modelos son también normalmente referenciados por la velocidad del reloj de su CPU. no estaba disponible el disco duro. El dispositivo de almacenamiento estándar fue la cinta de cassette. Podía tomar 256 K de memoria en la tarjeta principal. Sólo tenía cinco ranuras de expansión.Adaptador de Pantalla Monocromática-]. 26 . no fueron los departamentos de cómputo de las empresas los responsables de comprarlo. Model 30. Confiando en el prestigio del nombre IBM. en favor del mercado de los servidores y de la prestación de servicios de consultoría de negocios y mercados de servicios IT. con un precio base de USD 1. pero fue extensamente usada en los negocios.77 MHz. La PC XT fue una máquina mejorada diseñada para uso en los negocios. IBM PCjr. Este movimiento refleja la actual falta de interés de la compañía por los computadoras personales. El procesador aún era un Intel 8088 de 4. Sin embargo. IBM lo vendió en configuraciones con 16 K y 64 K de RAM preinstaladas.2.

El EISA fue desarrollado como un retrospectivo estándar compatible. algunos vendedores de "compatibles" usaban interfaces de teclado propietarias. las más especializadas PCI o AGP son ahora usadas para tarjetas de expansión. pero acortó la tecla de retroceso. como el ISO-8859-1 o el Unicode. La tecla de escape se movilizó al lado opuesto del teclado.4 mm) de ancho. Juego de caracteres Para el IBM PC original se utilizó como base el alfabeto ASCII de 7 bits. 27 . Estas variantes se llamaron páginas de códigos (del inglés code pages). tal como 3. Este juego de caracteres no contaba con todos los necesarios para su uso en idiomas distintos del inglés. La placa base está conectada por cables a dispositivos de almacenamiento interno tal como disco duros. por ejemplo las teclas del cursor con shift. Véase también: Teclado de ordenador. con bahías fijas estándar. El IBM PC AT original usó un procesador Intel 80286 el cual puede acceder hasta 16 megabytes de memoria (aunque aplicaciones MS-DOS estándar no pueden usar más de un megabyte sin EMS). Teclado El teclado original del IBM PC de 1981 fue muy criticado por mecanógrafos por su colocación no estándar del Retorno y de la tecla Shift izquierda. lo que hizo que se crearan variantes del juego original en el que se sustituían los 128 caracteres extra para adaptarse al idioma correspondiente. Ésta lleva la CPU y la memoria. En 1984. Después.Tecnología Electrónica La tarjeta principal en una IBM PC se denomina placa base. Estos tienden a ser hechos en tamaños estándar. Está hasta el momento en uso en computadoras para el uso industrial. habiendo sido reemplazados por esquemas mucho mejores. En 1987. Un "IBM PC compatible" puede tener un teclado que no reconozca cada combinación de teclas que una verdadera IBM PC hacía. requerimientos de alta velocidad y más capacidad forzó el desarrollo de nuevas versiones. introdujo su teclado mejorado. que relocalizaba todas las teclas de función y situaba la tecla Control en un lugar torpe para el tacto de los mecanógrafos. Computadoras basadas en Intel 80286 corriendo bajo OS/2 pueden trabajar con la memoria máxima.5" (88. El bus usado en el PC original se hizo muy popular. Hoy en día estos códigos están obsoletos. y tiene un bus con ranuras para tarjetas de expansión.9 mm) y 5.25" (133. La caja también contiene una unidad de suministro de energía (PSU) el cual es o un AT o ATX el tamaño estándar. y fue llamado ISA. Los PC basadas en un Intel 8086 y 8088 requieren tarjetas EMS (memoria expandida) para trabajar con más que un megabyte de memoria. Además. disco flexible y unidad de CD-ROM. para imposibilitar reemplazar al modelo de teclado original. IBM corrigió esto en su teclado AT. pero se extendió a 8 bits agregando 128 códigos extra que no seguían ningún estándar y sólo eran utilizados por el IBM PC. haciéndola más difícil de alcanzar. En cambio. pero debido a la alta complejidad y desempeño medio no tuvo éxito.

Luego.44 megabytes. Con la llegada de la línea PS/2 se introdujo la versión de alta densidad de 1. 28 . el disco flexible de alta densidad no fue muy utilizado para intercambiar datos. que es una pieza de software relativamente pequeña almacenada en ROM. tanto BASIC como BASICA y GW-BASIC se distribuyeron en discos flexibles. Pero incluso para 1981 esto era obsoleto. pero no dejaron de invocar y referenciar rutinas en la ROM de la PC. En 1984. Además.5" y doble densidad con una capacidad de 720 kilobytes en su computadora laptop Convertible. El primer IBM PC que incluyó un disco duro fijo fue el XT (ST-412). y que se utiliza principalmente para arrancar el sistema (bootstraping en inglés).Medios de almacenamiento El IBM PC modelo 5150 original tenía una unidad de cassette como medio de almacenamiento estándar. Estas unidades de disco podrían instalarse también en los modelos anteriores de PC. el IBM PC venía con BASIC en ROM. Software Todos los IBM PC contenían una BIOS. de doble densidad. IBM introdujo el micro disco flexible de 3. En 1986.2 megabytes con su modelo AT. por lo que casi ninguna PC salió de fábrica sin una unidad de disco flexible. IBM introdujo la unidad de disco flexible de doble cara de 1. Aunque se usó frecuentemente como almacenamiento de copia de seguridad [backup]. El PC de 1981 tenía una o dos unidades de disco flexible de 5 1/4" a 360 kilobytes de un solo lado.

ya que tenemos que adaptarlo a las necesidades del cliente e incluso de nosotros mismos 29 .CONCLUCIONES En esta unidad se da a conocer las técnicas y aspectos que debemos tomar en cuenta para la adquisición de un equipo de computo o bien para el remplazo de este.

J. Chair. "Estructura y tecnología de computadores II" Editorial Sanz y Torres. New York (1988). IEEE Computer Society (2001-2003) http://www.mx/books?isbn=9589744605.com/download/speccy. "Computer Architecture and Organization (Second Edition)" McGraw-Hill.BIBLIOGRAFIA      S. Delgado. A.Guía práctica para manejar y reparar el computador Líneas de interrupción (IRQ) books. P. M.com. Tripp. Guide to the Software Engineering Body of Knowledge. Mira y A. Professional Practices Committee. Dormido. 2004 Leonard L. Aurelio Mejía Mesa .htm 30 .google.bajaki. J. Canto. 1994 HAYES.