L’ordinateur et son histoire

Le   terme  informatique  fut   crée   (en   1962   par   Philippe   Dreyfus)   par   la   réunion   des   deux   termes  information et automatique. Il s'agit du traitement automatique de l'information.

1) LES PRINCIPES DE BASE
a) L'automatisme
L'une des traditions dans lesquelles l'informatique puise une partie de sa force est celle de l'automatisme.  Un automate est une machine imitant les mouvements, les fonctions ou les actes d'un corps animé. Les   premiers   automates   répondaient   au   principe   de   programmation,   c'est­à­dire   d'exécution   d'une  séquence finie d'évènements. 

b) L'information
L'information analogique a comme support un signal continu, une oscillation dans une ligne électrique  par exemple.  L'information digitale désigne l'information codée de façon symbolique par des chiffres (par exemple,  décimaux). Les ordinateurs traitent des informations digitales codée en base 2 (binaire). Le message  transmis est alors constitué par des successions (ou paquets) de chiffres, sous forme de signaux binaires. Ce que l'on appelle la théorie de l'information, (Claude Shannon, 1948), fournit une mesure de quantité  d'information dont l'unité est le "le bit" (Binary digIT ; digit = nombre d'où digitaliser = numériser). Le  Bit, c'est la quantité d'information contenue dans le choix élémentaire entre deux possibilités également  probables, comme dans le cas du lancer d'une pièce de monnaie pour obtenir pile ou face. L'une des premières utilisation du code binaire par une machine fut le métier à tisser de Jacquard. Joseph  Marie   Jacquard   (1752­1834)   construisit   en   1804   le   premier   métier   à   tisser  entièrement  automatique  commandé par un système de cartes perforées : un tambour mobile soulève des crochets. Les trous ­ou  leur absence­ sur les cartons qui défilent interviennent directement sur la position des fils de chaîne au  moment du passage du fil de trame, commandant ainsi le motif du tissu.

c) Les calculateurs (Computer)
A la fin du XIXème siècle on assiste à une explosion d'innovations en matière de machines de bureau. Le  principe   du   clavier   est   adapté   (car   il   commencait   à   être   utilisé   sur   des   machines   à   écrire).   Les  "comptomètres" comportent donc des touches représentant des chiffres là où traditionnellement il fallait  tourner des roues (comme dans la machine de Pascal) ou faire coulisser des curseurs dans des rainures. Trois grands types de calculateurs seront mis au point dans les années quarante :
• •

Les calculateurs numériques électromécaniques. Les calculateurs numériques électroniques. Les calculateurs analogiques. 

Les calculateurs  numériques électroniques  furent assez vite considérés comme plus avantageux en  raison de la rapidité de commutation: on pouvait actionner un circuit ouvert/fermé plusieurs centaines de  milliers de fois par seconde grâce à l'absence de tout frottement mécanique.

L’ordinateur et son histoire
d) L'ordinateur moderne
La seconde guerre mondiale a joué un rôle décisif dans l'invention de l'ordinateur moderne. Plusieurs  chercheurs,   dont  John   von   Neumann,   travailleront   aux   côtés   de   l'armée   pour   mettre   au   point   des  machines ­ modèles réduits du cerveau humain­ permettant d'en comprendre mieux le fonctionnement et  d'en   faire  un  auxiliaire puissant dans  la résolution de certains problèmes abstraits ou nécessitant  la  manipulation d'un très grand nombre de données. En 1943 le BRL (Balistic Research Laboratory ­ John  von Neumann était membre du conseil scientifique du BRL) était complètement débordé, il produisait  15 tables de calcul de tir par semaine alors que la demande était de 40. Des calculateurs humains (en  majorité des femmes diplômées des collèges américains) étaient embauchés par centaines. En moyenne  un calculateur humain mettait 3 jours pour calculer une seule trajectoire (il en fallait plusieurs milliers  par table) alors qu'un  analyseur différentiel calculait en 15'  (mais il fallait une à  deux heures de  câblage à chaque nouvelle opération !). L'ENIAC  (Electronic Numerator, Integrator, Analyzer and Computer) ou "projet PX" (nom secret de  l'ENIAC, classé secret militaire), opérere la transition entre les derniers calculateurs et les premiers  ordinateurs. La construction de l'ENIAC démarra en juin 1943 à la Moore school de l'université de  Pennsylvanie et fut achevée en novembre 1945. L'ENIAC avait une grande vitesse de fonctionnement,  était programmable et universel. Mais pour programmer l'ENIAC il fallait tourner à la main des milliers  de commutateurs et brancher spécialement des centaines de câbles.  Lors   de   sa   première   démonstration   publique   en   1946,   l'ENIAC  additionna   5000   nombres   en   une  seconde et calcula en 20 secondes la trajectoire d'un projectile qui mettait 30 sec pour atteindre sa cible  (là où un calculateur humain mettait 3 jours!). C'était une machine énorme composée de 40 panneaux  disposés en fer à cheval qui pesaient environ 30 tonnes et avaient une surface au sol de 160 m2. Elle  était   actionnée   par   un   moteur   équivalent   à   deux   puissants   moteurs   de   voitures   de   4   cylindres   et  produisait la chaleur de 50 chauffages domestiques. On disait (mais c'est une légende) que lorsqu'elle se  mettait en marche toutes les lumières du quartier de Philadelphie Ouest s'éteignaient. En parallèle, en Angleterre la machine Colossus (mise au point par Alan Turing) était utilisée au nord de  Londres pour le décryptage des messages de la marine allemande. Ces messages étaient décodés par une  série   de   machines   appelées   Enigma   qui   à   l'aide   de   clés   et   de   plusieurs   millions   de   permutations  décryptaient automatiquement les messages allemands. Le 20 Avril 1951 un test eu lieu au cours duquel un avion fit inopinément irruption dans le ciel du  Massachusetts. Repéré par un radar d'alerte il apparut sous forme d'un point brillant sur un écran du  Whirlwind (prototype des ordinateurs destinés à cet usage) avec la mention T (pour target:=cible). Un  avion intercepteur dont le point sur le radar était accompagné d'un F (pour Fighter :intercepteur) est alors  dirigé sur la cible. L'ordinateur calcule la trajectoire d'interception et guide l'intercepteur sur la cible.  L'innovation centrale était ici que, pour la première fois dans l'histoire de l'humanité, un dispositif non  humain était utilisé pour traiter de l'information et décider de la réponse approprié en temps réel et dans  un environnement changeant. La   société   IBM   fut   fortement   impliquée   dans   la   construction   d'ordinateurs   pour   la   défense.   Il   faut  attendre la mise au point du réseau SABRE (SABRE = Semi­automatic Business­related Environment.) 

L’ordinateur et son histoire
par IBM dans les années soixante (sytème télématique de réservation des places d'avion de la compagnie  American Airlines) pour que l'ordinateur soit utilisé dans le civil comme système d'information.

e) L'informatique
L'objet de l'algorithmique est la conception et l'optimisation des méthodes de calcul en mathématiques et  en   informatique.   Le   terme   d'algorithme   (qui   s'origine   dans   le   nom   du   mathématicien   persan   Al  Khwarizmi) est une notion assez ancienne que l'on trouve dans un traité d'algèbre du VIIIème siècle. Il a  trouvé sa forme achevée grâce au mathématicien anglais Alan Turing. Un algorithme (ou procédure  effective chez les anglo­saxons) est l'ensemble des règles permettant la résolution d'un problème donné.  Ces règles se présentent sous forme d'une suite d'opérations élémentaires obéissant à un enchaînement  déterminé. Turing a décrit une machine hypothétique consistant en une bande de papier sans fin et un pointeur qui  pouvait lire, écrire ou effacer un symbole, déplacer la bande vers la droite ou vers la gauche, pointer une  des cases du papier et s'arrêter. Avec un dispositif aussi simple, tous les problèmes que l'on pouvait décrire étaient susceptibles d'être  résolu par une machine (à mémoire infinie). La voie était donc toute tracée vers la conception d'une machine réalisant effectivement le traitement  automatique de l'information. Turing proposa en 1950 un "test" connu sous le nom de "jeu de l'imitation" pour déterminer si les  machines   pouvaient   penser.   Des   neurophysiologistes   de   leur   côté   (McCulloch   et   Pitts)   identifient  complètement le système nerveux à une machine logique, un "automate fini" fonctionnant sur le modèle  d'une machine de Turing. L'originalité de cette hypothèse était que les réseaux de neurones y étaient  considérés comme ayant une activité binaire. Il y avait donc une identité parfaite de la pensée et de son  incarnation dans le système nerveux. Les   progrès   en   matière   d'informatique   n'iront   pas   à   la   même   vitesse   selon   que   l'on   considère   les  principes de base, les langages ou les composants. Les principes de base mis au point en 1945 et qui  déterminent   l'architecture   des   ordinateurs   n'évolueront   pratiquement   pas.   Les   langages   de  programmation  connaîtront  eux une certaine  progression.  Le  matériel, enfin,  se  perfectionnera  sans  cesse et constituera la vitrine de l'informatique toute entière.

2) LES LANGAGES DE PROGRAMMATION
Un programme sert à transformer un problème concret en une suite de procédures logiques et abstraites  formulées de  telle sorte qu'une machine effectuant un petit nombre d'opérations logiques puisse  les  traiter sans erreur.  Un   langage   de   programmation   est   un   ensemble   d'instructions   qui   permettent   la   transcription   du  problème considéré.  Il faut interposer entre le "code" utilisé par la machine et le problème posé, un autre langage, traduisible  dans le code de la machine et compréhensible par quiconque ne connaît pas le code.

L’ordinateur et son histoire
Là où l'ordinateur se contente dans son code de ce que deux chiffres à additionner soient représentés par  des nombres binaires et l'opération d'addition ou de soustraction par un autre nombre binaire, un langage  de programmation prévoira que l'utilisateur tape au clavier par ex : SOU, suivi de deux chiffres exprimés  en décimal.  Cette  instruction  claire pour  l'être humain sera traduite en code­machine et traitée comme telle par  l'ordinateur. De même toutes les instructions utiles au fonctionnement d'un ordinateur ­ par ex, début, stop, mettre  dans   tel   endroit   de   la   mémoire,   imprimer   etc…   ­   peuvent   être   exprimées   dans   un   langage   de  programmation sous la forme de symboles proches du langage naturel. Le premier rédacteur d'un tel langage fut Alan Turing. Ce langage contenait cinquante instructions qui  étaient automatiquement transcrites en binaire par l'ordinateur. L'une des premières grandes figures de la programmation fut une femme Grace Murray Hopper qui  termina   sa   carrière   comme   capitaine   dans   le   corps   de   réserve   de   la   marine   après   s'être   engagée  volontaire  durant  la  dernière  guerre  mondiale.  Elle  développa  sur  l'UNIVAC 1  ce  qui fut  appelé  la  "programmation automatique", un programme interne qui transformait les instructions de l'utilisateur en  instructions­machines codées en binaire. Elle développa ce que l'on appelle un système de compilation  utilisant des mots à la place des symboles mathématiques. Le premier véritable langage de programmation fut le FORTRAN (FORmula TRANslation) mis au  point sur l'IBM 701 de 1953 à 56. Lordinateur n'était pas conçu pour en lire et exécuter directement les  instructions.   Il   fallait   donc   écrire   un   programme   intermédiaire,   le   compilateur,   qui   traduisait   tout  programme dans le langage codé de la machine. Le fortran pouvait donc fonctionner sur n'importe quel  ordinateur mais pour chaque modèle il fallait un compilateur approprié. Le langage Fortran était plus particulièrement dédié aux calculs scientifiques. D'autres langages de programmation seront conçus, le COBOL (COmmon Business­Oriented Language)  développé par Grace Murray Hopper, sera dédié aux applications administratives, commerciales, et au  secteur tertiaire en général. Sa mise en place date de 1960 et fut financée par le département de la  Défense américain dans le but de disposer d'un langage indépendant du modèle d'ordinateur. L'ALGOL   (ALGOrithmic   Language)   est   un   langage   très   théorique   mis   au   point   en   1960   par   des  européens. Peu utilisé, il fut très étudié comme modèle.  LISP, PROLOG langages dédiés à l'intelligence artificielle ainsi que PASCAL ont apporté quelques  progrès en matière de programmation. Le BASIC (Beginner's All­purpose Symbolic Instruction Code), conçu pour la micro­informatique et  pour écrire des programmes courts, s'adressera pour l'essentiel à des non­initiés. Cette liste n'est pas exhaustive...

3) LES COMPOSANTS
a) L'architecture
Un ordinateur a 4 grandes fonctions qui lui permettent de traiter des données :

L’ordinateur et son histoire
- entrée de données - calcul - stockage - sortie de données. L'unité centrale d'un micro-ordinateur comporte une carte-mère sur laquelle se trouvent des composants électroniques.

Parmi ses composants, le microprocesseur peut être considéré comme le "cerveau" de l'ordinateur. Il est composé de l'unité arithmétique et logique (UAL) et de l'unité de contrôle (ou de commande). L'unité arithmétique et logique (UAL) effectue le "traitement", c'est-à-dire les calculs à l'aide de 7 opérations élémentaires arithmétiques (addition, soustraction, multiplication, division), ou logiques (comparaison : pluspetit que, plus grand que, égal à). La carte-mère comporte aussi de la mémoire : la mémoire centrale : - RAM (Random Access Memory = mémoire à accès aléatoire) qui sert de mémoire de travail, c'est-àdire de stockage temporaire, volatile des données - ROM (Read Only Memory = mémoire morte) Les données circulent du microprocesseur aux périphériques sur une nappe de fils de connexion appelée bus de données. Les données qui circulent entre l'unité centrale et les périphériques, attendent d'être traitées dans une mémoire appelée mémoire tampon (ou buffer), qui permet de pallier la différence de vitesse entre les 2 éléments.

b) Les perfectionnements du matériel
Le transistor (transfer conductance resistor) et en particulier celui réalisé en silicium (les premiers semi­ conducteurs étaient en germanium) fut utilisé pour remplacer les lampes à vides afin de confectionner  les unités logiques de traitement de l'information.

L’ordinateur et son histoire
L'étape suivante fut la mise au point du circuit intégré (IC) base de la miniaturisation des composants.  Le circuit intégré est une petite plaque où sont superposés des couches successives de matériaux, comme  l'aluminium, qui permettent de graver dans la matière, des transistors, des amplificateurs, des résistances  et des circuits de connexion permettant aux informations de circuler sous une forme binaire et d'y être  stockées et traitées logiquement. Les tores de ferrite ont constitués les premières mémoires, mais en 1970, la firme Fairchild produit la  première  mémoire intégrée sur une puce suivant un principe analogue à celui du circuit intégré.  Il  s'agissait alors d'une "mémoire morte" (ROM: Ready­Only Memory) que l'on peut uniquement lire. La  même année Intel produisit la première mémoire vive (RAM: Random­Access Memory), mémoire dans  laquelle on peut lire, effacer et écrire les informations). La même société Intel réalisa en 1971 le premier "microprocesseur" (qui contient plusieurs milliers de  transistors)  et  qui réunissait et intégrait dans  un même ensemble miniature les unités du traitement  logique et la mémoire. Ces performances ouvrent la voie à la conception des premiers micro­ordinateurs.

c) Le micro­ordinateur
Dès   le   début   des   années   1960,   IBM   (Intelligent   Business   Machines),   décide   de   lancer   une   série  d'ordinateurs de différentes puissances compatibles entre eux. L'invention de la notion de compatibilité  signifiait qu'on pouvait changer de machines sans reécrire les programmes… à condition de rester IBM! La série 360 s'impose rapidement comme norme du système d'exploitation de la machine. L'une des  innovations de la série 360 fut la mise au point du code EBCDIC (pour Extended Binary Coded Decimal  Interchange Code). Enfin la série 360 innovait également sur le plan de la mémoire. Désormais la case  mémoire minimale sera le caractère de 8 chiffres binaires nommé octet. La mémoire de l'ordinateur est  donc formée par combinaison de ces briques de base que sont les octets. Le fameux Ko, qui mesure la  taille de la mémoire (Ko pour kilo­octet) vaut 1024 octets (1024 = 210), donc 1024 caractères. Tous les  assemblages de mémoire sont donc des multiples de 8. Ainsi, 16Ko, 64Ko …. Les ordinateurs deviennent de plus en plus petits (les mini­ordinateurs PDP 1 à 8 avaient la taille de gros  refrigérateurs domestiques). Les  premiers   micro­ordinateurs  dont  les   prototypes  sont  de   Digital   voient  le   jour  en   1973.  A   cette  occasion fut inventé le disque souple (floppy disc). Mais IBM et Digital jugèrent à l'époque qu'il n'y  avait pas d'usage concret immédiat pour ce genre de machine. Le premier Apple date de 1977 et le PC (Personal Computer) d'IBM de 1981.  Le micro­ordinateur est né du projet social (début des années 1970 ) d'un groupe radical américain qui  avait surtout comme souci la démocratisation de l'accès à l'information, plutôt qu'un désir d'innovation  technique. Un groupe d'étudiants de Berkeley crée en 1970 (en pleine lutte contre la guerre du Viet­nam) la revue  radicale People's Computer Company. Une   première   réalisation   de   ce   projet   politique   sera   Resource   One,   une   sorte   de   communauté  informatique installée derrière un local d'artistes de la banlieue de San Francisco et organisée autour 

L’ordinateur et son histoire
d'un IBM XDS­940. Une "base de données urbaines" accessible à tous collectait toutes les informations  utiles aux activités communautaires de la région. Un   second   projet   vit   rapidement   le   jour   en   Aôut   1973:   Communauty   Memory   (mémoire  communautaire), qui utilisait un réseau de terminaux dispersés dans toute la région. L'objectif  était  toujours une "démocratie directe en matière d'information".  Ces   objectifs   semblaient   rejoindre   ceux   de   Norbert   Wiener   pour   l'avènement   d'une   société   de  communication transparente et pacifique. Le premier véritable micro­ordinateur commercialisé, l'ALTAIR, fut mis au point à Albuquerque en  Californie. Plusieurs groupes réflechissaient à la possibilité de créer une technologie alternative avec des  moyens simples.  Ces   groupes   s'appelaient   :   Loving   Grace   Cybernetics,   IBM   pour   Itty­Bitty   Machine   Company,   ou  Kentucky Fried Computer en réference à la chaîne de restauration rapide de poulet, puis Apple dont le  premier logo était formé d'un blason sur lequel on pouvait voir Newton sous un arbre où pendait la  pomme, fruit de la connaissance! Le micro­ordinateur naquit donc au milieu de groupes plus ou moins hippies très sympathiques. L'Apple  II de Stephen Wozniac et Steven Jobs construit dans un garage apporta rapidement la fortune à ses  créateurs. Une partie des bénéfices fut investie dans le financement de deux gigantesques festivals rock  en 1982 et en 1983. Le micro­ordinateur trouva rapidement des relais en dehors du mouvement contestataire et le gouverneur  de Californie Jerry Brown l'encouragea fortement car disait­il "il est à l'origine d'une culture entièrement  différente où l'information est l'égalisateur et met à bas la hierarchie". L'annonce du modèle suivant d'Apple, le MacIntosh s'accompagnera d'un slogan en continuité avec les  origines de la micro­informatique : "Le principe de la démocratie tel qu'il s'applique à la technologie est  : une personne, un ordinateur". IBM attendra 1981 pour lancer son Personal Computer. L'industrie des logiciels s'est beaucoup développée depuis 1975. L'un des enjeux est alors devenu la  question de la compatibilité. Un logiciel donné (un programme de traitement de texte par exemple) ne  peut fonctionner qu'avec un seul système d'exploitation (qui est le système qui traduit le programme dans  le langage de l'ordinateur).  IBM a choisi en 1980 comme système d'exploitation le MS­DOS. Tout constructeur d'ordinateur qui  souhaite que ses machines puissent utiliser les nombreux logiciels fabriqués par et pour IBM se voit  contraint d'utiliser le même système d'exploitation. Apple a maintenu son propre standard, MacOS. Ses machines ne sont donc pas compatibles IBM. Enfin, le système unix, initialement développé pour de grosses machines, a été adapté pour tous les  micro­ordinateurs (qu'ils soient compatibles IBM ou Mac) sous le nom de Linux.

Sign up to vote on this title
UsefulNot useful