Codage de l’information

I) Codification des informations : 1. Historique : Ce sont les travaux de Leibniz (1646-1716), spécialiste de l’arithmétique binaire, et de Boole (1815-1864) qui sont à la base du traitement automatique des informations représentées dans un code binaire. Les systèmes de numérotation les plus répandus en informatique sont le système binaire, octal et hexadécimal. Le système binaire est un système à base 2, il utilise 2 chiffres : 0 et 1. Le système octal est un système à base 8, il utilise 8 chiffres : 0,1,2,3,4,5,6 et 7. Le système hexadécimal est un système à base 16, il utilise 16 chiffres : 0,1,2,3,4,5,6,7,8,9,A,B,C,D,E et F. 2. Exemples : 11011 en base 2 = 16+8+2+1=27 33 en base 8 = 3+24=27 1B en base 16 = 11+16=27 19 = 10011 en base 2 19 = 23 en base 8 19 = 26 en base 16

II) Représentation des nombres : 1. Généralités : L’informatique utilise des codes binaires qui sont caractérisés par un nombre de chiffres binaires ou BITS fixé à priori. Un format de 4 BITS s’appelle un QUARTET et un format de 8 BITS s’appelle un OCTET (Byte). Plusieurs octets forment un MOT. BIT signifie Binary digIT)

En mémoire, chaque octet a une adresse. 2.Le code DCB : (Décimal Codé Binaire) C’est un code qui utilise 4 bits (8-4-2-1) Décimal Code DCB 0 0000 1 0001 2 0010 3 0011 4 0100 5 0101 6 0110 7 0111 8 1000 9 1001

Exemples : 1985 → 0001  1001  1000  0101 Avantage : Le codage et le décodage sont très faciles et très rapides. Inconvénients : Occupe une grande place en mémoire. Ce code est surtout utilisé pour les commandes de machines et pour les langages évolués destinés pour les applications de gestion. 3. Les interrupteurs logiques : Ces interrupteurs sont arrangés en "portes" logiques dont le fonctionnement s’appuie sur les travaux de George Boole. En les combinant de diverses façons, on peut réaliser toutes les opérations nécessaires au traitement des informations codées en binaire. Représentations conventionnelles :

Exemple :

4. Autres représentations : a. Entiers : - codés en binaire naturel (4-8 ou 16 bits) - codés en "complément à deux" b. Réels : - codés en "virgule flottante" III) Codage des caractères alphanumériques : Ce sont tous les symboles utilisés dans un langage naturel : * les chiffres en tant que caractères * les lettres * les caractères de ponctuation, de signe… * les symboles mathématiques, financiers * les actions (passage à la ligne, à la page…) Le code A.S.C.I.I. (American Standard Code for Information Interchange) est le plus employé des codes sur 7 bits. En réalité, 8

bits sur la machine, le premier bit étant réservé au contrôle : c’est le "bit de parité". Exemple : D : 1000100 d : 1100100 6 : 0110110 CR : 0001101 (passage à la ligne) IV) Représentation des images : Un ordinateur traite les images numériques suivant 2 types de représentations : * la représentation vectorielle * la représentation matricielle 1. La représentation vectorielle : Cette représentation convient aux graphiques, schémas, cartes, logos, dessins techniques… L’objet est découpé en figures géométriques simples appelées primitives qui sont définies mathématiquement avec des attributs (couleur, épaisseur de trait, position…). Ce type de représentation convient bien aux changements d’échelle. 2. La représentation matricielle : Cette représentation est utilisée pour des images complexes. L’image est décomposée en une grille ou matrice de petits carrés appelés "pixels", auxquels on attribue une couleur. On appelle échantillonnage ou profondeur le nombre de bits retenus pour coder la couleur de chaque pixel. On appelle définition la quantité de pixels retenus pour coder une image. Cette représentation matricielle produit des images bitmaps (.bmp). Ces images engendrent des fichiers volumineux dont la taille dépende de la définition et de la profondeur.