Les unités informatiques : ce qu’elles sont et comment elles sont mesurées

À combien de mégas votre connexion se monte-t-elle ? Combien de gigues pèse ce film ? Combien coûte votre disque dur ? Ce ne sont là que quelques-unes des questions typiques que nous entendons chaque jour maintenant. Mais qu’est-ce exactement qu’un méga, un giga ou un tera ? Et quelle est la différence entre les bits et les octets ?

Dans la vie de tous les jours, les gens ont souvent tendance à les confondre. Le but est donc de faire comprendre à la fois ce que sont les unités informatiques et comment les mesurer.

Quelles sont les unités informatiques

Tout comme les autres grandeurs physiques, telles que la longueur ou la masse, les technologies de l’information ont leurs propres unités de mesure. Toutefois, contrairement au mètre et au kilogramme, utilisés comme base respectivement pour la longueur et la masse, dans le monde de l’informatique, l’unité de mesure fondamentale n’est pas calculée sur une base de 10, comme c’est le cas dans le système métrique décimal, mais sur une base de 2. En effet, en informatique, l’unité de mesure fondamentale n’est rien d’autre que le bit, terme qui dérive de la fusion des deux mots anglais binary digit (en italien, chiffre binaire), qui à son tour n’est rien d’autre que l’unité élémentaire d’information qui peut être gérée par n’importe quel ordinateur, simplement parce que les circuits numériques, à travers lesquels tout ordinateur est assemblé, sont capables de comprendre seulement deux valeurs différentes : o 0 (zéro), ou absence de tension, ou 1, ou présence de tension.

Comment mesurer les unités informatiques

Dans l’informatique quotidienne, les quantités utilisées ne s’arrêtent pas à la simple chose. Les unités informatiques les plus courantes sont en fait représentées par les multiples du bit, dont les plus utilisés sont principalement :

l’octet, un terme anglais dérivé de bite, ou bite, et prononcé bàit, qui n’est rien d’autre que la somme de 8 bits. Le symbole correct de l’octet est B, qui est la lettre b en majuscule, puisqu’un b en minuscule représente le bit ;

le kilooctet, dont le symbole correct est kB, avec la lettre k en minuscule et la lettre b en majuscule, qui n’équivaut à rien de plus que 1 000 octets ;

le mégaoctet, dont le symbole correct est MB, avec la lettre m et  b toutes deux en majuscules, ce qui n’équivaut pas à plus de 1 000 kilo-octets, soit un million d’octets ;

le gigaoctet, dont le symbole correct est GB, avec la lettre g et la lettre b toutes deux en majuscules, ce qui n’équivaut pas à plus de 1 000 mégaoctets, soit un milliard d’octets ;

le téraoctet, dont le symbole correct est TB, avec la lettre t et la lettre b toutes deux en majuscules, ce qui ne représente pas plus de 1 000 gigaoctets, soit un millier de milliards d’octets.

Tous ces éléments et d’autres multiples du bit sont généralement utilisés en matière de taille pour indiquer l’espace requis ou l’espace disponible pour accueillir un ou plusieurs fichiers spécifiques. Par exemple, si on vous dit qu’un certain fichier pèse trois giga, ou 3 Go, ce fichier nécessitera, ou plutôt occupera, 3 000 Mo d’espace. Cependant, si l’on vous dit qu’un disque dur a une capacité d’un giga, c’est-à-dire 1 To, il peut contenir jusqu’à 1 000 Go de données. Il faut cependant dire que pour des raisons de commodité de calcul, les multiples de bits sont généralement arrondis à des puissances de 2 au lieu de 10, bien que cela soit formellement faux. Cette ambiguïté a conduit à la définition toute une série de nouveaux préfixes pour les multiples binaires, bien que, jusqu’à présent, ils soient presque totalement inconnus. Cela s’explique par le fait que divers fabricants de dispositifs de stockage préfèrent encore utiliser les multiples décimaux corrects, mais ambigus, de telle sorte que de plus grandes quantités de stockage sont indiquées, précisément parce qu’un dispositif de stockage donné, avec une capacité déclarée de, disons, 8 Go, équivaut en fait à environ 7,45 GB de capacité réelle.

Autres unités de mesure

Outre le bit, l’octet et les multiples de ce dernier, toute une série d’autres unités sont très souvent utilisées dans l’informatique quotidienne. Parmi celles-ci, les plus importantes à prendre en compte sont avant tout :

le bit par seconde, dont le symbole correct est bit/s, mais parfois aussi appelé bps ou b/s, qui n’est rien d’autre que l’unité de mesure de la quantité d’informations transmises sur un canal de communication ;

le kilobit par seconde, dont le symbole correct est kbit/s, parfois aussi indiqué comme kbps ou kb/s, ce qui correspond simplement à 1 000 bits par seconde ;

le mégabit par seconde, dont le symbole correct est Mbit/s, parfois aussi indiqué comme Mbps ou Mb/s, ce qui correspond simplement à 1 000 kilobits par seconde ;

le gigabit par seconde, dont le symbole correct est Gbit/s, parfois aussi indiqué comme Gbps ou Gb/s, ce qui correspond simplement à 1 000 mégabits par seconde.

Ces unités de mesure et d’autres similaires sont généralement utilisées pour indiquer le débit maximal de transmission de données sur un réseau informatique commun. Par exemple, si vous disposez d’une connexion de 7 méga à la maison, cela signifie que votre connexion aura une vitesse de téléchargement de 7 Mbit/s au maximum. Par conséquent, comme un bit est égal à 1⁄8 octets, vous pouvez télécharger au maximum 7 × 1⁄8 = 0,875 Mo/s, soit au maximum 0,875 mégaoctet par seconde. Outre le bit par seconde et ses multiples les plus courants, d’autres unités de mesure largement utilisées dans l’informatique quotidienne le sont également :

Hertz (dont le symbole correct est Hz), qui, avec les multi-mégahertz (dont le symbole correct est MHz) et les gigahertz (dont le symbole correct est GHz) les plus utilisés, servent principalement à indiquer la fréquence de travail d’un processeur donné. Par exemple, un processeur Intel peut être vendu avec une fréquence de travail de 3 600 MHz, ou 3,6 GHz ;

Les pixels, qui, avec les fameux mégapixels, sont généralement utilisés soit pour indiquer le nombre de pixels qui composent une image particulière, soit pour indiquer la résolution d’un écran particulier. Ce dernier, cependant, est généralement exprimé comme un produit entre les pixels répartis en largeur et les pixels répartis en hauteur. Par exemple, si un moniteur a une résolution de 1 280 × 720 pixels, cela signifie qu’il peut y avoir un maximum de 1 280 pixels sur l’axe horizontal du moniteur et un maximum de 720 pixels sur l’axe vertical ; les pouces, dont le symbole correct est en ou double apex “, qui sont toujours utilisés pour indiquer la taille de la diagonale de n’importe quel écran. Par exemple, 5.5″, 10.1″, 24″, 50″, et ainsi de suite.