Par Sean Mann
Mis à jour le 30 août 2022
La conversion entre la notation binaire à grandeur signée et la notation décimale est un concept fondamental en informatique, permettant une représentation précise des entiers positifs et négatifs.
Ignorez le bit de signe le plus à gauche et tous les zéros non significatifs qui apparaissent entre le bit de signe et le premier « 1 ». En partant du bit de données le plus à droite, attribuez des puissances successives de deux (2^0, 2^1, 2^2, …) à chaque position. Par exemple, dans le nombre de grandeur signé 10000101 , les bits de données pertinents sont les trois bits les plus à droite, qui correspondent à 2^2=4, 2^1=2 et 2^0=1.
Additionnez les puissances de deux qui correspondent aux positions où le bit est 1. Dans l'exemple ci-dessus, 4+1=5.
Attachez un signe négatif si le bit de signe (le bit le plus à gauche) est 1 ; sinon, le nombre est positif. Ainsi, 10000101 convertit en -5 en décimal.