Lors de la rédaction d’articles techniques, on risque souvent de perdre la signification du langage, et cela devient plus fréquent dans les domaines rigoureux — tels que la métrologie — où chaque terme a un usage très spécifique, et généralement, une terminologie inappropriée n’est pas très appréciée.

Mesures

Une mesure est, par définition, une relation numérique résultant de la comparaison entre une quantité donnée à une autre de même nature, d’une valeur connue, considérée comme référence.

Quelle que soit l’unité de cette mesure, la comparaison obtenue, et les calculs qui en résultent ne peuvent pas être sans erreur. L’erreur est inhérente à toute mesure, elle peut être réduite, mais pas éliminée. Que peut-il être fait -- pour vivre avec ? Dans les domaines techniques et scientifiques, il est nécessaire de quantifier son ampleur et de la considérer dans le contexte global de la mesure.

Généralement, dans le domaine des mesures techniques, la qualité paie. Les instruments de mesure les meilleurs et les plus coûteux aident à réduire l’ampleur des erreurs de mesure, améliorant ainsi la qualité de votre travail. Toutefois, cela a un coût que les techniciens et les ingénieurs doivent évaluer, avant d’acheter des instruments de qualité et de considérer les bénéfices du rapport prix performances.

Les termes tels que précision, exactitude, répétabilité, stabilité à long terme, sensibilité, résolution, lisibilité et échelle de mesure sont devenus courants et peuvent aider à faire un choix parmi la pléthore d’appareils disponibles sur le marché. Cependant, dans ce scénario, deux d’entre eux sont les victimes les plus visibles ; la précision et l’exactitude, qui sont souvent utilisées de manière interchangeable et inappropriée (la conséquence n’est pas nécessairement importante). 

Définition initiale

Que représentent réellement exactitude et précision en métrologie ? Commençons par deux définitions concises :

  • Exactitude : un appareil est défini exact s’il est capable d’indiquer de façon constante, des valeurs les plus proches d’une valeur référence, ou vraie valeur.
  • Précision : un appareil est dit précis, s’il est capable de fournir des valeurs qui sont, le plus constamment possible, en corrélation avec la valeur moyenne des mesures effectuées.

Après les avoir brièvement définies, quelque chose d’important est à retenir. En ne disposant que d’une mesure, il est possible de déterminer l’exactitude d’un instrument (approximativement), mais pas sa précision, pour laquelle il faut une valeur moyenne ou, si possible, un nombre tel que les calculs soient statistiquement représentatifs et procurent un résultat fiable.

Avant d’aller plus en détail, il est toutefois important de définir en quelques mots le concept d’erreur.

Je m'abonne
Abonnez-vous à la balise thématique test&mesure pour être averti dès qu'une information relative à ce sujet sera publiée par Elektor !

Erreurs de mesure

Dans le cas d’une mesure unique, l’erreur peut être définie comme étant la différence entre la valeur mesurée X et la valeur vraie θ(ou valeur de référence si on la considère vraie) de la quantité considérée. Dans ce cas, elle est en général définie comme erreur absolue, ou η = X - θ.

La valeur de l’erreur absolue n’est qu’une partie de l’information, car elle ne donne aucun indice sur le rapport entre cette erreur et la quantité à laquelle nous la comparons. C’est pour cela que l’amplitude d’une erreur est souvent exprimée comme étant le rapport de l’erreur absolue η à la valeur réelle θ , ainsi définie d’erreur relative, ou ε = η / θ.

Cette erreur ne peut être calculée que si la valeur de référence θ est connue. La valeur ε est le plus souvent exprimée en pourcentage, en la multipliant par 100. C’est pour cette raison que le pourcentage d’erreur est généralement indiqué pour chaque calibre de l’instrument de mesure.

Les différents types d’erreurs

Il peut y avoir de multiples causes d’erreurs dans une mesure expérimentale, y compris les erreurs de procédure (erreurs dues à l’opérateur par exemple). Avec les instruments de mesure analogiques en particulier, les erreurs de l’opérateur sont plus significatives comme cela est expliqué dans l’encadré Appareils analogiques vs appareils digitaux : la résolution est importante !

Ici, toutefois, nous allons considérer qu’il n’y a pas d’erreur due à l’opérateur et que la plupart des erreurs rencontrées dépendent de facteurs aléatoires et des caractéristiques de l’appareil.
 

Les erreurs peuvent être divisées en deux grandes catégories :

  • Les erreurs systématiques, qui faussent constamment les mesures dans le même sens. Les erreurs de ce type peuvent être réduites, ou dans certains cas, éliminées. Elles affectent principalement l’exactitude d’un appareil de mesure.
  • Les erreurs aléatoires, dépendantes des propriétés technologiques de l’appareil de mesure, de la qualité de sa conception et des composants utilisés, ainsi que par tous les évènements incontrôlables et imprévisibles qui peuvent se produire durant les mesures. Les erreurs de ce type qui affectent principalement la précision d’un instrument ne peuvent pas être éliminées, mais elles peuvent au minimum être estimées, en répétant les mesures à plusieurs reprises, puis en réalisant une analyse statistique des résultats obtenus.
 

Pour un appareil électronique de mesure, les erreurs systématiques peuvent être causées, par exemple, par une variation à long terme des caractéristiques des composants utilisés (dérive), ou par des variations à court terme, comme par exemple le l’utilisation de l’instrument à une température hors gamme de fonctionnement. Sur les appareils haut de gamme, une ou plusieurs options de calibration sont généralement disponibles, afin de réduire l’amplitude de ces erreurs, soit au niveau matériel, ou dans le logiciel.
 

Par ailleurs, les erreurs aléatoires peuvent être provoquées par des interférences électromagnétiques (EMI) induites dans les câbles de mesure ou par une instabilité inhérente ou à la mauvaise qualité de mise en forme du signal et/ou de l’interface d’échantillonnage d’entrée. Elles peuvent être partiellement réduites par un blindage, mais rien ne peut corriger une conception fondamentalement déficiente ou un mauvais fonctionnement.

Appareils analogiques vs appareils digitaux : la résolution est importante !

 

La résolution d’un appareil de mesure est la plus petite variation de la quantité mesurée qui puisse être détectée et indiquée.

Dans l’exemple de l’image précédente, un milliampèremètre ancien de chez Cassnelli & Co (années 1960) et un multimètre récent de dernière génération Siglent SDM3055 (2024) sont reliés en série à une source de courant de 30 mA. L’image supérieure montre le cadran  gradué de 0 à 50 mA de l’instrument vintage — dont l’exactitude est en fait absolument remarquable, en dépit de son âge de plus de 60 ans ! — il possède une grande graduation tous les 1 mA, et une plus petite tous les 0,5 mA (500 µA).


Avec cet appareil, l’aspect le plus critique concerne la détermination (optique) de la position de l’aiguille entre les graduations, souffrant inévitablement du côté arbitraire, personnel, et largement variable, d’un opérateur à un autre.

Avec l’appareil numérique, l’affichage indique une valeur de 29,690 mA sur cinq chiffres — sur lequel le chiffre le moins significatif représente la plus petite quantité que l’appareil est capable de mesurer et afficher, c’est-à-dire 0,001 mA (1 µA). Il va sans dire que cette résolution ne permet aucune conclusion quant à l’exactitude et la précision !

Premier exemple pratique

Supposons que nous ayons 4 multimètres dans notre laboratoire et que nous voulions vérifier leurs performances en termes de fiabilité. Dans le labo, nous disposons d’un générateur référence de courant de haut de gamme, et nous le réglons pour un test préliminaire ‘’go-no-go’’ sur l’un de ces appareils.

Pour effectuer le test, nous réglons le générateur de courant à 2,000 A, et nous considérons cette valeur comme vraie valeur, valeur de référence, ou θ.

Supposons que notre première (et unique) mesure par ce multimètre — définie pour l’instant, ‘’valeur mesurée’’ ou X — indique 2,0052 A. Comme prévu, nous avons une erreur absolue :

η = X  θ

η = 2.0052 - 2.0000 = 0.0052 A

Connaissant η, nous pouvons calculer l’erreur relative ε, exprimée par un pourcentage, qui sera :

ε = (η / θ) × 100

ε = (0.0052 / 2.0000) × 100 = 0.26%

Cette quantité est un nombre sans unité qui indique que notre multimètre dans ce cas spécifique de mesure et la gamme choisie, délivre une erreur relative de 0,26 %.

Élaborons des statistiques

La mesure unique que nous avons effectuée jusqu’à présent sur le premier de nos multimètres ne nous informe pas sur la fiabilité globale de notre appareil, pas plus qu’elle ne nous permet de déterminer s’il est affecté d’erreurs systématiques, aléatoires, ou les deux. Dès lors, pour acquérir une vision plus significative, nous devons considérer le sujet plus sérieusement et collecter quatre ensembles de données mesurées.

Nous réalisons 100 mesures consécutives sur chaque multimètre, en prenant soin de ne pas modifier les conditions des tests d’une mesure à l’autre sur chacun des appareils. Chaque mesure génère une valeur Xn.

Nous calculons ensuite la moyenne arithmétique de ces mesures et la nommons valeur moyenne mesurée µ (avec n = 100, dans ce cas) :

µ = (X1 + X2 + X3 … + Xn) / n 

La connaissance de µ n’est toutefois pas suffisante ; bien qu’elle donne quelques indices concernant l’exactitude moyenne, elle ne nous permet pas de quantifier la composante aléatoire des erreurs, nous empêchant ainsi de déterminer la précision.

Néanmoins, pour les mêmes données acquises pour chacun des ensembles de données, on considère que nos mesures suivent la loi d’une distribution normale et pouvons calculer la déviation standard, σ, des valeurs X1…X100, en utilisant la formule suivante :

 

On peut donc ainsi vérifier de combien les valeurs relevées s’écartent de la valeur moyenne obtenue précédemment.

Si vous n’êtes pas familier avec le concept de déviation standard, vous pouvez consulter le site ou, pour une approche mathématique plus formelle, vous rendre en . Vous pouvez également consulter l’encadré La distribution Gaussienne en bref de cet article.

La distribution Gaussienne en bref

 

Très souvent dans le domaine scientifique, les découvertes les plus importantes résultent de l’association des travaux de plusieurs scientifiques. C’est le cas en ce qui concerne la Distribution Gaussienne, dont le concept découle de différentes observations, qui ont débuté dans les années 1700 par le théorème fondamental Limite Centrale de Laplace, suivi par un approfondissement de Abraham de Moivre qui remarquait que le nombre d’évènements augmentant, leur distribution suivait un profil relativement lisse, jusqu’à ce que le travail de Carl Friederich Gauss permit de définir la formule de calcul de la courbe qui prit ensuite son nom.  

Un aperçu historique intéressant décrivant ces études, qui sont à la base des statistiques modernes, se trouve ici

La Figure A montre une distribution typique selon une courbe de Gauss. Dans une distribution normale, selon l’exemple considéré, certaines valeurs se rapprochent de la valeur µ — la moyenne arithmétique des données — avec une fréquence plus élevée que les autres, cette fréquence contribue à donner à la courbe son profil caractéristique en forme de cloche.

Figure A

La zone sous la courbe représente la distribution des données de l’exemple. L’axe Y indique la fréquence à laquelle les données d’une même valeur sont présentes.

La distance entre µ et le point d’inflexion de la courbe (à l’emplacement où la courbure change de direction) représente ce qui est habituellement nommé déviation standard (standard deviation), ou sigma (σ), écart quadratique moyen (root-mean square deviation), ou erreur quadratique moyenne (root-mean error).

En d’autres termes, sigma peut être considérée comme indicateur de la dispersion de nos données par rapport à la moyenne µ. Sigma et précision sont inversement proportionnelles, autrement exprimé, quand la dispersion des données diminue, la précision augmente, et la courbe de Gauss devient plus pointue. À l’inverse, pour une valeur sigma élevée, la courbe devient particulièrement plate et sa base est élargie.

Une règle empirique communément appliquée à une courbe de distribution standard établit que les données d’un échantillon ont une probabilité de 68,26% de se situer dans l’intervalle [-σ…σ]  (zone bleue sur la Figure A), 95,44% dans l’intervalle [-2σ…2σ] (zones bleue et violette), et 99,73 dans l’intervalle [-3σ…3σ] (zones bleue, violette et verte).   

Sigma n’est pas une quantité sans dimension, elle utilise l’unité de mesure de la quantité considérée (en Ampères dans le cas de notre exemple des quatre multimètres),

Je m'abonne
Abonnez-vous à la balise thématique multimètres pour être averti dès qu'une information relative à ce sujet sera publiée par Elektor !

Interprétation des données

Multimètre 1

À l’aide de la centaine de mesures relevées avec le multimètre 1, nous calculons la valeur moyenne µ correspondante et la déviation standard σ comme précédemment indiqué. La Figure 1 comporte le graphique correspondant. La courbe montre la distribution normale des mesures autour de la valeur moyenne, µ, qui dans le cas de cet instrument, se trouve être µ = 1,9. Le tracé de la distribution autour de µ est très ‘’pointu’’, indiquant une forte concentration des valeurs très rapprochées de la moyenne. Toutefois, elles sont éloignées de la valeur vraie  θ = 2. La valeur δ = (µ − θ) = −0,1 exprime l’inexactitude moyenne de cet appareil.

Figure 1. Le Multimètre 1 se révèle être potentiellement un bon appareil de mesure.
Il doit simplement être calibré à l’aide d’une source de référence,
car sa composante  δ  n’est pas négligeable.

Il s’agit d’un cas typique pour lequel la calibration de l’appareil de mesure peut permettre la réduction substantielle de la composante de cette erreur, diminuant δ à une valeur négligeable (proche de 0), et lui redonnant sa précision attendue.

L’intervalle entre les deux lectures les plus mauvaises (la base de la courbe en cloche, indiquée par la flèche rouge) est également nommée l’incertitude de mesure. En métrologie, incertitude et précision sont inversement corrélées.

Avec σ = 0,042 A, (c’est-à-dire une erreur standard de 2,2% par rapport à la moyenne µ), on peut en déduire que l’appareil est précis, mais la composante systématique de l’erreur (δ = 0.1 A) étant élevée, l’instrument, n’est pas exact, en raison d’une erreur de -5% par rapport à la référence.

Multimètre 2

Le graphique du second multimètre (Figure 2) montre un scénario radicalement différent. La valeur moyenne µ des mesures est de 1,998, mais l’incertitude maximum de mesure de cet appareil est largement plus importante que celle du multimètre 1.

Figure 2. Le haut niveau d’exactitude de ce multimètre est totalement
inutile en raison de l’importance de son imprécision.

Avec σ = ±0,116 A (±5,8% d’erreur sur la moyenne µ), la composante aléatoire de l’erreur est importante, avec une large distribution (non concentrée) des valeurs mesurées. Ne pouvant pas être totalement corrigée, la composante aléatoire d’erreur rend le multimètre 2 imprécis, bien que son exactitude apparente surprenante δ = −0,012 A (0,6% par rapport à la référence) pourrait être trompeuse.

Pour conclure, un appareil de mesure très exact mais largement imprécis ne peut pas être utilisé en laboratoire, car la probabilité d’obtenir des mesures fantaisistes est importante. Pour utiliser une terminologie plus commune, cet instrument démontre une très faible répétabilité, un synonyme de précision.

Cet exemple montre comment l’exactitude n’est pas suffisante pour obtenir une mesure digne de confiance.

Multimètre 3

En ce qui concerne le troisième multimètre, la situation est pire, si cela est possible. Le graphique de la Figure 3 indique une valeur moyenne calculée µ = 2,15, avec δ = 0,15 A (+7,5% par rapport à la référence), cela suffit en soi. Plus encore, avec σ = ±0,19 A (±8,8% d’erreur par rapport à la moyenne µ ), la courbe de distribution montre une erreur aléatoire répartie selon une courbe extrêmement plate. L’incertitude globale est si importante qu’elle ressort du graphique à sa droite. En conclusion, les mesures par ce troisième appareil sont largement imprécises et inexactes.

Figure 3. Où est la poubelle ? Cet appareil possède un écart de +7,5% par rapport à la référence,
dégradé (est-ce possible), par une dispersion très importante de son incertitude (σ très élevé).

Multimètre 4

Le tracé du quatrième instrument (Figure 4) se révèle être le meilleur de la série. La distribution des erreurs, concentrée autour de la valeur moyenne µ = 2,006, la valeur δ = 0,006 A (+0,3% par rapport à la valeur de référence) peut être considérée négligeable, et la valeur de la déviation standard σ = ±0,04 A (±2% par rapport à la moyenne µ) est faible. En conclusion, il en ressort qu’il s’agit d’un instrument précis et exact , et en raison de cela, il peut également être qualifié de fidèle.

Figure 4. Finalement voici un multimètre digne de confiance ! Son exactitude est de +0,3 %
et sa précision de ±2 %. Il sera utile en toutes circonstances sur la table de travail.

Représentation plus accessible

La représentation par des cibles, de la Figure 5, permet une interprétation facilitée des résultats.  Dans cette figure, la distribution des mesures est représentée sur quatre cibles. C’est une méthode largement répandue de représentation qui permet une interprétation immédiate des résultats. En outre, les encadrements vert et bleu délimitent les zones des composantes systématiques et aléatoires des erreurs qui se recoupent partiellement, dans le cas du multimètre  3, qui est affecté par un niveau important des deux types d’erreurs.

De façon idéale, des axes cartésiens pourraient être superposés sur ce dessin, l’axe Y représentant la précision, l’axe X l’exactitude, et la droite de la fonction Y = X du premier quadrant représentant la fidélité des mesures, c’est-à-dire la combinaison des deux.

Figure 5. Représentation plus pratique et plus lisible des résultats.
Dans les quatre cibles, le diamètre des zones perforées représente la dispersion
(σ, la réciprocité de la précision), et leur éloignement du centre (δ) indique l’inexactitude.
Le Multimètre 4 n’est pas sans défaut, mais les deux composantes systématique
et aléatoire des erreurs, sont de loin les plus faibles. 

Valeur de référence ou vraie valeur ?

Au début de cet article, nous avons écrit que l’on considérait la valeur de référence comme étant la vraie valeur. Cela car on se fiait aux caractéristiques de l’appareil générateur de la référence de courant, le considérant exact selon nos standards.

En réalité —  je suis désolé de vous décevoir — la vraie valeur de toute quantité existe mais elle demeure inconnue et inaccessible. Ceci étant admis, chaque mesure est sujette à un niveau d’incertitude supérieur à 0.

En d’autres termes :

  • La valeur vraie est parfaite mais uniquement théorique, impossible à déterminer avec exactitude.
  • La valeur de référence est la meilleure valeur connue, et elle est utilisée comme standard (localement) lors des opérations de mesure.

L’objectif majeur en métrologie est de réduire, au maximum possible, l’écart entre la vraie valeur et la valeur mesurée.

Cet écart est rétréci en utilisant différents processus, de niveau d’exactitude croissant, qui constituent ce que l’on nomme la chaîne de traçabilité d’un appareil de mesure. Ceci, et de nombreux autres aspects de fond de l’acquisition et de l’interprétation, inhérents aux appareils de mesures en électronique, feront l’objet d’un futur article. Restez à l’écoute !


Note de la rédaction : Cet article (250046-04) sera publié dans le numéro de mai/juin 2025 du magazine ElektorMag.


Questions ou commentaires ?

Envoyez un courriel à l'auteur roberto.armani@elektor.com, ou contactez Elektor redaction@elektor.fr.