Vincent NOBLET est chef de projet vision industrielle chez Psycle. En fin de matinée, il lance l’analyse du lot d’images issues d’une ligne de production. Ici, l’IA doit détecter automatiquement les défauts possiblement présents sur des petits biscuits fourrés au chocolat avant emballage. Car on ne veut surtout pas prendre le risque de gâcher la pause goûter des enfants. Donc, pour savoir si l’algorithme atteint ses promesses, Vincent ouvre une table. La fameuse matrice de confusion. Ce simple tableau, organisé en “ prédictions vs réalité ”, va donner son avis quant à la fiabilité des calculs de Psycle et nous présenter les ajustements si ceux-là sont nécessaires. C’est en somme, une façon concrète de transformer un flux visuel en données exploitables.
À quoi sert la matrice de confusion ?
La matrice de confusion est un outil fondamental pour évaluer un modèle d’intelligence artificielle supervisée. Elle compare les prédictions de l’IA aux annotations humaines. Chaque image peut alors être classée comme étant “correcte” ou “défectueuse”. Cela permet de quantifier quatre cas : vrais positifs, faux positifs, vrais négatifs, faux négatifs.

Prenons un cas concret de projet de contrôle qualité. Ici, une matrice peut révéler que sur 10 000 pièces inspectées, 9 991 sont correctement identifiées. On dit alors que le diagnostic est fiable à 99%. Cela signifie aussi que 9 faux négatifs passent. C’est un risque crucial pour l’industriel. Mais grâce à ce diagnostic, Psycle peut ajuster ses algorithmes avant leur déploiement afin de s’approcher du zéro défaut.
Comprendre le fonctionnement : précision et rappel
La matrice s’organise en table avec autant de lignes et de colonnes que de types de défauts.
- Vrai Positif (TP) : l’IA détecte un défaut, l’opérateur confirme.
- Faux Positif (FP) : l’IA signale un défaut, mais la pièce est bonne.
- Vrai Négatif (TN) : l’IA n’identifie pas de défaut, la pièce est bonne.
- Faux Négatif (FN) : l’IA ne détecte pas un vrai défaut.
À partir de ces valeurs, on en tire la précision (proportion de bonnes alertes) et le rappel (la capacité à attraper tous les défauts).
Ces métriques aident à juger si un modèle est adapté à un usage industriel. Par exemple, pour un contrôle 100 % qualité, on privilégie le rappel. Car mieux vaut générer quelques fausses alertes que laisser passer un défaut.

Seuils, confiance et production : quand la matrice seule ne suffit pas
La matrice de confusion se construit avec un seuil de confiance. Selon ce seuil, les mêmes prédictions peuvent être considérées comme positives ou rejetées. Un seuil à 90 % garantit peu de faux positifs, mais peut passer à côté de défauts. Ici, les faux négatifs augmentent. À l’inverse, un seuil faible (ex. 1 %) diminue les faux négatifs mais gonfle les fausses alertes.
Ainsi, la matrice peut sembler pessimiste par rapport aux performances réelles observées en production, ou au contraire trop optimiste si les seuils sont mal choisis. Le vrai test reste l’usage réel, dans les lignes de production, avec des volumes et des conditions réelles.

La matrice de confusion est bien plus qu’un tableau, c’est un miroir indispensable pour évaluer et affiner les solutions de vision industrielle. Mais elle n’est pas magique. Elle doit être interprétée avec soin car on ne peut pas se fier à une seule métrique, ni oublier l’impact des différents seuils. Pour cela, il est impératif de combiner précision, rappel et expérience terrain, et bien sûr tester les modèles dans des conditions réelles. Chez Psycle, c’est cette rigueur qui permet de transformer des images en confiance et des données en performance industrielle.