Outils Matrox Design Assistant
Étapes de classification
Matrox Design Assistant X comprend des étapes de classification pour catégoriser automatiquement le contenu de l’image à l’aide de l’apprentissage automatique. Ces étapes font appel à la technologie d’apprentissage profond, plus précisément au réseau neuronal convolutif (CNN) et à ses variantes, selon deux approches distinctes.
La première approche, ou approche globale, mise en œuvre par l’étape CNNClassIndex, attribue des images ou des régions d’images à des classes préétablies. Elle se prête à des tâches d’identification où l’objectif est de distinguer des objets d’apparence similaire, y compris ceux présentant de légères imperfections. Les résultats pour chaque image ou région d’image consistent en la classe la plus probable et un score pour chaque classe.
La deuxième approche, ou approche de segmentation, mise en œuvre par l’étape CNNClassMap, consiste à générer des cartes indiquant la classe et le score préétablis pour tous les pixels de l’image. Elle convient aux tâches de détection dont l’objectif est de déterminer l’incidence, l’emplacement et l’étendue des défauts ou des caractéristiques. Ces caractéristiques peuvent ensuite être analysées et mesurées plus en détail à l’aide d’outils traditionnels tels que l'étape BlobAnalysis. Ces étapes de classification sont particulièrement bien adaptées à l'analyse d'images d'articles très texturés, variant naturellement et déformées de manière acceptable dans des scènes complexes et variées.
Les utilisateurs peuvent choisir de former eux-mêmes un réseau neuronal profond- en utilisant l’environnement interactif MIL CoPilot inclus - ou en demandant à Imagerie Matrox de le faire en utilisant des images collectées au préalable qui sont à la fois en nombre suffisant et représentatives des conditions d’application prévues. Différents types d’entraînement sont pris en charge, tels que l’apprentissage par transfert et le réglage fin, le tout à partir de l’une des architectures de réseau neuronal profond prédéfinies fournies. MIL CoPilot fournit ce qui est nécessaire pour construire le jeu de données d’entraînement requis- y compris l’étiquetage des images et l’augmentation du jeu de données avec des images synthétiques - ainsi que le suivi et l’analyse du processus d’entraînement. L'apprentissage est réalisé à l'aide d'un GPU3 NIVIDIA3,4 ou d'un CPU x64, tandis que l'inférence est effectuée sur un CPU dans un contrôleur de vision Imagerie Matrox, une caméra intelligente ou un ordinateur tiers, évitant ainsi le recours à un matériel GPU spécialisé.