Astuce technique

Trier par:
Thème:

Déclenchement selon le principe Lego

Qui ne connait pas les Lego ? Ces petites briques de plastique coloré qui se laissent assembler au gré des envies et de l'imagination grâce au système breveté de plots. Et le principe est aussi génial que simple. Cela s'est avéré être la recette du succès. Le monde du traitement industriel des images a tiré parti de ce principe.

Avec le firmware GigE Vision IDS V1.5, IDS a fortement étendu les possibilités du déclencheur des caméras de vision IDS avec de nombreuses fonctions standard issues de la convention GenICam Standard Feature Naming Convention. Avec IDS Vision Cockpit, IDS met également à votre disposition un outil de démonstration optimal, qui vous permet de reproduire et de tester largement chacun des cas décrits ici.

Bande passante sous contrôle avec les caméras IDS GigE Vision

Les caméras GigE Vision transmettent des données graphiques sur le réseau par petits paquets, bien avant qu’une image de capteur enregistrée ne soit entièrement lue. Cela minimise la latence du transfert des images. Cependant, si un trop grand nombre de données sont transmises simultanément, la bande passante maximale de transmission d’un réseau GigE peut très vite être dépassée.

Le fonctionnement multicaméras est directement concerné. Des pertes de transmission et des temps de transfert plus importants surviennent alors si les données doivent être réclamées de nouveau. La norme GigE Vision permet de cibler la configuration des paramètres de transfert pour éviter ces situations. Les possibilités de réglage avancées de micrologiciel IDS GigE Vision 1.3 vous permettent de gérer avec aisance la bande passante disponible.

Développement de prototypes avec l’interface uEye Python et OpenCV

La vision industrielle classique continue d’évoluer très rapidement vers la vision embarquée. Cependant, la création d’un appareil de vision embarquée peut être très gourmande en temps et en argent. Rien que dans le cadre de vos propres développements, vous perdez beaucoup de temps, entre autres, avant de voir les premiers résultats.

Il existe aujourd’hui une série de composants standard intégrés adaptés qui facilite les premiers tests. Ces composants associés à des solutions logicielles adéquates permettent d’arriver très rapidement aux premiers résultats de la future application de vision.

Notre astuce technique montre en quelques étapes claires comment réaliser une application de vision embarquée simple avec une caméra uEye et un Raspberry Pi 3.

Agencement du filtre de couleur de la matrice de Bayer

Plus grande résolution en fonctionnement monochrome : Obtenez une résolution avec votre capteur couleur

Le capteur 18 mégapixels AR1820HS dans nos modèles de caméra UI-3590 est offert par le fabricant de capteurs ON Semiconductor comme capteur entièrement couleur. Le filtre de Bayer ne vous permet donc de n’obtenir effectivement « que » le quart environ de la résolution nominale du capteur puisque l’information de couleur d’un pixel est obtenue de quatre pixels voisins

 

Pour utiliser chaque pixel, ça n’est pas suffisant d’utiliser le capteur en format de données RAW (sans interpolation Bayer). La matrice de Bayer entraîne une perception de la luminosité différente pour chaque pixel. Nous vous démontrons comment vous pouvez quand même utiliser le capteur couleur comme un capteur « purement » monochrome grâce à un paramétrage adapté et à l’utilisation de sources de lumière appropriées, de façon à obtenir une résolution nettement plus élevée.

La nouvelle « correction adaptative des pixels défectueux » est prise en charge à partie de la version 4.82 de la suite logicielle IDS.

Flexible et dynamique: Utilisation correction adaptative des pixels défectueux

Qu'est ce que c'est que ce point dans mon image ? Si vous vous posez la question, c'est que vous êtes vraisemblablement sur la piste d'un pixel défectueux. Ces pixels présents selon un nombre variable dans tout capteur d'images courant sont perçus par l'observateur comme des parasites de l'image, car ils apparaissent plus sombres ou plus clairs que le reste de l'image. Même en réalisant des efforts importants au niveau de la fabrication du capteur, il est impossible d'éviter les pixels défectueux.

 

Ne serait-il alors pas plus judicieux de pouvoir déterminer et corriger dynamiquement les pixels défectueux directement dans l'application, quelles que soient les conditions de fonctionnement ? Avec la nouvelle fonction « Correction adaptative des pixels défectueux » disponible à partir de la version 4.82 de la suite logicielle IDS, c'est désormais possible.