Agencement du filtre de couleur de la matrice de Bayer

Résolution accrue pour le capteur couleur

Contexte

En principe, les capteurs d’image numériques comme le capteur 18 MP AR1820HS d’onsemi ne saisissent que l’information de luminosité, et pas l’information de couleur. On applique donc un filtre de couleur à chaque pixel lors de la fabrication des capteurs couleur. C’est ce que l’on appelle la matrice de Bayer.

Les couches filtrantes RGB ne retransmettent que la lumière d’une longueur d’onde déter-minée
Les couches filtrantes RGB ne retransmettent que la lumière d’une longueur d’onde déter-minée

Pour chaque groupe de quatre pixels, on équipe deux pixels d’un filtre vert, un pixel, d’un filtre rouge et un pixel, d’un filtre bleu. Cette répartition des couleurs représente la perception de l’œil humain et est appelée matrice de Bayer. Un pixel ne rend les informations que pour une couleur

Pour obtenir les valeurs RGB complètes pour chaque pixel, les couleurs de base manquantes sont interpolées à partir de quatre pixels voisins au moyen d’algorithmes appropriés. Dans cette interpolation de couleur, on part du principe selon lequel il n’y a qu’une différence minime de couleur entre deux pixels voisins. Stricto sensu, un capteur ne dispose avec la matrice de Bayer que d’un quart de la résolution d’origine du capteur.

Mode monochrome du capteur

Bien qu’il soit difficile de rendre invisible la matrice de Bayer pour le mode monochrome, les deux solutions possibles qui suivent vous montrent de quelle façon vous pouvez quand même atteindre votre but en fonction de l’application.

1)… dans le cas de « scènes grises »

Si le capteur couleur 18 MP doit être utilisé en mode monochrome pour des scènes « ternes » (achromatiques), il faut s’assurer d’utiliser quand même une source de lumière à large spectre (lumière blanche) en raison de la matrice de Bayer du capteur ! Une lumière monochromatique (une seule couleur) avec ce capteur aurait pour conséquence que chaque pixel communique peu ou pas d’information à travers les couches filtrantes RGB utilisées en fonction de la longueur d’onde de la lumière (voir Illustration 2). Cela peut créer une perception de la luminosité différente pour chaque pixel. Dans ce cas, l’amplification RGB doit être ajustée individuellement pour R, G et B. Vous obtenez ainsi pour tous les pixels une perception identique de la luminosité, comme dans le cas d’un capteur monochrome.

Sans ajustement de l’amplification RGB, la matrice de Bayer est nettement visible (à gauche). Il résulte de l’ajustement RGB (voir histogramme RGB, à droite) une perception de la luminosité homo-gène, comme celle d’un capteur monochrome.

Remarque : Cet ajustement RGB ne s’applique qu’à cette source de lumière spécifique et à une scène « grise ». Si la source de lumière (longueur d’onde) change, les facteurs d’amplification RGB doivent être de nouveau ajustés.

Comment rendre « invisible » la matrice de Bayer avec le uEye Cockpit :

  • Éclairez la scène avec une source de lumière blanche.
  • Affichez l’histogramme avec l’option « Show Bayer RGB ».
  • Sélectionnez le temps d’exposition de façon à ce qu’aucune partie existante de l’image ne soit surexposée (clipping). Dans l’histogramme, on voit un grand nombre de pixels ayant la valeur 255. Contre-mesure : réglez par exemple à 128 avec AES (onglet « AES/AGC »).
  • Réglez ensuite l’AWB (Auto White Balance) à « Grey World ». Dans l’histogramme, vous voyez de quelle façon les courbes de couleur se superposent les unes aux autres.
  • Contrôle en mode RAW 8 bits (onglet « Format »). La matrice de Bayer ne devrait pas être visible.
  • Sinon, ajustez manuellement les facteurs d’amplification RGB (onglet « Image »).


Après le calibrage, vous ne voyez plus la matrice de Bayer dans les scènes « unies ». Si vous ajoutez un objet de couleur dans l’image, la matrice de Bayer ne sera visible que sur cet objet.

Après l’ajustement RGB, la matrice de Bayer est uniquement visible sur les parties d’image en couleur puisque les couches filtrantes RGB communiquent peu ou pas d’information, dépendamment de la longueur d’onde. (voir Illustration 2)

2)… en cas de « scènes en couleur ou grises »

Si vous travaillez dans votre application avec des scènes en couleur, la sensibilité à la luminosité des différents pixels de Bayer se modifie constamment avec la variation de composante de couleur. Mais même dans ce cas, il est possible d’obtenir un véritable mode monochrome. La solution réside dans le spectre chromatique du capteur 18 MP AR1820HS d’onsemi.

À partir d’une longueur d’onde d’environ 900 nm, le filtre couleur des différents pixels possède des caractéristiques spectrales semblables. Après ce seuil, tous les pixels du capteur réagissent pratiquement de la même façon à la lumière incidente – tout comme dans un capteur monochrome dédié. Cela signifie qu’il est possible de « rendre invisible » de cette façon la matrice de Bayer, tant pour les scènes en couleur que pour les scènes grises.

À partir d’une longueur d’onde de 900 nm, le spectre chromatique du capteur AR1820HS a des caractéristiques spectrales de filtre de couleur semblables
À partir d’une longueur d’onde de 900 nm, le spectre chromatique du capteur AR1820HS a des caractéristiques spectrales de filtre de couleur semblables

Pour pouvoir utiliser ces caractéristiques spectrales du capteur tel que décrit, vous devez porter attention aux points suivants :

  • Assurez-vous d’avoir des conditions d’éclairage définies, c.-à-d. que vous devez isoler largement toute lumière ayant une longueur d’onde inférieure à 900 nm.
  • Commandez votre caméra uEye avec capteur AR1820HS spécifiquement avec filtre GL (verre). Le filtre HQ généralement commandé avec ce capteur bloquerait la lumière ayant la longueur d’onde voulue. Au contraire, le filtre GL laisse aussi passer la lumière au-delà de la longueur d’onde de 900 nm pratiquement sans atténuation. Le capteur reçoit ainsi une puissance de signal maximale.

Objectif adapté

Dans les conditions décrites, une caméra uEye avec capteur AR1820HS offre en mode monochrome toutes les conditions pour une résolution d’image beaucoup plus élevée qu’en mode couleur. Dans la plupart des cas d’utilisation, la caméra est quand même utilisée avec un objectif. Dans le cas présent, avec une résolution de capteur nominale disponible de 18 MP, c’est alors l’objectif qui est le facteur limitant dans la capacité de résolution du système global.

La résolution optique d’un objectif est généralement indiquée en mégapixels. Ce chiffre réfère au plus grand format de capteur pour lequel l’objectif est conçu. Il définit la finesse des structures qui peuvent être transmises dans l’objectif. Autrement dit, plus le format de capteur est petit, plus l’objectif doit générer des détails fins. Si vous utilisez un objectif avec une résolution optique trop faible, il se produit un sous-échantillonnage des pixels du capteur. Les détails à représenter se répartissent alors sur un plus grand nombre de pixels adjacents. En conséquence, vous n’obtenez pas la netteté d’image qui serait possible avec la résolution du capteur. Il faut toutefois évider de combiner d’un objectif offrant côté image une résolution supérieure à celle du capteur. Cela pourrait créer des effets indésirables de crénelage ou de moiré dans l’image.

Dans la pratique, il est recommandé de représenter les plus petits détails avec environ 2 pixels. Globalement, cela signifie que la recherche d’un objectif adéquat dépend non seulement du grossissement, mais aussi de la taille de pixel du capteur utilisé.