Sociaux et recherche

6 juin 2013

Fonctionnement d'un capteur photo

fonctionnement capteur photo


Pièce la plus importante d’un appareil photo, le capteur est un composant optoélectronique dont le principe est finalement assez simple à comprendre. Nous regarderons les éléments qui le composent (filtres, microlentilles, matrice de Bayer et photosites) pour que votre vision du capteur ne se limite plus à sa taille et à sa définition.




Résumé de l'article

De quoi est composé un capteur photo ?
On peut voir un capteur numérique comme un assemblage de couches :
 - Des filtres limitent la lumière au spectre visible et écartent les petits détails impossibles à correctement enregistrer.
 - Des microlentilles permettent de correctement guider la lumière jusqu’aux récepteurs.
 - Une matrice de Bayer décompose la lumière en composantes Rouge, Vert et Bleue (RVB).
 - Des photosites transforment la lumière reçue en signal électrique.

Quelle est la différence entre pixel et photosite ?
Les pixels sont les petits carrés qui composent l’image finale. Ils ont une couleur définie par 3 composantes RVB.
Les photosites transforment les photons en électrons, un photosite n’est sensible qu’à une seule composante rouge verte ou bleue.

Comment passer de l’information enregistrée par les photosites aux pixels ?
C’est le processus de dématriçage : un pixel est créé par logiciel en utilisant la valeur des photosites voisins. Au final on obtient à peu près autant de pixels que de photosites.

Quels est la différence entre nombre total de pixel et nombre de pixel effectifs ?
Les pixels effectifs sont ceux qui composent la photo.
Parmi le nombre total de pixel (nous devrions dire photosite) certains sont utilisés pour autre chose, comme mesurer le niveau du noir ou améliorer la distinction des couleurs.

Quelle est la différence entre un fichier RAW et un fichier JPEG ?
Le fichier RAW contient la totalité des valeurs enregistrées par les photosites.
Le fichier JPEG contient l’information convertie en pixels, cette information peut être compressée.





Les composants d’un capteur photo


Pour transformer la lumière en fichier numérique le capteur réalise plusieurs étapes :

  • Filtrer les informations inutiles, pour éviter d’enregistrer les infrarouges (c’est le rôle du filtre IR) et les très petits détails de l’image qu’il est impossible de correctement enregistrer (filtre AA, pour "Anti-Aliasing").
  • Guider les rayons lumineux vers les récepteurs (les photosites) à l’aide de microlentilles.
  • Séparer la lumière selon ses 3 composantes Rouge, Verte et Bleu, avec la matrice de bayer.
  • Convertir les photons (la lumière) en électrons (l’électricité), ce que font les photosites

Le schéma suivant vous montre sous forme d’éclaté les différentes couches du capteur :

capteur photo - couches
Les différentes couches d'un capteur photo



Les filtres du capteur



Le filtre Infra Rouge


L’œil humain, qui n’est pas à une lapalissade près, ne voit que le spectre visible.
Un capteur photo va plus loin puisqu’il est également sensible aux infrarouges.

Pour palier à cela les fabricants utilisent un filtre qui empêche les IR d’arriver jusqu’aux récepteurs.

Si vous en avez le besoin il est possible de faire retirer ce filtre en atelier, de même certains modèles de reflex en sont dépourvus comme les Canon 20Da et 60Da spécialement dédiés à l’astronomie.


Le filtre Anti-Aliasing (AA)


Également appelé filtre anti-Moiré ou filtre passe bas ce filtre limite la taille des plus petits détails qui vont arriver jusqu’au capteur.
Ceci pour lutter contre des artefacts qui se créent si l’on tente de photographier des détails plus petits que 2 pixels.

C’est la notion de fréquence spatiale qui intervient :

Au niveau de l’image on dit que :
  • De gros détails ont une faible fréquence spatiale.
  • De petits détails ont une fréquence spatiale élevée.

Au niveau d’un capteur :
  • Des photosites rapprochés permettent d’enregistrer des hautes fréquences spatiales.
  • Des gros photosites (et donc éloignés) limitent à des petites fréquences spatiales.


L’ami Shannon a dit que la fréquence du capteur doit être le double de celle de l’image pour permettre un enregistrement correct. En accord avec ce principe le filtre anti-aliasing limite la taille du plus petit détail à au moins 2 pixels, en appliquant un léger flou.


Pour bien comprendre voici un exemple de photo obtenue par un capteur sans filtre AA, pour 3 niveaux de détails. L’image est simple, des bandes noires et blanches, la largeur des bandes est respectivement égale à 0.9 pixel, 1.7 pixel et 2.6 pixel. En accord avec le principe de Shannon on constate que c’est uniquement dans le dernier cas que la photo produite commence à ressembler à l’image originale.

capteur photo - fréquence spatiale
Si un détail est plus petit que 2 pixels alors il sera mal enregistré


Ce filtre permet également d’éviter les problèmes de crénelage, sans quoi les contours de l'image ont un aspect « marche d’escalier » comme illustré ci dessous :

crenelage - filtre anti aliasing
L'effet de crénelage disparaît en utilisant un filtre anti aliasing

Ceci dit le filtre AA commence à disparaître des appareils photo (comme avec les Nikon D800E et D7100 ou le Pentax K5 IIs), les capteurs sont devenus tellement denses, les photosites si petits, que les problèmes d'aliasing deviennent quasi-invisibles à l'échelle d'une photo.



Les microlentilles


Nous verrons par la suite que les photosites n’occupent pas toute la surface du capteur, afin d’éviter que de la lumière ne soit perdue (lorsqu'elle arrive à côté d’un récepteur) les fabricants utilisent des microlentilles qui font converger les rayons vers les photosites :

capteur photo - microlentille
Utilité des microlentilles

Ceci permet d’améliorer le rendement de la conversion lumière/électricité.
En travaillant cet aspect les capteurs deviennent plus sensibles et donc plus à l’aise en basse lumière.



La matrice de Bayer


Vous savez certainement que l’on peut recréer une couleur en mélangeant plus ou moins de Rouge, de Vert et de Bleu, c’est le principe de la synthèse additive, notamment utilisée par l’écran que vous avez en face des yeux.

Un capteur utilise le même principe : les composantes RVB de chaque couleur sont enregistrées séparément.

Mais les récepteurs du capteur sont sensibles à un large spectre, pour qu'un photosite ne soit sensible qu'au rouge, au vert ou au bleu on utilise des filtres colorés.

Ces filtres sont disposés en réseaux, la forme la plus connue est la matrice de Bayer :

Matrice de Bayer
Matrice de Bayer

Si la matrice de Bayer utilise deux fois plus de filtres verts que de rouges ou bleus c’est pour être fidèle à l’œil humain, nettement plus sensible au vert


Remarque : il existe d’autres types de matrice où les filtres ne sont pas arrangés de la même façon, on peut en trouver en structure « nid d’abeille », en organisation pseudo-aléatoire, différents filtres bleus peuvent également être utilisés pour palier au manque de sensibilité des photodiodes dans le bleu, on peut utiliser des petits photosites à l’aise en haute lumière couplés à des plus gros photosites qui s’avèrent utiles en basse lumière… il existe énormément de formules et l’innovation est constante dans ce domaine.



Le dématriçage


Le dématriçage permet de calculer la valeur des composantes RVB des pixels en fonction des valeurs lues par les photosites.
Cette opération n’est pas effectuée par le capteur mais par moyen informatique : le dématriçage peut être réalisé par l’électronique de l’appareil photo pour créer un fichier jpeg ou par un logiciel sur ordinateur qui traite des fichiers RAW.

Les algorithmes de dématriçage sont extrêmement complexes, je vous présente une version light qui permet de comprendre le principe.

Pour l'exemple nous considérerons un capteur de 4 lignes et 6 colonnes, la valeur du signal produit par un photosite à la ligne L et à la colonne C est noté V(L,C) :

Matrice de Bayer - Numerotation
Numérotation des photosites de la matrice de Bayer

La valeur des composantes RVB du pixel en (2,4) se calcul en faisant la moyenne des valeurs enregistrées par les photosites voisins, on a :
  • Rouge(2,4)= (V(2,3) + V(2,5)) / 2
  • Vert(2,4)= (V(1,3) + V(1,5)+ V(2,4) +V(3,3)+ V(3,5)) / 5
  • Bleu(2,4)= (V(1,4) + V(3,4)) / 2

On peut faire la même chose pour le pixel en (3,2) :
  • Rouge(3,2)= (V(2,1) + V(2,3)+V (4,1) + V(4,3)) / 4
  • Vert(3,2)= (V(2,2) + V(3,1)+ V(3,3) +V(4,2)) / 4
  • Bleu(3,2)= V(3,2)


Je vous montre un exemple un peu plus complexe, avec le drapeau Suédois, non pas que je sois nostalgique d’Abba mais les couleurs Jaune (255,255,0) et Bleu (0,0,255) se prêtent bien à l’exercice :

Matrice Bayer exemple dematricage
Exemple de dématriçage

Remarques :

  • Dans cet exemple un photosite est noir s’il n’enregistre rien.
  • Le filtre AA n’est pas pris en compte
  • L’image finale n’est pas totalement fidèle à l’image de base, ceci est dû au fait que l’algorithme utilisé est très simplifié et car l’exemple est très zoomé, ce phénomène se constate à l’échelle de quelques pixels mais est vite oublié sur une photo de plusieurs millions de pixels.
  • Les photosites en bord ne sont pas convertis en pixels, faute d’information (ils n’ont pas suffisamment de pixels voisins).


Le dématriçage peut également faire apparaître un moiré coloré, comme dans cet exemple (extrême) ou les détails font la taille d’un pixel :


dematricage moire
Exemple de moiré dû au dématriçage de détails trop petits

Remarque : ici aussi le filtre AA n’est pas utilisé.



Photodiodes et électronique associés


Je vous présente pour finir le principe du capteur CMOS qui est en train de définitivement enterrer le capteur CCD, les derniers reflex CCD des constructeurs commencent à dater : 3 ans chez Sony (A390) et Pentax (645D), 4 ans chez Nikon (D3000) et 12 ans pour Canon (1D).

  • Le composant qui convertit la lumière en électricité est le photosite, le signal en sortie est proportionnel à l'intensité lumineuse reçue.
  • Les photosites sont organisés en matrice, pour permettre un accès rapide à chacun d'eux.
  • L’adressage se fait par ligne et par colonne, des transistors MOS pilotent tout ça.
  • Les capteurs peuvent intégrer des éléments d’amplification du signal.

Ci-dessous le schéma de principe d’un capteur pour 4 photosites :

schema capteur CMOS
Schéma de principe d'un capteur CMOS

Je ne vais pas partir dans un cours d’électronique mais on retiendra que :

  • Les photosites transforment la lumière en électricité, c'est-à-dire les photons en électrons.
  • Les amplis… amplifient le signal.
  • Les transistors peuvent être vus comme des relais ouverts ou fermés : si la commande est active alors ils laissent passer l’électricité de l’entrée vers la sortie.
  • C’est un contrôleur (voyez ça comme un micro processeur) qui pilote les transistors pour lire la valeur d’un photosite, par exemple si "ligne 1" et "colonne 2" sont actifs alors c’est le photosite en haut à droite qui sera lu.
  • La tension sélectionnée est encore amplifiée avant d’aller vers un CAN, un Convertisseur Analogique/Numérique, qui numérise le signal pour pouvoir l’enregistrer.


Évidement dans les faits un capteur est plus complexe, mais vous avez une idée de ce qui le constitue, ceci explique en partie pourquoi toute la surface du capteur n’est pas sensible à la lumière, entre 2 photosites on trouve transistors et autres amplificateurs par millions.



Liens


Une thèse très intéressante sur le dématriçage.
Une doc de Canon sur un capteur 35mm utilisé en vidéo.



Dernière mise à jour le:
par Pierre LPEF