coucou, me voilà.
Je suis motivé par un fil ou on puisse approfondir le thème DX FX qui fait couler beaucoup d'encre et user beaucoup de claviers.
Bien sûr, dans une ambiance détendue et basée sur l'écoute réciproque.
Au fil du temps, je suis arivé à la conviction que quand on parle de ce fameux multiplicateur de focale, facteur de recadrage et autres différences entre formats de capteurs, on est beaucoup plus proche de la foi que la science.
Il semble que chacun utilise une partie de la vérité (surement pas par mauvaise foi), et base ses conclusions et affirmations sur un nombre insuffisant de variables.
C'est ainsi quand on déduit la résolution d'un appareil photo de la seule résolution de son capteur, et c'est encore ainsi quand on déduit la résolution d'un capteur de sa taille et de son nombre de pixels. Pire encore quand on parle de la surface du capteur, qui n'a aucun rapport direct (c'est à dire qu'à surface égale, on peut avoir un nombre de lignes différent si les proportions sont différentes, ce qui est le cas par exemple avec le format 4/3).
Commençons par la résolution du capteur et ne confondons pas la résolution effective avec la résolution maximum (ou théorique), ou "limite Nyquist".
La résolution théorique est, c'est exact donnée par la formule : (hauteur en pixels / hauteur en mm)/2.
On divise par deux car on exprime la résolution en paire de lignes, (ou cycles). En effet, le pouvoir séparateur (résolution) correspond au nombre de paires de lignes qu'il est possible de distinguer (séparer), une paire étant formée d'une ligne parfaitement blanche associée à une ligne parfaitement noire. Cette séparation est complètement associée au contraste, puisque plus on a de contraste, plus on a de résolution, et moins on a de contraste, moins on a de résolution. Quand le contraste diminue, la ligne blanche devient grise, la ligne noire aussi, et les deux gris arrivent à s'égaler si le contraste est vraiment insuffisant (contraste inférieur à 2).
On voit donc qu'il ne suffit pas d'avoir x lignes de pixels pour dire que la résolution est de x/2.
La véritable formule de la résolution n'est pas celle antérieurement citée, mais Ry = 1/2p ou Ry est la limite Nyquist et p... ... l'espace entre pixels en mm !
Et oui, car toute la surface du capteur n'est pas constituée de photosites tangeants. (Rappelons qu'un pixel = 4 photosites disposés en un carré de 2x2. Il y a deux photosites verts, un rouge et un bleu). La différence entre la résolution théorique et la résolution réelle tient aux espaces entre les pixels, ou plus exactement, les espaces entre photosites, qu'ils appartiennent ou pas au même pixel.
Or, plus les pixels sont denses, et moins leur surface est efficace, traduction, plus l'espace interpixeols est grand par rapport à celui occupé par les photosites. C'est ainsi que pour deux capteurs de même densité, par exemple 12 megas pixels, un capteur FX est plus effice qu'un capteur DX, et evidemment bien plus qu'un capteur de compacte qui est encore plus petit.
Ceci fait qu'il est inexact de dire qu'un capteur DX de 12 megapixels présente plus 1,5 fois plus de détail qu'un capteur FX de même capacité. Pour augmenter la résolution du système, il faut augmenter la densité du capteur mais à la fois on doit accepter une exploitation moindre du capteur. Il y a en effet une partie de la matrice de pixels qui forme l'image digitale qui ne contient pas d'information.
Sur le plan théorique, la resolution d'un capteur comme celui du D300 est de 90 paires de lignes et celui de la D700 de 60 paires de lignes (59). Ou l'on retrouve bien notre facteur 1,5. Mais voilà, il s'agit bien de la résolution théorique, mais pas de la réelle du capteur. Cette différence, c'est vrai, n'est cependant pas très significative entre ces deux capteurs si on en reste là. Mais voilà, on ne fait pas des images avec un capteur, mais avec un système. C'est à dire : objectif + filtre passe bas + capteur + matériel sur le capteur + électronique et si on continue jusqu'a voir l'image + écran ou imprimante.
Hors le couple formé par l'objectif + capteur affecte beaucoup la résolution théorique du capteur. J'ai les données pour le Nikon D2x équipé d'un nikkor 50mm f:1.8 a un diaphragme de f:8 (eh oui, le diaphragme aussi change la résolution, mais ça vous les savez tous si vous avez déjà regardé des courbes MTF). La capacité du capteur est de 4288 lignes de pixels, mais le système objectif+capteur la fait tomber à 3.600. Toujours sur le D2x, on passe d'une limite Nyquist (résolution maximum) de 90 paires de lignes à 76 paires réelles, ce qui correspond à une perte d'exploitation de 15,5%. Je n'ai pas les chiffres exacts pour le capteur FX, mais la perte est inférieure d'à peu prés la moitié.
Parlons maintenant de l'amplification. Plus la densité des pixels augmente et plus les photosites son, évidemment, petits (plus on en met, plus ils sont petits). Plus ils sont petits, moins ils reçoivent de lumière. Moins ils reçoivent de lumière, et plus il faut amplifier le signal qu'ils émettent. Hors, une matrice électronique, ça ne produit pas que des signaux, ça produit aussi du bruit. Et plus on amplifie le signal, plus on amplifie le bruit. Vu que le bruit est indépendant de la taille des photosites, plus on amplifie et moins le rapport signal/bruit est bon (c'est pour ça que le D3 produit des isos hauts meilleurs que le D300, le rapport signal bruit lui est bien plus favorable car ses photosites sont plus grands et donc que l'exploitation de la surface du capteur est plus favorable).
N'oublions pas que la résolution, ou comme vous l'avez dit dans un message antérieur : la richesse de détails, correspond à un pouvoir séparateur de paires de lignes blanches et noires. Il en va de cette résolution comme du son dans un poste de radio, la chanson peut avoir été diffusée avec une qualité parfaite depuis la station, mais plus vous avez de parasites (bruit), moins vous reconnaissez la chanson et moins vous avez de détails. C'est pareil. A densité de pixels égale, le système qui a le rapport signal/bruit le plus favorable (toutes choses égales par ailleurs) est celui qui a la meilleure résolution. Un FX a une relation plus favorable qu'un DX, lequel perd de l'efficacité aussi de ce fait là.
C'est pas tout. Il faut aussi prendre compte la vibration du capteur pendant la capture. Car ça vibre, bien sur. Et la perte de résolution due aux vibrations n'affecte pas le capteur de la même proportion si sa taille des photosites change. Plus ils sont petits, et plus facilement ils perdent leur rayon de lumière quand ça vibre. En fait, à la vitesse de 1/250º, le capteur FX du D3 perd 5% de résolution mais celui du D300 perd 20% dans les mêmes conditions.
Il faut aussi prendre en compte quelque chose d'important et d'évident si on réfléchit : l'angle de champs de l'objectif. Plus l'angle de champs est étroit, plus l'angle des rayons est serré, et plus il est facile de faire une photo bougée, tout le monde sait qu'á la main, avec un 300 on bouge plus qu'avec un 50mm. Et bien, avant d'arriver au niveau ou la photo se voit floue du fait de ce déplacement, elle perd de la résolution, exactement comme du fait de la vibration du capteur, puisque les raisons sont les mêmes, que ce soit le capteur qui vibre, ou le photographe, les rayons s'échappent d'autant plus vite des photosites que ceux-ci sont petits. En ce cas, un 200mm monté sur un petit capteur a l'angle de champs d'un 300mm. La perte de résolution para bougé est équivalente à celle d'un 300mm sur grand capteur.
Bon, c'est un résumé (oui oui). On n'a pas parlé de la fonction de transfert de modulation (modulation = contraste), ni de comment le filtre passe bas réduit la résolution réelle du système.
Tout ça, et ce qui manque, veut dire une seule chose : il est erroné de croire que la résolution d'un système appareil photo est celle du capteur. Il est également faux de croire que la résolution du capteur est égale au nombre de pixels relatif à sa hauteur (et bien plus encore à sa surface). Les pertes de résolution dues à la densité et à la taille des photosites - ou si vous voulez le rendement - compensent presque exactement l'augmentation de résolution théorique.
De mon coté, je reconnais qu'il était faux de ma part de dire que "En croppant l'image dans la même proportion que celle des capteurs (1,5), on obtient exactement la même résolution. Ce que perd le FX à l'agrandissement,, le DX l'avait perdu à la capture. Exactement dans la même proportion". A ma décharge j'invoque le fait que j'avais fini par le dire comme ça pour ne pas avoir à répéter chaque fois toutes les explications. C'était une solution de facilité, en disant "exactement", je gagnais du temps. Mais je reconnais que ce n'était pas vraiment exact… mais pratiquement, oui. Ce qu'on gagne d'un coté, on le perd de l'autre.
Mes sources : le cours de l'Université Nationale pour l'Enseignement à Distance (UNED) Espagne.
http://ocw.innova.uned.es/ocwuniversia/ ... ia-digital