On ne vas peut être pas rentrer dans les détails mais un photosite ne fait que capter de la lumière, des photons après passage dans une série de filtres : filtre anti-aliasing, filtre passe-bas, filtre de coupure infrarouge, microlentille, filtre mosaïque de Bayer.
pour ce qui nous intéresses la microlentille dirige la rayon de lumière sur le photosite puis la matrice de Bayer filtre la composante RVB de la lumière arrivant au photosite (celle-ci comprend 2 V pour 1 R et 1 B).
Ce qui fait que chaque photosite va enregistrer l’information de luminance d’une seule couleur R, V ou B.
Comme tu peux le voir aucune moyenne la dedans... juste une mesure pure et dure
remarque : plus gros photosites, plus de photons, moins d'amplifications... moins de bruit...donc plus net
Ensuite reste à faire la synthèse des couleurs à partir des trois couleurs primaires, c'est le rôle du dématricage (en quelques sortes une interpolation des couleurs soit dans le boitier, soit du raw par logiciel)... c'est à dire ? Eh bien on ne fait pas une moyenne mais pour chaque photosite on va prendre les composantes de couleurs primaires manquantes dans les pixels adjacents et en faire la synthèse, par exemple j'ai pour un pixel donné une luminance pour le rouge de 69, je vais prendre les valeur des pixels voisins, 89 pour le vert, 34 pour le bleu... et voilà un beau pixels bien carré, bien net, bien vert pour mon herbe.....
J'ai la même sensation que Fred_pol, pour les flous de bouger (et non de réduction), mais je n'arrive pas à l'expliquer.
voir ce que j'ai écris plus haut en 1er partie......... (je veux bien écrire..mais il faut lire)
pour revenir sur la sensibilité au flou de bouger
Sur un capteur de même dimension mais de résolutions différentes (La dimension du capteur est la même, mais les pixels sont plus petits, plus serrés). Le même mouvement (angulaire) sur les deux capteurs n'aura pas la même conséquence.
Le capteur étant de la même dimension, ce même mouvement angulaire va "balayer" la même portion du capteur des deux appareils ....mais va concerner x fois plus de pixels sur un capteur que sur l'autre.
Ceci est surtout sensible lorsqu'on utilise des vitesses d'obturation qui sont à la limite de l'acceptable, car, à ce niveau la dégradation peut être insensible sur un capteur à la résolution plus faible , alors qu'elle sera plus visible sur un capteur avec à la réolution plus élevée.
Grossièrement un flou se traduisant par un bougé de 1/10e de mm sur le capteur ne permettra de reproduire (au mieux) que des détails plus gros que 1/10e de mm (au niveau du capteur) quelque soit la résolution de celui ci.
Donc il est important de modifier ses habitudes et d’augmenter d'1/3 ou 1/2 la vitesse que l'on utilisait avant dans les mêmes conditions si l'on veut exploiter au mieux le potentiel des appareils mieux pourvus en pixels.
ex: si la vitesse de sécurité était 1/125e elle devient, en gros, 1/180 de sec
(d'où l'utilité de la réduction des autres vibrations parasites)