Le coin de l'astrophotographe

log10

Traitement de l'image numérique en astronomie


APN: Appareil photo numérique (en général)
EOS: Reflex numérique de marque Canon, particulièrement bien adapté à l'astro ( en particulier les 350D et 350 Da)
PS: PhotoShop
IRIS: Logiciel de traitement d'image d'astro (mais il peut faire autre chose !)
RAW: (cru en anglais) image brute sans aucun traitement ni compression telle qu'elle est enregistrée par le capteur de l'APN.

Quel est le but du traitement d'image et du compositage d'image?

La principale utilité du traitement d'image est de nettoyer l'images de tous les défauts induits par le matériel ; qu'il s'agisse du télescope ou de l'APN afin de ne conserver QUE les données qui correspondent à des informations réelles ; le reste c'est ce que l'on appelle le bruit

Une fois ce travail effectué ; que l'on appelle le prétraitement, on passe alors au traitement proprement dit, qui consiste à présenter les informations restantes de la manière la plus approprié à ce que l'on veut faire.

En ce qui nous concerne, dans la plupart des cas le but est d'avoir une belle image ; on utilisera donc des fonctions qui permettent d'améliorer la netteté, le contraste … ou qui permettront d'afficher ce qui ne peut pas être vu 'normalement'. Par exemple, le cœur d'une galaxie et un million de fois plus lumineux que la bordure extérieure, et aucun capteur optique, ni aucun écran (ni l'œil humain bien sûr) n'est capable de voir/montrer à la fois le centre et les bords d'une galaxie ; un traitement mathématique approprié (logarithmique; image de droite) permet de voir des détails de partout.



La principale différence entre un logiciel comme IRIS et PhotoShop par exemple, c'est que le but de PS est de faire de belles images, par conséquent, il 'triche' en ajoutant des informations lors de ses traitements pour améliorer l'aspect visuel de l'image, ce qui est inacceptable d'un point de vue scientifique ; IRIS n'ajoute rien, il ne fait que rendre les infos existantes plus visibles.

Pourquoi nettoyer l'image ?

Lorsqu'un capteur reçois une information, que ce soit un capteur CCD d'APN ou un vulgaire poste de radio, les informations reçus sont un mélange d'informations utiles et de parasites (le fameux bruit).

On définit la qualité d'un signal par le rapport signal/bruit qui doit être aussi important que possible.
Un rapport élevé signifie qu'il y a beaucoup d'informations par rapport à la quantité de parasites ; au contraire un rapport S/B faible signifie qu'il y a beaucoup de parasites et peu d'informations.

Les capteurs d'APN sont prévus pour fonctionner en pleine lumière, le signal (l'image) et donc des milliers de fois plus important que le bruit (qui est généré par la chaleur, les défauts du capteur, l'électronique, etc …) ; il est donc invisible dans l'image. Dans une image d'astro. par contre la quantité de lumière enregistrée est très faible ; par contre le bruit à au contraire tendance à augmenter rapidement avec le temps de pose ; résultat sur une photo du ciel profond on a presque autant de bruit que de signal (donc d'info réelle)

Pourquoi compositer ?

Le compositage d'image consiste à utiliser les informations de plusieurs images d'un même objet pour créer une seule image finale.

Il y a de deux raisons principales qui justifient l'utilisation de ce processus.

* Cela permet de réduire le temps de pose, et donc de limiter les problèmes liés à la turbulence atmosphérique (photo planétaire) et aux défauts de suivi pour les longues poses (ciel profond). Par exemple, au lieu de faire une pose de 20 min sur une nébuleuse, on peut faire 10 poses de 2 min et les 'ajouter' numériquement. Incidemment cela réduit aussi le bruit qui augmente avec le temps de pose.

* Cela permet d'obtenir une plus grande quantité d'informations pour le traitement ; en effet un capteur numérique ou un PC ne gèrent que 256 niveaux de gris, ce qui est insuffisant pour une analyse statistique de l'image nécessaire à la plupart des traitements ; en ajoutant les valeurs des pixels de chaque image, on arrive à avoir jusqu'à 32 000 niveaux de gris ce qui permet au traitement d'être beaucoup plus efficace.



Comment se passe le prétraitement, et que corrige-t-on ?

Que corrige-t-on ?

Un capteur d'APN (CMOS) ou de caméra d'astro (CCD) est constitué d'une matrice de pixels qui se 'chargent' en électrons chaque fois qu'ils sont percutés par un photon. A la fin de la pose, on 'décharge' chaque pixel et on compte les électrons emmagasinés par chacun des pixels. Plus il y a d'électrons, plus le pixel est lumineux. En théorie, un pixel a donc 0 électron tant qu'il est dans le noir, puis il gagne des électrons à chaque collision avec un photon. En théorie …. !

En pratique ce n'est pas si simple !

1 ) Les capteurs sont sensibles aux photons …. et la lumière visible ne représente qu'une petite partie du rayonnement électromagnétique. La chaleur, les rayonnements de l'électronique de l'APN et du télescope et tous les parasites électromagnétiques qui traînent dans l'air impriment eux aussi leurs marques sur le capteur. On appelle cela le bruit thermique. Il est d'autant plus important que la pose est longue, il évolue dans le temps, et bien sûr c'est pire si il fait chaud. Les capteurs des 'vraies' caméras d'astrophotographie sont refroidis à –30° C, voir en dessous pour le haut de gamme afin de réduire une partie de ce bruit.

2 ) Certains pixels du capteur sont défectueux (c'est normal) ; d'autres ont des réactions 'non conforme' sur de longues poses (+ de 2 ou 3 s) ; ce sont toujours les mêmes, et il est possible de dresser une 'carte' des pixels défectueux d'un capteur donné afin de les retirer de l'image par diverses méthodes. Les pixels défectueux apparaissent sous la forme de point très brillant, et souvent colorés … comme une étoile ; ce qui ne simplifie pas les choses !

3 ) Pour pouvoir fonctionner, un capteur à besoin d'être traversé par un courant que l'on appelle le courant d'offset (décalage en anglais). Donc même au repos il y a des électrons dans les pixels !

La valeur de ce courant doit aussi être retiré ; par chance elle est constante pour un capteur donné quel que soit le temps de pose. Par contre elle diffère suivant le réglage de sensibilité ISO du capteur. Il faudra donc une correction différente pour chaque sensibilité utilisée.

4 ) Certaines zones du capteur n'ont pas la même sensibilité que d'autres ; autrement dit certaines zones de l'image seront plus sombres ou plus claires que d'autres. Ces zones peuvent, elles aussi être 'cartographiées' une fois pour toute pour un capteur donné.

5 ) Il peut y avoir des poussières sur le capteur, et elles, évidemment, elles changent de place !
On peut les enlever par traitement, mais il est quand même préférable d'avoir un capteur propre.

Tout ceci peut laisser penser que votre capteur est bon pour la poubelle ; il n'en est rien, c'est juste que pour l'astrophoto, les niveaux de lumière enregistrés sont si faibles que le moindre défaut est parfaitement visible et que l'on travaille à la limite des possibilités du matériel. Ceci dit avec un télescope de 200mm un EOS et les techniques de traitement d'image et de compositage on arrive à faire ce que faisait un télescope de 4 m de Ø en photo argentique (du point de vue de la sensibilité, pas de la résolution bien sûr).

Je précise au passage que tout ceci vaut aussi pour les caméras CCD d'astronomie, sauf que c'est encore plus délicat vue que les capteurs sont TRES sensibles (au bruit aussi !) et qu'en plus les bons ET abordables sont en N&B ; il faut donc multiplier les poses par 3 (au travers de 3 filtres RVB) et appliquer une correction de temps de pose pour chaque filtre si on veut une photo en couleur.

Comment ça se passe ?

Comme on n'a pas encore bien vu ce qu'était le compositage, on va prendre un exemple à une seule image. Si on voulait compositer, il faudrait simplement faire la même chose sur chaque image.

Pour traiter une image nous allons avoir besoin de:

- une image noire appelée 'dark' qui enregistrera le bruit thermique.
- une image d'offset qui enregistrera le courant d'offset.
- une image 'Flat Field' (champ plat) qui enregistrera les différences de sensibilité du capteur et la position des poussières
- une carte des pixels défectueux (fichier texte : coordonnées X et Y des pixels) qui sera générée par le logiciel après analyse d'un 'dark'

Avant d'aller plus loin, je précise qu'il est IMPERATIF d'utiliser le mode RAW de l'EOS ou si votre APN n'a pas, au moins un format non compressé ; SURTOUT PAS DE JPEG !!!

Le mode RAW fournis une image brute sans aucun des traitements intégrés de l'APN .(balance des blancs, corrections diverses intégrées, programmes spéciaux) et bien sûr sans la moindre compression afin de ne pas altérer les données. Au départ l'image obtenue aura une coloration bizarre, les capteurs rouges vert et bleu n'ayant pas la même sensibilité et aucune correction n'étant faite par l'APN sur une image RAW. Ceci n'est pas gênant, de toute façon le programme de correction de couleur est prévu pour des photos 'normales' et ne comprends rien au rayonnement stellaire ! Donc on n'aurait pas les bonnes couleurs de toute façon.

Faire un 'dark'

Le principe est simple, on veut enregistrer le bruit thermique, mais sans l'image. Il suffit pour cela de faire une pose DANS LES MEMES CONDITIONS que l'image à traiter, mais en bouchant l'objectif.

Il est plus que souhaitable de faire le 'dark' juste avant ou après la prise de la photo (et même les 2, car on composite aussi les darks), et surtout dans les mêmes conditions (donc le même temps de pose, les mêmes réglages de sensibilité, la même température ambiante … )

Faire un 'offset'

Là c'est plus simple ; le courant d'offset étant constant pour un capteur donné et ne variant qu'en cas de changement de la sensibilité ISO, il suffit de faire une image d'offset pour chacune des sensibilités utilisées en astro ; en général les plus hautes (sur l'EOS éviter si possible le 1600 ASA, trop de bruit), et de la conserver sur le PC.

Pour n'enregistrer que le courant d'offset, il suffit de faire une pose très courte (par ex 1/500s) avec le bouchon sur l'objectif ; ainsi on n'enregistre ni lumière ni bruit thermique.

Faire un flat field

C'est le plus difficile à faire, il s'agit de prendre une photo d'un plan uniformément éclairé (APN monté sur le télescope) afin d'obtenir une image 'grise' qui permettra de localiser les différences de sensibilité du capteur, et les éventuelles poussières. Le flat field doit être fait avec la même combinaison optique que la photo à traiter. Pour ma part, c'est une opération que j'ai zappée jusqu'à présent ; j'utilise un faux flat field (une image uniformément grise) pour le traitement.

Faire la carte des pixels défectueux

C'est le logiciel qui générera cette carte en analysant le dark qui est censé ne contenir que des pixels très peu lumineux et qui repérera ceux qui brillent trop ; cette carte pourra elle aussi être conservée sur le PC car elle ne varie que très peu (quelques pixels meurent avec le temps)

Le prétraitement

Le but n'étant pas de faire un tuto sur IRIS que je ne connais pas très bien je me contenterais donc de donner le synoptique d'un traitement pour UNE image.

En cas de compositage, on fait plusieurs images de l'objet, mais aussi plusieurs dark qui sont eux aussi composités (le bruit thermique évoluant dans le temps, cela permet d'avoir un 'bruit moyen'). C'est également valable pour l'image d'offset et le flat field qui sont eux aussi composités.

Synoptique du traitement :

1) conversion de l'image RAW de l'objet en images FITS (format astro) : résultat 3 images représentant les couches rouges, vertes et bleues.

2) conversion de l'image RAW du dark en images FITS: résultat 3 images RVB

3) idem pour le flat field et l'offset

4) soustraction de l'offset du dark (le dark comprend aussi l'offset, il faut donc l'enlever) et ceci sur chacune des images RVB donc Dark_rouge - offset_rouge, dark_vert – offset_vert ….

5) soustraction de l'offset de l'image de l'objet ; bien sûr par couche RVB

On a maintenant une image (enfin 3 puisqu'elle est décomposée en 3 couches RVB) qui est débarrassée de son offset, et même chose pour le dark (les 3).

6) soustraction du dark de l'image de l'objet (encore par 3) ce qui nous donne une image nettoyé de son bruit thermique.

7) élimination des pixels défectueux à partir de la carte générée par le logiciel à partir du dark (toujours par 3)

8 ) correction des défauts de sensibilité locale du capteur à partir du flat field (division par le flat field)

C'est terminé pour le nettoyage ; ensuite si on ne composite pas, on recomposera les 3 couches en y appliquant un facteur de correction pour obtenir l'image finale en couleur, puis on pourra commencer le traitement proprement dit.