Cette section présente l'optique adaptative pour le
non-spécialiste. Pour ce faire, nous allons tour à tour expliquer des termes
techniques et des notions fort usités, et présenter des exemples
illustratifs, dans les domaines des télescopes, de la turbulence, de la
restauration d'image et bien sûr de l'optique adaptative proprement dite.
L'optique adaptative est une technique dont le but consiste à restaurer en temps réel la qualité des images détériorées par la turbulence atmosphérique.
La caractérisation précise de la turbulence atmosphérique et ses effets sur les
images est un problème complexe [Roddier 81, Fried 94]. Cependant, pour en
simplifier l'explication, on peut considérer que l'atmosphère terrestre, la
couche d'air
qui nous sépare de l'espace, est en perpétuel mouvement, et ce à une multitude
d'échelles. Des grands mouvements de masses d'air à l'échelle continentale,
aux micro-mouvements de minuscules bulles d'air roulant les unes sur les
autres, en passant par les couches poussées par des vents de directions
différentes suivant l'altitude, tous contribuent à la turbulence
atmosphérique. Or ces masses d'air variées, en mouvement, ont des
caractéristiques optiques différentes, essentiellement dues à leur
différentes températures (l'indice de réfraction de l'air, la vitesse
de propagation de la lumière en son sein, varient avec la
température) (Fig. et
). Ainsi, au
travers de l'air, les images sont continuellement déformées.
Pour simplifier, c'est un peu comme si les ondes
nous arrivaient après avoir été réfléchies par un miroir déformant. De plus ce
`miroir' équivalent change très vite de forme au cours du temps.
Les effets de la turbulence sont le plus souvent peu sensibles à l'oeil nu,
de jour, car le pouvoir de résolution de l'oeil -la finesse des
détails qu'il peut distinguer- n'est pas très grand, et les masses d'air que
notre regard
traverse
ne sont en général pas assez grandes ou assez
turbulentes pour que l'effet
de la turbulence soit sensible. Cependant il y a au moins deux cas où cet effet
est perceptible: lorsque l'on regarde par dessus une étendue assez
importante de bitume chauffé par le soleil en été (parking, route), les
images sont déformées, dansantes...! Et
la nuit, lorsque l'on regarde les étoiles, la scintillation (le
clignotement / tremblement) que l'on peut observer sous nos cieux agités est
aussi une conséquence de l'agitation de l'air au dessus de nous.
Les effets de la turbulence sont ainsi particulièrement sensibles pour
l'astronome, qui, du sol, tente de former des images à partir d'un faisceau
qui a traversé des kilomètres d'atmosphère.
De plus, la perturbation due à la turbulence atmosphérique, déjà sensible
pour les étoiles à l'oeil nu, va devenir de plus en plus gênante, à mesure
que l'instrument va se perfectionner. Plus on tente de ``grossir'' les
images,
d'augmenter le pouvoir de résolution de l'instrument, plus la turbulence se
montre comme une barrière infranchissable.
En pratique, au sol, contrairement à la situation prévalant dans l'espace, la
résolution des images brutes
que l'ont peut
obtenir au foyer d'un grand télescope ne dépend pas de la taille du miroir
mais de la turbulence. Suivant les conditions (site, vents,...), la
turbulence peut être plus ou moins importante. On peut caractériser la
turbulence par plusieurs critères, nous allons y revenir très bientôt.
Pour le lecteur non familier des termes utilisés en astronomie, définissons en brièvement quelques uns forts usités: un télescope est un système optique à miroirs. Le diamètre d'un télescope est le diamètre de la surface collectrice principale: son miroir primaire (principal) concave. Pour la plupart des montages optiques de télescopes, un rayon frappant le miroir primaire est réfléchi vers le miroir secondaire , qui le renvoie vers le foyer. Le foyer est le point où le télescope concentre les rayons lumineux parallèles à son axe (les étoiles sont pratiquement à l'infini, à l'échelle des télescopes, les rayons lumineux qu'elles émettent sont donc parallèles). La droite, orthogonale au miroir primaire et reliant les centres des miroirs primaires et secondaires est l'axe optique du télescope. La surface telle que pour tout point qui la compose il passe un rayon lumineux parallèle à l'axe optique qui passe ensuite par le foyer, cette surface est appelée la pupille . A l'entrée du télescope, elle est équivalente au disque du primaire, moins le disque du secondaire qui forme l'obstruction centrale (l'``ombre'' du secondaire obstrue une partie de la surface collectrice du primaire).
Evoquons aussi un autre concept important en optique, le
front d'onde . En schématisant, imaginons une source ponctuelle,
monochromatique .
Elle émet des rayons lumineux se propageant depuis la
source, dans toutes les directions. L'onde lumineuse émise à un
instant T0 forme à l'instant T0+dT une sphère de rayon
c dT (c vitesse de la lumière (environ 300 000 km/s)),
c'est le front d'onde. Deux sphères
correspondant à deux crêtes successives de l'onde sont séparées d'une
longueur d'onde
(soit par exemple pour une source de
lumière visible rouge,
soit
(quatre
cent mille milliards de battements par seconde)). Une source située à
l'infini produit donc une onde plane (une sphère de rayon tendant vers l'infini
tend localement vers un plan (courbure nulle)). Les ondes lumineuses
provenant d'étoiles extrêmement lointaines forment donc un front d'onde
plan, avant la traversée de l'atmosphère. La conséquence de cette traversée de
zones non homogènes de l'atmosphère est que le front d'onde à l'entrée de la
pupille du télescope se trouve être non plus plan, mais déformé
(Fig.
).
Figure: Turbulence, Analyse de front d'onde et Correction
Figure: Images courte pose non corrigées et corrigées des effets
de la turbulence
La résolution théorique d'un télescope parfait, sans turbulence, est
caractérisée par sa limite de diffraction . Il s'agit de
la taille angulaire de l'image d'une source ponctuelle
située à l'infini, formée au foyer.
La théorie optique permet d'obtenir la formule pour
le diamètre angulaire du premier anneau noir
de la tache d'Airy ,
où D est le diamètre du télescope. Pour un télescope de
3,6 m, pour
une lumière visible rouge, on obtient ainsi
, ou, en unités
habituelles en astronomie: 0,1'' seconde d'angle
. Une telle résolution correspond environ à
pouvoir séparer les deux phares d'une voiture à près de quatre mille
kilomètres, ou encore, pour nous placer dans le domaine astronomique,
à séparer une planète (comme Saturne) de son étoile (comme le soleil) à une
distance de près de 300 années-lumière.
Pour caractériser la turbulence, on utilise souvent le terme
``seeing '', qui indique la largeur à mi-hauteur
(souvent abrégé par FWHM )
angulaire de l'image d'une source ponctuelle d'une longueur d'onde donnée
(en général
),
déformée par la turbulence. La largeur à mi-hauteur d'une image est une
valeur extrêmement utilisée pour caractériser la finesse d'une image
stellaire, en effet, pour une image non parfaite, le diamètre d'une image n'est
pas défini précisément puisque sa forme n'est pas une figure géométrique et
peut avoir
un halo très étendu. On utilise donc la largeur (moyenne radiale)
considérée en coupant l'image à la moitié de son maximum (voir
Fig.
).
Cette valeur dépend bien sûr du site, et pour un site donné, elle varie au
cours du temps en fonction des conditions atmosphériques.
Cependant, c'est bien cette valeur due à la turbulence, et non la taille du
télescope (sa limite de diffraction) qui fixe la résolution d'un télescope
classique dès qu'il dépasse quelques dizaines de centimètres. En effet, pour
les sites astronomiques, le seeing moyen est de l'ordre d'une demi à une
seconde d'angle dans le visible ( ),
et peut atteindre plusieurs
secondes dans de mauvaises conditions ou de mauvais sites. La largeur à
mi-hauteur d'une tache d'Airy (figure de diffraction), à la même longueur
d'onde, est de
soit pour un télescope de 3,6 m
environ 30 millièmes
de seconde d'angle, au moins quinze fois plus fine que le meilleur seeing.
C'est à cause de la turbulence atmosphérique que les astronomes s'attachent à placer leurs
observatoires sous les cieux les plus purs, en s'élevant en altitude par
exemple, la masse d'air entre le télescope et l'objet observée est réduite
d'autant et la qualité des images s'accroît.
Connaissant les conséquences de la turbulence, qui mettent à égalité un télescope d'amateur de vingt centimètres et un géant de huit mètres, on pourrait s'étonner de l'augmentation continue de la taille des instruments avec le temps.
Plusieurs raisons à cela, en premier lieu, en augmentant la taille d'un télescope, même sans augmenter sa résolution, on augmente la surface collectrice de précieux photons et donc la sensibilité de l'instrument, afin de découvrir des sources toujours plus faibles, toujours plus lointaines.
D'autre part, les effets dévastateurs de la turbulence sont
inversement proportionnels à la longueur d'onde.
Pour comprendre cet effet,
il nous faut encore faire une petite digression vers la caractérisation
théorique de l'atmosphère:
Un modèle très étudié de l'atmosphère, et
confirmé dans ses grandes lignes par plusieurs études
expérimentales
, est celui de Kolmogorov
[Kolmogorov 41]. Ce modèle consiste à représenter l'atmosphère comme
une structure semi-fractale de masses d'air d'échelles
décroissantes depuis l'échelle externe
correspondant aux plus grands
phénomènes macroscopiques
(couches d'air, vents, perturbations météorologiques)
et transmettant leur
énergie cinétique d'une échelle à l'autre
par tourbillonnement jusqu'à la plus petite échelle
où
l'énergie se
dissipe en chaleur par frottements visqueux. L'étude mathématique de ce
modèle permet de faire ressortir plusieurs paramètres caractérisant l'état
de la turbulence.
L'un des principaux est le diamètre de Fried :
[Fried 66]. Au delà de son expression mathématique dans les équations
caractéristiques de la turbulence Kolmogorov, citons cette définition:
le
, pour un site, une turbulence et une longueur d'onde d'observation
donnés, est égal au diamètre d'un télescope qui ne subirait pas la
turbulence et dont la qualité d'image est équivalente à celle d'un télescope
infini qui lui la subirait. Nous pouvons rattacher ainsi le seeing
évoqué plus haut et le
par la
relation
(en remplaçant le diamètre du
télescope D par le diamètre de turbulence
dans la relation,
vue ci-dessus, donnant
la largeur à mi-hauteur d'une image d'un télescope parfait).
Ainsi, le est en quelque sorte
le diamètre du télescope ``équivalent'' aux effets de l'atmosphère:
les télescopes plus grands que
sont limités par la turbulence. On
démontre d'autre part que le
est proportionnel à la longueur d'onde
puissance six cinquièmes:
, dans l'hypothèse
Kolmogorov. Un seeing
moyen
d'une
seconde d'angle, dans le visible (
) correspond à un
de dix
centimètres et un seeing excellent de 0,3'' correspond donc à un
exceptionnel de trente cinq centimètres. Or un tel
dans le visible,
pour exactement la même turbulence correspond donc, dans l'infrarouge, dans
la bande M par exemple (
) à un
quinze fois plus grand (de 1,5 à plus de 5 mètres).
C'est pourquoi les observations faites en infrarouge, par exemple, sont moins, voire pas du tout, affectées par la turbulence. Ainsi, l'observation en infrarouge est l'une des méthodes d'observation qui justifie la construction de grands télescopes.
D'autre part, et même principalement, pour ce qui est des télescopes modernes, outre l'augmentation de la sensibilité, un grand télescope peut être exploité au maximum, même dans les courtes longueurs d'onde (visible), car il existe des techniques pour compenser la dégradation de la qualité due à l'atmosphère: l'optique adaptative en est une, mais historiquement, les premières mises en application furent différentes. On peut par exemple, en utilisant des séries d'images courte pose, ``geler'' la turbulence, et ensuite, par des techniques variées, allant du simple re-centrage et addition (``shift and add '') aux techniques les plus évoluées d'interférométrie des tavelures (``speckle imaging'') et de déconvolution reconstituer des images de qualité proche de la limite de diffraction de l'instrument, lorsque le rapport signal sur bruit le permet.
En effet, il existe une différence fondamentale entre les images dites
``courte pose '' et les images longues poses.
Pour comprendre cette différence, nous devons nous replonger encore une fois
dans la caractérisation de la turbulence atmosphérique: le caractérise
la turbulence de manière spatiale, mais comment caractériser son évolution
dans le temps ? On utilise pour ce faire le temps de cohérence
, c'est
le temps le plus grand durant lequel,
en première approximation, le front d'onde turbulent n'aura
pratiquement pas évolué. Une expression, dans un modèle de turbulence
monocouche, est
où v est la vitesse de déplacement de la
couche
(vitesse de vent, de l'ordre de 5 à 20 m/s, soit des temps de cohérence dans
le visible (
) de l'ordre de 2,5 (
,
) à
70 millisecondes (
,
)).
Ainsi, si l'on acquiert des images pendant un temps de l'ordre de
(images dites ``courte pose''
) les images individuelles sont
certes dégradées par la turbulence, mais la morphologie résultante est
formée de taches de lumière, appelées tavelures (en anglais
``speckle ''),
dont la taille est de l'ordre de grandeur de la limite de diffraction du
télescope. Cela prouve que l'image courte pose contient encore une
information à haute résolution sur la nature de l'objet observé
.
A l'inverse, une image longue pose, somme de toutes ces images courte pose est
brouillée, moyennée, rendue floue par le déplacement et les changements de
structure intervenant environ tous les
dans les images instantanées;
ce qui détruit la résolution de l'image résultante, la ramenant à une
résolution de l'ordre de
(Figure
).
On remarque que le temps de cohérence dépend de la longueur d'onde
comme
, ainsi
les fréquences d'acquisition doivent être, pour une turbulence
identique, d'autant plus élevées que l'on souhaite travailler à une longueur
d'onde faible (ie: en visible plutôt qu'en infrarouge).
Figure: Formation d'Images longue pose
Nous l'avons vu, l'effet de la turbulence est pratiquement équivalent à
celui d'un miroir déformant qui changerait de forme plusieurs fois par
seconde. L'idée maîtresse de l'optique adaptative, qui
revient
à Horace W. Babcock [Babcock 53]
est en théorie très simple: puisque le
front d'onde est déformé par la turbulence, pourquoi ne pas le redresser ?
C'est-à-dire justement placer un élément
déformable sur le trajet
optique, en amont de notre instrument d'observation, qui applique des
déformations opposées à celles dues à la turbulence (conjugaison de
phase). Pour ce faire, on
prélève une partie du faisceau (une gamme de longueurs d'onde par exemple)
pour analyser la turbulence, en extraire les déformations du front d'onde
que l'on applique donc à l'opposé, par un miroir déformable par exemple,
afin de restituer un front d'onde le plus conforme possible à l'original.
L'idée de Babcock n'a pas été immédiatement appliquée, essentiellement
parce que la technologie de l'époque ne le permettait pas. La première
résurgence astronomique de cette idée aura lieu près de 25 ans plus tard, en
1977, aux Etats-Unis par J.W. Hardy [Hardy 77]. Les développements lors de
la décennie suivante profiteront essentiellement de l'impulsion des
programmes militaires, en particulier liés au projet de ``guerre des étoiles''
(SDI) américain et dont les résultats restèrent confidentiels défense jusqu'à
une date récente. C'est
par une collaboration européenne, et principalement en France, que naquit le
premier prototype, spécifiquement dédié à l'astronomie, qui produisit des
images astronomiques. Initié en 1985, c'est en 1989 que le projet Come-On
a démontré la faisabilité d'un système d'optique adaptative pour
l'astronomie. Ce système dont l'objectif était de démontrer l'intérêt et la
faisabilité de l'optique adaptative en vue du grand télescope européen
VLT
a brillamment rempli ses
objectifs, et les a même dépassés. Il a en effet permis
d'obtenir des résultats astrophysiques importants. Devant l'intérêt du
système, et pour corriger certaines limitations dues à sa jeunesse de
prototype, une version améliorée, appelée Come-on+, a été développée et exploitée
avec succès, fournissant de superbes résultats astrophysiques.
Come-On et Come-on+ furent le fruit de la collaboration entre l'Observatoire de
Paris, l'Université de Paris VII, l'Onera, les sociétés Laserdot, LEP,
et l'ESO
. Un seul autre système a, à ce jour, fourni des
résultats astrophysiques publiés [Roddier 95], il s'agit du système
de François Roddier de l'Université de Hawaii, dont une version
intégrée, PUEO , va
bientôt prendre place au foyer du télescope de 3,6 m Canada-France-Hawaii
(CFHT ).
Parallèlement, presque tous les projets en cours de grands télescopes
(Gemini , Keck , MMT , Subaru ,
VLT , ...) et de
nombreuses expérimentations pour des télescopes plus courants vont
incorporer des systèmes d'optique adaptative (Voir par exemple
[Cargèse 94, Garching 95] pour l'état de l'art).
La récente évolution de
Come-on+ vers un instrument plus convivial et efficace,
Adonis, est le cadre de ce travail de thèse.
Nous avons dit que pour corriger les effets de la turbulence atmosphérique, il suffisait de mesurer les déformations du front d'onde et de les appliquer, à l'opposé, grâce à un élément déformable. Comment faire plus concrètement ? Pour l'analyse du front d'onde, de nombreuses techniques sont envisageables, issues le plus souvent des outils d'analyse de la qualité des instruments optiques, qui depuis longtemps ont permis de caractériser les systèmes. Nous allons examiner plus en détail le principe du système mis en oeuvre dans Come-On, sans approfondir les multiples autres possibilités (senseur de courbure, interféromètres,...voir [Kern 90]) qui, du point de vue d'un contrôle de haut niveau de l'instrument, ne sont pas fondamentalement différentes.
Come-On et Come-on+ utilisent un senseur de front d'onde de type
Shack-Hartmann . Il s'agit d'une matrice de micro-lentilles,
découpant la pupille du télescope en sous-pupilles
(Fig. ). Chaque micro-lentille forme
une imagette
. La pente
locale du front d'onde dans la sous-pupille a pour effet d'excentrer
l'imagette. La mesure de ce décentrement pour chaque sous-pupille représente
la dérivée du front d'onde en ces points. L'ensemble de ces mesures à un
instant donné est appelé vecteur des pentes.
Ce vecteur de mesure est transmis
à un calculateur temps réel, qui reconstruit le front d'onde et détermine les
modifications à appliquer aux miroirs correcteurs. L'analyseur
utilisé dans Come-on+ comporte 7 par 7 micro-lentilles, mais la forme de la
pupille (disque et obstruction centrale) conduit à 32 sous-pupilles
éclairées, dites ``utiles''.
Figure: Découpage de la pupille du Télescope par le
Shack-Hartmann (dessin E. Gendron)
Come-on+ utilise deux miroirs correcteurs. En effet, la
décomposition des déformations dues à l'atmosphère montre que l'un des
effets principaux, en terme d'énergie (87%), est une translation des
images instantanées (basculement). Aussi, un miroir spécifique à deux
degrés de liberté (dit
Tip-tilt , ou simplement Tilt ) corrige cet effet et recentre
en temps réel les images, tandis qu'un autre miroir, le miroir déformable,
constitué d'une matrice d'actuateurs piézo-électriques (8 fois 8 dont 52
utiles) recouverte d'une membrane souple de silicium poli, corrige les
autres aberrations optiques (l'amplitude des recentrages est telle que le
seul miroir déformable à matrice piézo-électrique, dont les actuateurs ont une
course d'environ , contrairement aux miroirs de
courbure, ne pourrait les couvrir).
Le processus de reconstruction du front d'onde utilisé est finalement assez
simple dans son principe (voir aussi Fig. ),
une description exacte et détaillée est par
contre là encore un problème complexe à part entière que l'on trouvera
abondamment discuté dans la littérature, et je conseillerais en particulier
[Gendron 95]. Je m'attache ici à expliquer le processus sous une forme
que j'appelle ``avec les mains'' (c'est-à-dire compréhensible avec un peu de
physique et de mathématique de base) tout en attirant l'attention sur les
points clefs. Dans le système Come-on+, plutôt que d'essayer de calculer
effectivement et directement un front d'onde à partir de la mesure de sa
dérivée, ce qui est un processus délicat et surtout fort
sensible au bruit et aux erreurs (approche zonale), on procède comme suit.
Il faut noter que le système, en première approximation, est linéaire, dans
le sens où, pour un front d'onde fixe, si P est le vecteur des pentes
mesurées par l'analyseur ``pas trop près''
des
conditions limites, correspondant à un vecteur de commandes
(état, voltages appliqués aux miroirs) C lui-même ``pas trop
près''
des
limites, il existe une matrice I telle
que pour tout ``petit''
ajout aux commandes dC, on observe un
vecteur P+dP avec dP=I x dC. Lorsque, comme dans notre cas, on
recherche la transformation inverse, ici partant des changements de pentes
observés pour obtenir un changement à appliquer aux commandes,
on démontre qu'il
existe une matrice M telle que dC=M x dP, et que la solution
minimisant l'erreur quadratique sur P pour
M est
,
est
appelée l'inverse généralisée de I. La matrice I
est la
matrice d'interaction , que l'on obtient en agissant successivement
sur chaque actuateur (dans une phase de calibration de l'instrument), et en
enregistrant les pentes correspondantes. Lors du calcul de l'inverse
généralisée (méthode SVD , Singular Value Decomposition , par
exemple), on commence par diagonaliser la matrice d'interaction. Le
filtrage des modes (vecteurs propres) dont les valeurs propres sont
trop faibles (trop peu sensibles au travers du système) permet d'augmenter
grandement la stabilité. Le choix judicieux de matrices de changement de
base permet d'autre part d'envisager toute une classe d'optimisations qui
sont le sujet de
la
thèse sur l'optimisation modale d'Eric Gendron [Gendron 95].
Optimisation, qui consiste, dans un grossier raccourci, à moduler les
gains de différents modes, en fonction des conditions effectives de
la turbulence du moment, et en particulier des rapports signal à bruit pour
chaque mode (et donc, ne pas commander un mode donné au delà de la limite où
on réinjecterait plus de bruit que de correction utile pour ce mode).
L'optique adaptative, bien qu'offrant des perspectives extraordinaires, n'est tout de même pas exempte de son lot de problèmes et de limitations.
L'analyse du front d'onde, par exemple, qui doit être effectuée assez souvent
( ) pour corriger effectivement la turbulence, doit donc utiliser pour
ce faire un flux de référence . Comment
obtenir un flux à analyser ?
On peut utiliser l'objet à observer lui-même. Théoriquement, une onde
originellement plate est nécessaire, c'est à dire une source ponctuelle à
l'infini (étoile très éloignée), mais en fait, un analyseur de type
Shack-Hartmann, peut s'accommoder d'objets étendus tels que galaxies
ou amas, à condition qu'ils possèdent
un élément distinctif plus brillant (coeur de galaxie, ...
jusqu`à environ 4'') et de prendre
quelques précautions dans le traitement des images de l'analyseur
(diaphragme de champ, seuillages, ...). Il est possible, dans Come-on+ par
exemple, d'utiliser l'objet comme référence d'analyse sans perdre de
précieux photons pour l'observation elle même car l'analyse et l'observation
n'ont pas lieu dans les mêmes bandes spectrales (longueurs d'onde).
L'analyse utilise le flux de
lumière visible
et les observations
utilisent le flux proche infrarouge (1 à 5
)
(comme nous l'avons vu, la déformation en amplitude absolue (
) du
front d'onde ne dépend pas de la longueur d'onde, mais les effets sur la
qualité des images en dépendent fortement, aussi obtient-on de meilleurs
résultats en observant les images corrigées dans les plus grandes longueurs
d'onde).
Cependant, étant donnée la
fréquence d'analyse nécessaire, le flux ou la quantité de lumière
de l'objet de référence
est le principal facteur limitant. Si l'objet à observer n'est pas lui-même
assez brillant pour fournir un flux suffisant sur l'analyseur, il faut alors
trouver une autre solution: l'utilisation d'une étoile de référence proche,
si elle existe, peut convenir. Si l'on analyse les caractéristiques de la
turbulence on s'aperçoit en effet
que la correction de la turbulence analysée en
un point s'applique aussi avec une faible erreur en un autre point,
pourvu que l'angle qui les sépare soit assez petit. En
effet des faisceaux lumineux venant de deux points distincts traverseront
des portions d'autant plus communes des couches turbulentes et subiront
des déformations d'autant plus similaires que ces deux points sont proches.
La correction appliquée à un objet de référence vaut pour cet objet et pour
ses très proches voisins, mais elle devient de moins en moins valide au fur
et à mesure que l'on s'écarte de cette référence.
L'étude de ce domaine de validité spatiale, dit d'isoplanétisme , et de
ses effets est elle-même un sujet très complexe, à la pointe des recherches
(voir [Chassat 92]). La distance maximale ``pratique'' entre
l'objet et sa référence est environ
(soit 5
secondes d'angle dans le visible à près d'une minute d'angle en infrarouge
(bande M))
.
Notons que tous les facteurs que nous avons évoqués ( ,
,
)
et qui s'aggravent avec
une longueur d'onde plus courte, expliquent, avec les contraintes
technologiques, pourquoi les systèmes actuels d'optique adaptative se
limitent à une correction dans l'infrarouge et le proche infrarouge (et à une
correction partielle dans le visible pour les systèmes les plus rapides).
Une autre solution, pour pallier à cette limite fondamentale de l'optique adaptative astronomique, où les photons sont le plus souvent extrêmement rares, est l'utilisation d'une étoile artificielle. Grâce aux progrès constants des techniques Laser (là encore entraînées par les recherches militaires types SDI), il est aujourd'hui possible de créer une étoile artificielle au-dessus de la turbulence, dans les hautes couches de l'atmosphère (90 km), par l'excitation des atomes de sodium qui y sont présents par exemple. Cette étoile peut alors servir de référence, et être placée à volonté là où l'on souhaite observer, évitant la quête parfois infructueuse d'une étoile de référence naturelle. Cette abondance potentielle de photons permet aussi d'envisager une correction dans le visible, à condition cependant de dimensionner le système bien plus largement (nombre de zones d'analyse et d'actuateurs et donc puissance de calcul, coût,...).
Cependant, l'étoile Laser n'est toutefois pas une solution miracle elle non plus. En effet, plusieurs problèmes se posent. L'un d'eux, l'anisoplanétisme de la focalisation, ou effet de cône, est dû au fait que l'étoile artificielle créée n'est pas à l'infini. C'est donc un faisceau conique et non cylindrique qui traverse la turbulence, ce qui implique que les déformations mesurées sur le front d'onde artificiel ne sont pas exactement celles permettant de corriger l'objet observé. Cette limitation peut être levée en utilisant plusieurs étoiles Laser (au prix d'une complexité et d'un coût encore accru). Une autre limitation, plus sévère car agissant directement sur la couverture du ciel que l'on peut espérer du système, est due au fait que le rayon Laser, en traversant la turbulence pour aller exciter les couches hautes, subit lui aussi les déformations. En particulier on montre qu'ainsi (en vertu du principe de retour inverse de la lumière), le tilt global ne peut être corrigé. François Rigaut et Eric Gendron ont étudié ce problème et proposé une solution dite d'optique adaptative double canal, à base mixte Laser et étoile naturelle dont on trouvera les détails dans [Rigaut 92a]. D'autres propositions ont aussi été formulées (comme l'approche polychromatique de R. Foy).
De plus, malgré de récents progrès, la mise en oeuvre de ces systèmes à étoile Laser, et en particulier leur implantation sur des sites (télescopes) déjà opérationnels, est toujours très délicate et coûteuse (modifications importantes pour ajouter le laser et son guidage, coût des lasers, problèmes de sécurité, de pollution lumineuse du site, d'alimentation électrique et d'infrastructures pouvant causer de la turbulence !...). Ces problèmes, s'ils ne sont certes pas insolubles, expliquent pourquoi les systèmes astronomiques opérationnels actuels ne comportent pas encore d'étoile artificielle (cependant plusieurs systèmes d'études et d'expérimentation existent ou ont existé et ont validé le concept), même s'il est probable que cette addition très prometteuse sera un jour partie intégrante de la plupart des systèmes d'optique adaptative.
D'autres limitations, outre la chasse aux rares photons pour l'analyse
et des problèmes d'anisoplanétisme, introduisent aussi dans le système
erreurs, bruits et limitations. On en trouvera une discussion plus poussée
dans la thèse d'Eric Gendron [Gendron 95] mais citons: les erreurs
d'ajustement et de sous modélisation dues à la géométrie et à la précision
des miroirs correcteurs (qui ne peuvent pas reproduire parfaitement un front
d'onde quelconque). Les erreurs de discrétisation, dues principalement au
traitement numérique en certains points de mesures (spatiaux et temporels)
de phénomènes physiques continus et les erreurs de sous-échantillonnage dues
à une utilisation des systèmes trop près voire au delà de leurs limites
(turbulence trop rapide mesurée trop lentement, turbulence de diamètre de
cohérence trop petit pour un nombre de sous-pupilles d'analyse trop faible,
...). Le nerf de la guerre, que livrent les
``adaptivopticiens'' contre la turbulence est bien finalement la chasse
au bruit, au meilleur rapport signal/bruit global. Tout se résume finalement
en la nécessité d'adapter (d'optimiser) autant que
possible
les caractéristiques du système pour qu'un nombre suffisant de
photons soient correctement mesurés, fournissant un signal suffisamment
significatif pour permettre de commander sans trop d'erreur et assez
prestement les miroirs correcteurs.
Derrière cette phrase fort longue
se cache en fait une multitude de paramètres,
qui, tant au niveau de la conception d'un système d'optique adaptative que
de son utilisation, nécessitent force optimisation
.
J'espère que le lecteur néophyte a maintenant une vision plus nette de ce qu'est l'optique adaptative, et des principaux paramètres qui interviennent. La section suivante présente la réflexion qui a mené au travail que présente le reste de cette thèse.