S AV O I R S
ASTROPHYSIQUE
ACTUELS
L’OBSERVATION EN ASTROPHYSIQUE
PIERRE LÉNA, DANIEL ROUAN FRANÇOIS LEBRUN, FRANÇOI...
133 downloads
3078 Views
10MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
S AV O I R S
ASTROPHYSIQUE
ACTUELS
L’OBSERVATION EN ASTROPHYSIQUE
PIERRE LÉNA, DANIEL ROUAN FRANÇOIS LEBRUN, FRANÇOIS MIGNARD, DIDIER PELAT
L’observation en astrophysique Troisième édition augmentée et entièrement refondue
Pierre Léna Université Paris Diderot - Paris 7
Daniel Rouan Observatoire de Paris
François Lebrun Commissariat à l’énergie atomique
François Mignard Observatoire de la Côte d’Azur
Didier Pelat Observatoire de Paris Avec la collaboration de Laurent Mugnier Office national d’études et de recherches aérospatiales
S A V O I R S
A C T U E L S
EDP Sciences/CNRS ÉDITIONS
Légende de l’illustration de couverture : Les télescopes auxiliaires mobiles du Very Large Telescope européen, qui contribuent au mode interférométrique du Vlt dans le proche infrarouge (chap. 6). Le fond du ciel est un montage à partir d’un cliché réel. (Images dues à l’obligeance de Pierre Kervella, Observatoire de Paris).
Nous avons fait tout ce qui était en notre pouvoir pour obtenir les autorisations de reproduction nécessaires pour cet ouvrage. Toute omission qui nous sera signalée se verra rectifiée dans la prochaine édition.
c 2008, EDP Sciences, 17, avenue du Hoggar, BP 112, Parc d’activités de Courtabœuf, 91944 Les Ulis Cedex A et CNRS ÉDITIONS, 15, rue Malebranche, 75005 Paris. Tous droits de traduction, d’adaptation et de reproduction par tous procédés réservés pour tous pays. Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des pages publiées dans le présent ouvrage, faite sans l’autorisation de l’éditeur est illicite et constitue une contrefaçon. Seules sont autorisées, d’une part, les reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective, et d’autre part, les courtes citations justifiées par le caractère scientifique ou d’information de l’œuvre dans laquelle elles sont incorporées (art. L. 122-4, L. 122-5 et L. 335-2 du Code de la propriété intellectuelle). Des photocopies payantes peuvent être réalisées avec l’accord de l’éditeur. S’adresser au : Centre français d’exploitation du droit de copie, 3, rue Hautefeuille, 75006 Paris. Tél. : 01 43 26 95 35. ISBN EDP Sciences 978-2-86883-877-3 ISBN CNRS Éditions 978-2-271-06744-9
Table des matières Avant-propos
xi
Avertissement
xv
I
Les fondements
1
1 L’information en astrophysique 1.1 Les porteurs de l’information . . . . . . . . . . . . . 1.1.1 Le rayonnement électromagnétique . . . . . . 1.1.2 La matière : électrons, noyaux et météorites . 1.1.3 Les neutrinos . . . . . . . . . . . . . . . . . . 1.1.4 Les ondes gravitationnelles . . . . . . . . . . 1.1.5 L’observation in situ . . . . . . . . . . . . . . 1.2 L’acquisition de l’information . . . . . . . . . . . . . 1.2.1 Les principales caractéristiques du photon . . 1.2.2 Le système d’observation . . . . . . . . . . . 1.2.3 Une approche raisonnée de l’observation . . . 1.3 L’organisation mondiale de l’astronomie . . . . . . . 1.3.1 Les hommes et les femmes . . . . . . . . . . . 1.3.2 Les institutions et les politiques de recherche 1.3.3 Les publications . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
3 4 4 6 6 8 11 12 13 13 30 31 31 32 37
2 L’atmosphère terrestre et l’espace 2.1 La structure physico-chimique de l’atmosphère 2.1.1 Structure verticale . . . . . . . . . . . . 2.1.2 Constituants atmosphériques . . . . . . 2.2 L’absorption du rayonnement . . . . . . . . . . 2.3 Les émissions atmosphériques . . . . . . . . . . 2.3.1 Émissions de fluorescence . . . . . . . . 2.3.2 Émission thermique . . . . . . . . . . . 2.3.3 La technique des mesures différentielles 2.4 La diffusion du rayonnement . . . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
43 44 44 45 49 54 55 59 61 63
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
iv
L’observation en astrophysique 2.5 2.6
La réfraction et la dispersion atmosphérique . . . . . . . . La turbulence de l’atmosphère terrestre . . . . . . . . . . 2.6.1 Turbulence de l’atmosphère inférieure et moyenne 2.6.2 Turbulence ionosphérique . . . . . . . . . . . . . . 2.7 L’atmosphère, convertisseur de rayonnement . . . . . . . . 2.7.1 L’astronomie γ au sol . . . . . . . . . . . . . . . . 2.7.2 Gerbes atmosphériques et rayons cosmiques . . . . 2.8 Les sites terrestres d’observation . . . . . . . . . . . . . . 2.8.1 Visible, infrarouge (λ 30 μm) et millimétrique (λ 0.5 mm) . . . . . . . . . . . . . . . . . . . . . 2.8.2 La radioastronomie centimétrique et métrique . . . 2.8.3 L’astronomie γ de très haute énergie . . . . . . . . 2.8.4 Le rayonnement cosmique de très haute énergie . . 2.8.5 Pollutions et parasites anthropogéniques . . . . . . 2.8.6 L’Antarctique . . . . . . . . . . . . . . . . . . . . . 2.9 L’observation dans l’espace . . . . . . . . . . . . . . . . . 2.9.1 Les bénéfices de l’observation spatiale . . . . . . . 2.9.2 Les sources de perturbation . . . . . . . . . . . . . 2.9.3 Le choix des orbites . . . . . . . . . . . . . . . . . 2.10 La Lune, site astronomique ? . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
66 68 68 76 76 76 77 77
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
78 80 81 81 82 83 84 85 86 93 94
3 Rayonnement et photométrie 3.1 La photométrie . . . . . . . . . . . . . . . . . . . . . 3.2 Notions liées au rayonnement . . . . . . . . . . . . . 3.2.1 Le rayonnement de corps noir . . . . . . . . . 3.2.2 La cohérence du rayonnement . . . . . . . . . 3.3 Les systèmes de magnitudes . . . . . . . . . . . . . . 3.4 Photométrie au travers de l’atmosphère . . . . . . . 3.5 Étalonnages et standards d’intensité . . . . . . . . . 3.5.1 Radiofréquences (λ 0.5 mm) . . . . . . . . 3.5.2 Submillimétrique, infrarouge et visible . . . . 3.5.3 Ultraviolet et rayons X (0.1 λ ≤ 300 nm) . 3.5.4 Rayonnement γ . . . . . . . . . . . . . . . . . 3.5.5 Quelques illustrations de spectrophotométrie 3.6 L’étalonnage des dimensions angulaires . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
101 102 107 107 108 113 116 117 118 119 125 127 128 131
4 Les repères d’espace et de temps 4.1 Le repérage spatial . . . . . . . . . . . . . 4.1.1 Définitions des repères d’espace . . 4.1.2 Les repères astronomiques . . . . . 4.1.3 Les changements de repères . . . . 4.2 La matérialisation des repères spatiaux . . 4.2.1 Les systèmes de références célestes 4.2.2 Les catalogues fondamentaux . . . 4.2.3 Le système extragalactique . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
135 137 137 139 147 153 153 154 156
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
Table des matières
4.3
II
v
4.2.4 Le repère Hipparcos . . . . . . . . . . . . . . 4.2.5 Le futur proche : la mission gaia . . . . . . . Le repérage temporel . . . . . . . . . . . . . . . . . . 4.3.1 Les échelles de temps . . . . . . . . . . . . . 4.3.2 Le temps atomique . . . . . . . . . . . . . . . 4.3.3 Le temps universel coordonné (tuc ou utc) . 4.3.4 Le temps gps . . . . . . . . . . . . . . . . . . 4.3.5 Les temps dynamiques . . . . . . . . . . . . . 4.3.6 Les dates et les époques : les comptes longs .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
Recueillir l’information
5 Les télescopes 5.1 L’objet et l’image en astronomie . . . . . . . 5.1.1 Le télescope et l’optique géométrique . 5.1.2 L’optique gravitationnelle . . . . . . . 5.2 La grande famille des télescopes . . . . . . . . 5.2.1 Les radiotélescopes . . . . . . . . . . . 5.2.2 Les télescopes optiques au sol : visible et proche infrarouge . . . . . . 5.2.3 Les télescopes spatiaux : de l’ultraviolet au submillimétrique . . 5.2.4 Les télescopes X (0.1 à 10 keV) . . . . 5.2.5 Les télescopes γ (≥10 keV) . . . . . .
. . . . . . . . .
161 165 167 167 171 175 176 178 180
183 . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
185 186 187 194 195 196
. . . . . . . . . . 199 . . . . . . . . . . 206 . . . . . . . . . . 210 . . . . . . . . . . 212
6 Formation des images et diffraction 6.1 La diffraction d’une ouverture quelconque . . . . . . 6.1.1 Le théorème de Zernike . . . . . . . . . . . . 6.1.2 L’étendue de cohérence . . . . . . . . . . . . 6.1.3 La diffraction à l’infini . . . . . . . . . . . . . 6.1.4 Le filtrage spatial d’une pupille . . . . . . . . 6.2 L’atmosphère terrestre et la perte de cohérence . . . 6.2.1 Les perturbations du front d’onde . . . . . . 6.2.2 L’image perturbée . . . . . . . . . . . . . . . 6.2.3 L’impact de l’atmosphère sur l’interférométrie 6.3 L’optique adaptative . . . . . . . . . . . . . . . . . . 6.3.1 Mesure du front d’onde . . . . . . . . . . . . 6.3.2 Dispositif correcteur de phase . . . . . . . . . 6.3.3 Image finale . . . . . . . . . . . . . . . . . . . 6.3.4 Sensibilité et sources de référence . . . . . . . 6.3.5 De nouveaux concepts . . . . . . . . . . . . . 6.4 L’interférométrie astronomique . . . . . . . . . . . . 6.4.1 L’obtention du signal interférométrique . . . 6.4.2 Le transport de la lumière . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
221 223 223 227 228 233 239 241 244 251 252 253 257 259 259 264 268 269 274
vi
L’observation en astrophysique
6.5
6.6
6.4.3 La cohérence temporelle . . . . . . . . 6.4.4 Les pertes de cohérence spatiale . . . 6.4.5 L’étalonnage de la ftm instrumentale 6.4.6 La clôture de phase . . . . . . . . . . La famille des interféromètres astronomiques 6.5.1 Les réseaux de radiotélescopes . . . . 6.5.2 Les réseaux optiques au sol . . . . . . 6.5.3 L’interférométrie optique dans l’espace L’imagerie à très haute dynamique . . . . . . 6.6.1 Coronographie et apodisation . . . . . 6.6.2 L’interférométrie à frange noire . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
7 Les récepteurs du rayonnement 7.1 Propriétés générales des récepteurs . . . . . . . . . . . . . 7.1.1 Récepteurs d’amplitude et quadratiques . . . . . . 7.1.2 La structure spatiale des récepteurs . . . . . . . . 7.1.3 La réponse temporelle . . . . . . . . . . . . . . . . 7.1.4 Les bruits . . . . . . . . . . . . . . . . . . . . . . 7.1.5 Comment caractériser un récepteur ? . . . . . . . . 7.2 Les fluctuations fondamentales . . . . . . . . . . . . . . . 7.2.1 Le bruit quantique . . . . . . . . . . . . . . . . . . 7.2.2 Le bruit thermique . . . . . . . . . . . . . . . . . . 7.3 Les principes physiques de la détection du rayonnement électromagnétique . . . . . . . . . . . . . 7.3.1 La détection des quanta . . . . . . . . . . . . . . . 7.3.2 La détection du champ électromagnétique . . . . . 7.4 Les récepteurs astronomiques : des X au submillimétrique 7.4.1 Les performances en bruit . . . . . . . . . . . . . 7.4.2 La plaque photographique . . . . . . . . . . . . . . 7.4.3 Photomultiplicateur et caméras classiques (X, UV, visible) . . . . . . . . . . . . . . . . . . . 7.4.4 Les récepteurs du rayonnement X . . . . . . . . . . 7.4.5 Le récepteur à transfert de charge . . . . . . . . . 7.4.6 Le récepteur à couplage de charge ccd . . . . . . . 7.4.7 Le récepteur hybride cmos . . . . . . . . . . . . . 7.4.8 Conditions d’observation dans l’infrarouge . . . . . 7.4.9 Évolution des matrices dtc pour l’infrarouge . . . 7.4.10 Le bolomètre . . . . . . . . . . . . . . . . . . . . . 7.5 Les récepteurs astronomiques : radiofréquences . . . . . . 7.5.1 Principes généraux . . . . . . . . . . . . . . . . . . 7.5.2 La détection hétérodyne . . . . . . . . . . . . . . . 7.5.3 La diversité de la radio-astronomie . . . . . . . . . 7.6 Les systèmes d’observation en astronomie γ . . . . . . . . 7.6.1 Résoudre spatialement les sources γ . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
277 277 281 284 286 287 296 305 309 309 322
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
335 336 337 339 342 343 343 344 349 353
. . . . . .
. . . . . .
. . . . . .
356 357 368 368 369 371
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
372 378 380 381 388 395 397 398 404 404 410 421 422 424
Table des matières
vii
7.6.2 L’analyse spectrale des sources γ . . . . . . . . . Les systèmes d’observation des neutrinos . . . . . . . . . 7.7.1 La détection radiochimique des neutrinos solaires 7.7.2 La détection par rayonnement Čerenkov . . . . . 7.7.3 L’astronomie des neutrinos de haute énergie . . . La détection des ondes gravitationnelles . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
430 439 439 442 444 446
8 L’analyse spectrale 8.1 Les spectres en astrophysique . . . . . . . . . . . . . . . 8.1.1 La formation des spectres . . . . . . . . . . . . . 8.1.2 L’information en spectrométrie . . . . . . . . . . 8.2 Les spectromètres et leurs propriétés . . . . . . . . . . . 8.2.1 Les grandeurs caractéristiques d’un spectromètre 8.2.2 Les modalités d’isolement spectral . . . . . . . . 8.2.3 Les modes des spectromètres . . . . . . . . . . . 8.3 Les spectromètres interférentiels . . . . . . . . . . . . . 8.3.1 Critères généraux . . . . . . . . . . . . . . . . . . 8.3.2 Filtre interférentiel . . . . . . . . . . . . . . . . . 8.3.3 Réseaux . . . . . . . . . . . . . . . . . . . . . . . 8.3.4 Le spectromètre à transformée de Fourier . . . . 8.3.5 Le spectromètre de Pérot-Fabry . . . . . . . . . . 8.3.6 Le spectromètre de Bragg (domaine X) . . . . . 8.4 La spectrométrie des radiofréquences . . . . . . . . . . . 8.4.1 Les méthodes d’isolement spectral . . . . . . . . 8.4.2 La spectrométrie submillimétrique . . . . . . . . 8.5 Le spectromètre à résonance . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
457 458 458 464 471 471 475 476 478 478 479 479 498 504 508 511 512 517 520
7.7
7.8
III
Analyser l’information
9 Le signal en astronomie 9.1 Le signal et ses fluctuations . . . . . . . . . . . . . . . . . . . 9.1.1 Le signal et le système d’observation . . . . . . . . . . 9.1.2 Les fluctuations du signal. Notion de bruit . . . . . . . 9.1.3 Les traitements élémentaires du signal . . . . . . . . . 9.1.4 Un exemple spécifique de traitement de données . . . 9.2 La modélisation complète d’un système d’observation . . . . . 9.3 Les performances globales d’un système . . . . . . . . . . . . 9.3.1 Observer avec l’interféromètre millimétrique de l’iram 9.3.2 Observer avec l’optique adaptative naos . . . . . . . . 9.3.3 Observer avec le satellite photométrique corot . . . . 9.3.4 Observer avec un instrument γ à masque codé . . . . 9.4 Peut-on corriger les signatures instrumentales ? . . . . . . . . 9.4.1 L’émission propre de l’instrument . . . . . . . . . . . . 9.4.2 Le courant d’obscurité . . . . . . . . . . . . . . . . . .
525 527 528 528 529 536 545 547 550 551 . 554 . 556 . 559 . 562 . 563 . 563
. . . . . . .
viii
L’observation en astrophysique
9.5
9.6
9.4.3 Les défauts de non-linéarité . . . . . . . . . . . . . . 9.4.4 Les tensions parasites ou biais . . . . . . . . . . . . . 9.4.5 La lumière parasite . . . . . . . . . . . . . . . . . . . 9.4.6 La correction de champ plat . . . . . . . . . . . . . . 9.4.7 Les pixels défectueux . . . . . . . . . . . . . . . . . . 9.4.8 Les effets d’impacts de particules énergétiques . . . Le problème de l’estimation . . . . . . . . . . . . . . . . . . 9.5.1 Les échantillons et les statistiques . . . . . . . . . . 9.5.2 L’estimation ponctuelle . . . . . . . . . . . . . . . . 9.5.3 Quelques éléments de théorie de la décision . . . . . 9.5.4 Les propriétés des estimateurs . . . . . . . . . . . . . 9.5.5 L’inégalité de Fréchet ou de Rao-Cramér . . . . . . . 9.5.6 Les estimateurs efficaces . . . . . . . . . . . . . . . . 9.5.7 L’efficacité d’un estimateur . . . . . . . . . . . . . . 9.5.8 Le cas des estimateurs biaisés . . . . . . . . . . . . . 9.5.9 Borne efficace et information de Fisher . . . . . . . . 9.5.10 Le cas multidimensionnel . . . . . . . . . . . . . . . 9.5.11 Les estimateurs fiables . . . . . . . . . . . . . . . . . 9.5.12 Quelques méthodes classiques . . . . . . . . . . . . . Des données à l’objet : le problème inverse . . . . . . . . . . 9.6.1 La position du problème . . . . . . . . . . . . . . . . 9.6.2 Qu’est-ce qu’un problème bien posé ? . . . . . . . . . 9.6.3 Les méthodes d’inversion classiques . . . . . . . . . . 9.6.4 Les méthodes d’inversion avec régularisation . . . . 9.6.5 Une application à l’imagerie par optique adaptative 9.6.6 Une application à l’interférométrie coronographique
10 Grands relevés et observatoires virtuels 10.1 L’astrophysique statistique . . . . . . . . . . . . . 10.2 Les grands relevés . . . . . . . . . . . . . . . . . . 10.2.1 Les relevés aux longueurs d’onde du visible 10.2.2 Les relevés dans l’infrarouge . . . . . . . . . 10.3 Un observatoire virtuel . . . . . . . . . . . . . . . .
. . . . .
Appendice I : La transformation de Fourier I.1 Définitions et propriétés . . . . . . . . . . . . . . . . I.1.1 Définitions . . . . . . . . . . . . . . . . . . . I.1.2 Quelques propriétés . . . . . . . . . . . . . . I.1.3 Cas particuliers importants : une dimension . I.1.4 Cas particuliers importants : deux dimensions I.1.5 Théorèmes importants . . . . . . . . . . . . . I.2 Grandeurs physiques et transformation de Fourier . I.3 La transformation en ondelettes . . . . . . . . . . . .
. . . . .
. . . . . . . .
. . . . .
. . . . . . . .
. . . . .
. . . . . . . .
. . . . .
. . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
564 565 565 566 567 567 567 568 569 569 572 580 582 584 584 586 586 587 589 591 591 595 598 604 608 611
. . . . .
. . . . .
621 621 624 625 630 631
. . . . . . . .
635 . 635 . 635 . 636 . 638 . 641 . 645 . 648 . 651
Table des matières Appendice II : Les variables et processus aléatoires II.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . II.2 Processus aléatoires ou stochastiques . . . . . . . . . . . . . II.3 Mesures physiques et estimations . . . . . . . . . . . . . . . II.3.1 Un exemple d’estimation : la loi des grands nombres II.3.2 Estimation des moments d’un processus . . . . . . .
ix
. . . . .
. . . . .
653 653 660 668 669 670
Table des constantes et valeurs utiles
675
Table des missions spatiales
677
Webographie
679
Sigles et acronymes
697
Petit lexique « anglais »-français
705
Bibliographie
707
Index
731
This page intentionally left blank
Avant-propos Jusqu’à la fin de la seconde guerre mondiale, télescopes, spectromètres et plaques photographiques constituaient l’outil presque exclusif d’observations limitées au spectre de la lumière visible, outil relativement simple mais porté à un haut degré de perfection par les soins conjugués des opticiens et des astronomes. Puis dès les années 1950, l’irruption de la radioastronomie, suivie des astronomies infrarouge, ultraviolette, X, γ, la naissance et le développement de l’observation spatiale, l’exploration in situ du système solaire, l’avènement de l’informatique et la prodigieuse multiplication des capacités de traitement de l’information qui en résulta furent autant d’éléments d’un développement de l’astrophysique sans précédent. Après trois décennies d’une floraison de nouveaux outils d’observation, la première édition en français de cet ouvrage paraissait en 1986, suivie en 1988 de sa traduction en anglais (Observational Astrophysics, Springer). Pourtant, dix années plus tard, cette première édition devait céder la place à une seconde : les récepteurs ccd remplaçaient déjà la photographie, une nouvelle génération de télescopes optiques géants émergeait sur le sol terrestre, les premiers neutrinos d’origine cosmique avaient été détectés et l’existence des ondes gravitationnelles indirectement démontrée. La communauté astronomique mondiale évoluait aussi, puisqu’outre la version anglaise (1998), une version en chinois quelque peu mise à jour parut en 2004 à Taiwan. Une nouvelle décennie s’étant écoulée, il nous fallut à nouveau remettre l’ouvrage sur le métier, tant l’astronomie d’observation avait progressé. L’optique adaptative ouvre des perspectives entièrement nouvelles aux télescopes optiques terrestres, tandis que l’interférométrie permet d’atteindre, au sol aujourd’hui, dans l’espace bientôt, des résolutions angulaires jusque-là réservées aux radiofréquences. Le domaine sub-millimétrique, quasi vierge encore, voit se multiplier les instruments, au sol et dans l’espace, afin d’observer les objets au décalage spectral très élevé et le rayonnement cosmologique. La découverte d’exoplanètes en nombre sans cesse croissant suscite des raffinements nouveaux de techniques anciennes, telle la coronographie, et ouvre un nouveau et fascinant chapitre de l’astronomie – celui de la recherche de la vie dans l’univers –, où physique, chimie, biologie travaillent de concert. Les télescopes à neutrinos se multiplient et se raffinent, tandis que ceux qui recherchent les ondes gravitationnelles entrent progressivement en service. L’exploration
xii
L’observation en astrophysique
spatiale du système solaire n’est pas en reste, qui multiplie les sondes et les prélèvements in situ sur Mars, Titan ou les noyaux cométaires. La précision des repères de temps et d’espace, utilisés par les astronomes, mais aussi par d’autres – par exemple pour l’étude fine de la dérive des continents – ne fait que croître. Nous avons donc repris ce livre, élargi le nombre d’auteurs, largement refondu, enrichi et réorganisé le matériau des éditions précédentes sous un nouveau titre L’Observation en astrophysique. L’ouvrage était né de notes d’un cours professé par l’un d’entre nous (PL) aux étudiants pré-doctorants en astrophysique de l’université Denis-Diderot (Paris VII). Le parti méthodologique initial a été conservé. Par-delà la diversité des techniques propres à chaque domaine de longueur d’onde, bien traitées dans des ouvrages plus spécialisés, nous avons voulu présenter les fondements physiques sur lesquelles repose l’instrumentation utilisée : télescopes collectant l’information, spectromètres l’analysant, détecteurs la convertissant en signal. Après les quatre premiers chapitres, qui présentent les divers porteurs d’information (chapitre 1), les effets de l’atmosphère terrestre (chapitre 2), les bases de la photométrie (chapitre 3), puis les repères d’espace et de temps (chapitre 4), ce sont successivement les télescopes, les détecteurs (ou récepteurs) et les spectromètres qui sont présentés dans les chapitres 5 à 8, avec naturellement une insistance marquée sur la formation des images. Cette approche isole les principes et met en évidence les performances ou limitations ultimes que la physique autorise. Ainsi le fil directeur de l’ouvrage se trouve-t-il dans les propriétés du photon (ou celles de l’onde électromagnétique), qui demeure le principal porteur de l’information en astrophysique. La collecte, la mesure, les techniques quantitatives d’analyse de cette information sont le thème de ce livre et, dans les choix indispensables, nous avons conservé tout ce qui le servait. Cette approche méthodologique limite aussi les propos : l’ouvrage ne prétend pas épuiser les méthodes d’observation ni faire de tous leurs outils une présentation systématique et exhaustive. La complexité, les durées de développement, les coûts croissants des instruments changent radicalement la façon de travailler, le métier. Désormais et bien souvent, trop fréquemment peut-être, autre est celui qui conçoit et réalise un instrument, autre est celui qui exploite et interprète les observations. Cet ouvrage aura atteint son but s’il donne aux uns quelque moyen de faire progresser la « chasse à l’information », aux autres quelque lumière pour comprendre ces « boîtes noires » que sont devenus les grands instruments contemporains. Cette nouvelle édition possède deux ajouts importants. Elle développe fortement le traitement du signal (chapitre 9), tant la numérisation universelle des données et la puissance des outils informatiques autorise désormais une riche exploitation de l’information. Ce chapitre, inévitablement assez mathématique, tranche quelque peu sur le reste, mais stimulera à coup sûr l’intérêt de nos lecteurs. Le chapitre 10, entièrement nouveau, fait le point sur la
Avant-propos
xiii
collecte de gigantesques masses de données par les instruments modernes, et sur les banques où ces mesures deviennent accessibles à tous. Ceci conduit au concept d’observatoire virtuel, lequel modifie à son tour le mode même de travail de l’astrophysicien. Enfin, les outils mathématiques indispensables (transformée de Fourier, introduction aux probabilités et statistique) font l’objet d’appendices. Nous avons conservé, sans modifications ni enrichissement, les énoncés d’exercices issus des éditions antérieures. Malgré leur caractère parfois bien simple, ou désormais daté, il nous fut dit qu’ils étaient utiles aux étudiants, au moins à un niveau élémentaire. Écrire un livre en 2007 conduit souvent les auteurs à s’interroger, tant le réseau de la Toile (Internet) est riche d’informations, d’images, d’actualités qui pourraient rendre dérisoire toute tentative de figer ces savoirs en un écrit durable. Cet ouvrage offre bien entendu une riche webographie (terme franglais peu sympathique) organisée, permettant au lecteur d’aller chercher la mise à jour des sujets traités. Mais la mise en ordre de la pensée, indispensable pour chercher avec efficacité sur la Toile, demeure d’actualité grâce au livre. C’est la conviction qui nous a guidé lors de la rédaction de celui-ci. Puisqu’il s’agit d’un ouvrage de référence, nous avons pris le parti d’exclure du texte, le plus souvent, tout renvoi bibliographique. Nous avons simplement rassemblé, dans une bibliographie finale allégée, sans prétention d’exhaustivité et selon un classement thématique, les ouvrages de référence qui nous paraissaient les plus précieux pour un étudiant, un chercheur ou un enseignant. Il n’est plus possible de citer et remercier ici tous les collègues, ou étudiants bien souvent devenus collègues à leur tour, qui ont contribué aux deux premières éditions et fourni des illustrations. Nous rappellerons simplement les noms de Mme Claude Audy, qui avait assuré la mise au point du manuscrit, et de Mme Hélène de Castilla, d’InterEditions, ainsi que d’Eric Gendron, qui en avait fait une attentive relecture. La présente édition a bénéficié du précieux concours de Laurent Mugnier, qui a rédigé une partie du chapitre 9, et de Marc Huertas, à qui nous devons la webographie. Laurent Pagani pour les radiofréquences, Michel Cribier pour les neutrinos, Philippe Laurent pour les ondes gravitationnelles, Jean Ballet pour le rayonnement X, Philippe Goret pour l’astronomie γ au sol, Claude Pigot ont bien voulu faire des rédactions ou relectures partielles, dont nous leur sommes reconnaissants. La Fondation des Treilles a généreusement accueilli en Provence l’un de nous (PL) pour la mise au point de ce livre : que ses membres en soient ici remerciés, ainsi que Michèle Leduc, infatigable animatrice de la collection Savoirs actuels. Nous n’oublions pas que les deux éditions précédentes avaient été dédiées à la mémoire de l’astronome et physicien Philippe Delache (1937-1996). Puisse cet ouvrage, à son exemple, cultiver l’enthousiasme de nombreuses générations d’étudiants, attirés par cette astronomie que nous considérons comme la plus belle de toutes les sciences. Les auteurs Paris, Mars 2008
This page intentionally left blank
Avertissement ans cet ouvrage, les nombres décimaux sont représentés avec un point décimal et non avec une virgule décimale. Les vecteurs sont dénotés par un D caractère droit gras (a, θ), de même que les variables ou fonctions aléatoires. L’unité d’angle est le radian (rd), qui cède souvent la place aux degrés, minutes et secondes d’angle, notés par (◦ , , ) ou parfois (deg, arcmin, arcsec) selon la notation anglo-saxonne. La bibliographie est en fin d’ouvrage. Des références spécifiques, en petit nombre, sont parfois données dans le corps du texte ou en note. Certains ouvrages ou publications qui reviennent fréquemment sont désignés par une abréviation : A.A. ou Astron. Astrophys. : revue Astronomy and Astrophysics. AF : Lang K.R., Astrophysical Formulae, 3e édition, Springer Verlag, 1999. Ap. J. : revue Astrophysical Journal. Appl. Opt. : revue Applied Optics. AQ : Allen C.W., Astrophysical Quantities, 4e édition, Springer, 2000. ARAA : Annual Review of Astronomy and Astrophysics. Exp. Astron. : revue Experimental Astronomy. I.E.E.E. : Institute of Electrical & Electronic Engineers. J. Atm. Sci. : revue Journal of Atmospheric Sciences. J.O.S.A. : revue Journal of the Optical Society of America. M.N.R.A.S. : revue Monthly Notices of the Royal Astronomical Society. P.A.S.P. : Publications of the Astronomical Society of the Pacific. S.P.I.E. : revue The Society for PhotoOptical Instrumentation Engineers. Sol. Phys. : revue Solar Physics.
This page intentionally left blank
Première partie
Les fondements
This page intentionally left blank
Chapitre 1 L’information en astrophysique Le but de l’astrophysique est de décrire, de comprendre et de prévoir l’ensemble des phénomènes physiques qui se produisent dans l’univers. Les objets qui constituent cet univers – milieux denses ou dilués, chauds ou froids, stables ou instables – peuvent le plus souvent être classés par catégories : planètes, étoiles, galaxies. . . C’est à partir de l’information reçue par l’observateur et transformée en signal que s’établissent les classements, les modèles physiques, les prévisions qui finalement constituent cette science qu’est l’astrophysique. Le but de l’observation est d’élaborer une stratégie de collecte de cette information et de hiérarchiser les différentes variables ou paramètres physiques mesurés. Il faut également en assurer le traitement afin de n’en dire ni trop – ce serait surinterpréter l’information –, ni trop peu – ce serait en perdre –, et la conserver à l’usage de comparaisons ultérieures ou à celui des générations futures. Dans ce chapitre d’introduction, nous examinons quels sont les porteurs de cette information. Ces porteurs sont issus de l’objet étudié, le plus souvent modifiés par leur trajet dans l’espace et finalement collectés par l’observateur et ses instruments. Il s’agit en premier lieu des ondes électromagnétiques, mais aussi d’autres porteurs, tels que les ondes gravitationnelles ou les neutrinos. Il peut aussi s’agir de particules élémentaires de matière (électrons, protons, noyaux, atomes) ou de poussières de tailles variables (météorites). À ce transport d’information est associé un transport d’énergie, quelle qu’en soit la forme, depuis la source jusqu’à l’observateur. Les modalités de collecte de cette information, lorsqu’elle parvient à la Terre, font immédiatement apparaître qu’il est impossible d’en saisir et d’en mesurer simultanément la totalité des composantes : chaque technique d’observation se comporte donc comme un filtre d’information, au travers duquel est saisie une fraction, généralement très faible, de la richesse d’information disponible à chaque instant. La diversité de ces filtres est considérable : ils produisent des images, des spectres, des évolutions temporelles et dépendent étroitement de la technologie ou des outils physiques disponibles à une époque
4
L’observation en astrophysique
donnée. Enfin, rien ne sert de collecter ni d’acquérir de l’information s’il n’est pas possible de la conserver, de la manipuler et/ou de la purifier le cas échéant. L’information astronomique peut également être considérée comme une denrée économique : coûteuse à acquérir, coûteuse à traiter, elle entre par là même dans le circuit des choix et des décisions d’ordre politique ou, à tout le moins, de l’économie de la recherche scientifique : il ne sera pas inutile de prendre la mesure de quelques ordres de grandeur.
1.1
Les porteurs de l’information
Nous examinons successivement ici les différents porteurs d’information qui cheminent depuis les profondeurs de l’espace jusqu’aux instruments astronomiques, permettant l’observation à distance : le rayonnement électromagnétique bien entendu, mais aussi des particules de matière et d’autres signaux, tels les neutrinos ou les ondes gravitationnelles, associés à d’autres interactions que l’interaction électromagnétique.
1.1.1
Le rayonnement électromagnétique
Le rayonnement électromagnétique occupe une situation très largement dominante, puisqu’il transporte la quasi-totalité de l’information sur laquelle repose notre connaissance de l’Univers et est aujourd’hui bâtie l’astrophysique. Il n’y a sans doute à cela aucune raison physique fondamentale – les neutrinos se propagent plus facilement dans l’espace que les photons –, mais il s’agit plutôt d’une conséquence du rôle historique qu’a joué l’œil humain. Beaucoup plus élaboré et riche que les autres sens, cet organe a pu sans aucun ajout technique (œil nu) saisir et transcrire pour le cerveau l’information provenant d’objets aussi distants que la galaxie d’Andromède (M31), soit 3 millions d’années-lumière (1 mégaparsec environ). La production d’un rayonnement électromagnétique est très directement dépendante de l’ensemble des conditions physiques du milieu émetteur : nature et mouvement des particules, atomes, molécules ou grains solides qui s’y trouvent, température, pression, champ magnétique. . . Aucune longueur d’onde ne se trouve privilégiée en soi, chaque domaine d’énergie étant associé à une ou plusieurs classes de phénomènes. Nous étudions de façon détaillée le rayonnement électromagnétique au chapitre 3. Les dénominations des régions du spectre électromagnétique, précisées au tableau 1.1, sont consacrées par l’usage. Historiquement liées à des techniques de détection et de mesure distinctes, ces dénominations sont donc assez arbitraires ; elles n’ont pas en particulier de frontières bien définies. L’habitude veut aussi que les photons d’énergie élevée, tels les γ et les X (100 eV) soient désignés par leur énergie (en eV), ceux d’énergie intermédiaire par leur
1. L’information en astrophysique
5
Tab. 1.1 – Le spectre électromagnétique.
Note : Les grandes divisions ci-dessus ont été subdivisées à nouveau avec des frontières quelque peu arbitraires : rayons X mous (1 à 10 nm), ultraviolet extrême (10 à 90 nm), ultraviolet lointain (90 à 200 nm), ultraviolet proche (200 à 300 nm), infrarouge proche (0.8 à 15 μm), infrarouge lointain (15 à 200 μm), submillimétrique (0.2 à 1 mm), puis les radiofréquences par longueurs d’onde (milli-, centi-, . . . , kilométrique) ou par fréquences (uhf de 3 GHz à 300 MHz, vhf de 300 à 30 MHz. . . jusqu’aux ulf de 3 000 à 300 Hz).
longueur d’onde, ceux de longueur d’onde plus grande (0.5 mm) enfin par leur fréquence1 . La propagation de l’information transportée par l’onde électromagnétique n’est pas indifférente aux conditions du parcours : les trajets suivis dépendent de la courbure locale de l’univers, donc de la répartition des masses dans l’espace (optique gravitationnelle, mirages gravitationnels) ; l’extinction affecte inégalement les diverses longueurs d’onde : l’hydrogène, lorsqu’il est sous forme atomique neutre H, absorbe la totalité du rayonnement au-dessous de la limite de Lyman (91.3 nm). Les poussières interstellaires absorbent sélectivement ou diffusent d’autant plus que la longueur d’onde est courte. Le plasma interstellaire absorbe les rayonnements radio aux longueurs d’onde kilométriques et au-delà. Par effet Compton inverse, les photons de basse énergie (millimétrique) voient leur énergie augmentée par collisions avec des électrons relativistes, tandis que par effet Compton – diffusion inélastique de la lumière par une particule de matière –, des photons γ ou X perdent de l’énergie. Le rayonnement qui parvient à l’observateur traduit donc à la fois l’effet de la source et celui des accidents de parcours : ce sera le rôle de l’interprétation que de discerner les uns des autres, a priori confondus dans l’information globale reçue. L’atmosphère terrestre est le dernier obstacle présent entre la source et le système d’observation : elle a jusqu’au milieu du xxe siècle confiné les observations aux étroites fenêtres laissant passer le rayonnement visible et les ondes radio. L’accès à l’espace a rétabli toutes les longueurs d’onde sur un pied d’égalité, le choix des conditions d’observation étant alors dicté par le phénomène étudié et, dans une certaine mesure, par des considérations économiques. 1 La dénomination « optique » demeure fréquemment utilisée. Son emploi concerne les longueurs d’onde du visible (320–700 nm) et du proche infrarouge (jusque 5–12 μm environ), quoiqu’il se restreigne parfois à désigner la lumière visible.
6
1.1.2
L’observation en astrophysique
La matière : électrons, noyaux et météorites
La Terre est soumise à un incessant bombardement de matière d’origine extraterrestre et l’information que transporte cette matière n’est pas à négliger. Le rayonnement cosmique (ainsi nommé à cause d’une confusion historique, au début du xxe siècle, avec le rayonnement électromagnétique γ) est formé d’électrons et de noyaux d’atomes, depuis les protons jusqu’aux noyaux lourds, fer et au-delà (Fig. 1.1), qui trouvent leur origine et leur accélération dans les processus à haute énergie de la Galaxie tels que les explosions de supernovae. Ces particules chargées interagissent avec le champ magnétique galactique. En général, celui-ci isotropise fortement leur distribution spatiale dans la Galaxie si bien qu’aucune direction n’apparaît privilégiée lorsqu’elles sont observées depuis la Terre. Il n’en est pas de même à très haute énergie (au-delà de 1018 eV) où la déflection devient si faible que les particules peuvent garder l’empreinte de la direction des sources. En revanche, les particules issues du Soleil calme (vent solaire) ou des éruptions solaires sont fortement défléchies par le dipôle magnétique terrestre avant de former la magnétosphère ou d’atteindre la surface terrestre. La Terre reçoit également un flux de grains de matière, les météorites, dont le spectre de taille s’étend sur une très vaste échelle : depuis des grains submicroniques jusqu’aux météorites massives de plusieurs tonnes. Ce flux de matière extraterrestre fournit une information directe sur l’abondance des divers éléments aux lieux et instants où ils ont été produits, qu’il s’agisse du présent (vent solaire) ou du passé (météorites) du système solaire, des réactions de haute énergie à la surface des étoiles (nucléosynthèse explosive) ou de l’Univers primordial (abondance de l’hélium dans le rayonnement cosmique). L’exploration spatiale permet d’ailleurs progressivement d’obtenir cette information par le prélèvement direct d’échantillons en dehors de la Terre : prélèvements effectués à partir de vaisseaux spatiaux placés en orbite basse (300 à 500 km), sur la surface de la Lune ou de Mars, dans les atmosphères de Vénus ou de Saturne, à la surface de noyaux cométaires. . .
1.1.3
Les neutrinos
Conçu par Pauli en 1930 pour expliquer la radioactivité β, nommé par Fermi, le neutrino ne fut mis en évidence qu’en 1956 par Reines2 et Cowan auprès des premiers réacteurs nucléaires. La réaction responsable de la désintégration β la plus simple est la désintégration du neutron : n → p + e− + ν e . Pour les physiciens, les neutrinos sont des particules tout à fait élémentaires comme le sont les électrons ou les quarks. Ils font partie des douze briques fondamentales de la matière. Notre connaissance des neutrinos a beaucoup progressé récemment, on sait maintenant qu’ils sont massifs, mais d’une masse beaucoup plus faible que celle des autres particules élémentaires. Le 2 Frederic Reines (1918-1998, États-Unis), physicien, prix Nobel de physique 1995 avec Martin Perl pour la détection du neutrino et pour ses autres travaux sur les leptons.
1. L’information en astrophysique
7
Fig. 1.1 – Le rayonnement cosmique (•) Abondance des éléments, relative au silicium (Si = 100) dans le rayonnement cosmique de basse énergie (70-280 MeV par nucléon). La composition à haute énergie (1 à 2 GeV par nucléon) est peu différente. (♦) Abondance des éléments dans le système solaire : seuls sont reportés les éléments dont les abondances diffèrent très fortement de celles relevées dans le rayonnement cosmique. (D’après Simpson J.A., in Shapiro M., Composition and Origin of Cosmic Rays, Dordrecht, Reidel, 1983, p. 1-24. Avec l’aimable autorisation de D. Reidel Publishing Company.)
neutrino appartient à la catégorie des leptons qui comprend aussi l’électron, le muon, et le tau. Ces deux dernières particules élémentaires ont des propriétés assez semblables à l’électron, mais sont respectivement 200 fois et 3 500 fois plus lourdes et sont instables. Les leptons sont organisés en trois familles dont chaque membre comporte un neutrino distinct : électronique (e, ν e ), muonique (μ, ν μ ), et tauique (τ , ν τ ), chaque famille étant caractérisée par une saveur. Enfin à chaque lepton correspond un anti-lepton. Le modèle standard de la physique des particules, dont les prédictions sont mesurées avec précision auprès des accélérateurs, est construit avec l’hypothèse que les neutrinos ont une masse nulle. Ces dernières années, les découvertes expérimentales sur les neutrinos solaires et les neutrinos atmosphériques, confirmées avec des sources terrestres de neutrinos (réacteurs nucléaires, faisceaux d’accélérateurs), ont établi que cette hypothèse était à rejeter. La masse des neutrinos, bien que très petite, au moins 250 000 fois plus faible que celle de l’électron, a une conséquence importante pour l’observation : les neutrinos sont capables d’osciller d’une espèce à une autre lors de
8
L’observation en astrophysique
leur propagation entre la source et le lieu de détection. Il est important de prendre en compte cet effet qui peut modifier grandement le rapport entre le signal détecté et celui émis par la source de neutrinos. Le neutrino est, de très loin, la particule élémentaire qui interagit le moins avec la matière qu’elle traverse. Étant dépourvu de charge électrique, seule l’interaction faible lui est permise. Ainsi sur 100 000 milliards de neutrinos solaires qui traversent la Terre, un seul y sera arrêté tant sa section efficace d’interaction est petite. Mais cette rareté des interactions, qui a compliqué singulièrement les expériences sur les propriétés des neutrinos, en fait des messagers astronomiques de très longue haleine. Comme les photons, les neutrinos se propagent dans le vide en suivant les géodésiques de l’espace-temps et conservent donc une information sur la direction de la source qui les a produits et sur leur énergie initiale. En revanche, la faiblesse de leur section efficace d’interaction devient un atout puisqu’elle autorise leur propagation à très grande distance dans un univers qui leur est beaucoup plus transparent qu’il ne l’est aux photons. Ils donnent donc directement accès à des régions très denses (cœur des étoiles, états passés de l’Univers à une température T ≈ 1010 K). Produits par les réactions nucléaires, ils informent directement sur celles-ci (mesure des neutrinos solaires). On a observé les particules chargées du rayonnement cosmique, mais non les neutrinos qu’il contient nécessairement. En revanche, les neutrinos issus du cœur solaire sont observables. Pour la première fois en 1987 lors de l’observation de la supernova 1987a, issue d’une étoile du Grand Nuage de Magellan, des neutrinos provenant de l’extérieur de notre Galaxie ont été détectés. On n’entrera pas ici dans le détail des mécanismes de production de ces particules dans l’univers3 . De nombreux processus à haute énergie (>100 MeV) conduisent à leur émission : désexcitation de noyaux ou captures électroniques par ces derniers, annihilation de paires électron-positon. Aussi les sources astrophysiques en sont-elles très diverses (Fig. 1.2). Cette nouvelle classe de messagers apporte ainsi des informations importantes et très complémentaires de celles transportées par les photons.
1.1.4
Les ondes gravitationnelles
Lorsque la répartition spatiale d’un système de masses se modifie, la perturbation du champ de gravitation, qui résulte de cette modification, se propage à vitesse finie, conformément à la relativité. Le champ se propage sous forme d’onde de gravitation. On sait que l’onde électromagnétique est décrite par un vecteur d’onde k, et par un potentiel vecteur A, qui peut présenter deux hélicités (±1), correspondant à deux polarisations circulaires inverses. L’onde gravitationnelle est décrite par un tenseur K (transverse, symétrique, de trace nulle), d’hélicité ±2 : un anneau de particules, parallèle au 3 Voir Valentin L., Physique subatomique : noyaux et particules. Voir également AF, § 4.3.
1. L’information en astrophysique
9
1024
1020
ν cosmologiques
Flux (cm-2 s-1MeV-1)
1016
ν solaires
1012
Explosion d'une supernova
108
ν géologiques
104
ν réacteurs Fond dû aux supernovas passées
1
ν atmosphériques
10-4
ν de noyaux actifs de galaxies
10-8
10-12 10-6
10-3
μeV
meV
1
eV
103
keV
106
109
MeV
GeV
1012
TeV
1015
PeV
1018
EeV
Énergie des neutrinos (eV)
Fig. 1.2 – Le fond de rayonnement neutrino. Rayonnement spectral des différentes sources connues de neutrinos, atteignant la Terre, sur une très vaste gamme d’énergie. En ordonnée : nombre de particules en cm−2 s−1 MeV−1 . (Source : M. Cribier.)
plan d’onde, de forme circulaire, en chute libre, prend sous l’effet de l’onde une forme elliptique. L’amplitude de l’onde est caractérisée par la grandeur sans dimension : h(t) =
δL , L
où δL/L représenterait, dans l’exemple choisi, la variation relative de dimension de l’anneau. Dans le vide, la vitesse de propagation est égale à la vitesse de la lumière c (en relativité générale). Dans la matière, la dispersion et l’absorption des ondes gravitationnelles sont négligeables, à cause de la faiblesse de l’interaction gravitationnelle (dans un rapport 10−38 avec l’interaction électromagnétique). L’univers est donc totalement transparent aux ondes gravitationnelles, y compris dans les cas où la matière est fortement opaque aux ondes électromagnétiques (noyaux galactiques, amas globulaires denses, objets condensés comme les étoiles à neutrons. . . ). L’horizon cosmologique gravitationnel est donc bien plus éloigné dans le temps que ne l’est l’horizon électromagnétique, mais le premier demeurera encore longtemps inaccessible à nos instruments, trop peu sensibles à cette interaction minuscule. Pour l’observation de ces ondes, les sources intéressantes sont les objets astronomiques où les masses et les vitesses mises en jeu conduisent à des effets éventuellement détectables. La figure 1.3 rassemble quelques prédictions théoriques concernant ces sources, sur lesquelles nous revenons au chapitre 7.
10
L’observation en astrophysique
Fig. 1.3 – Prévision théorique de l’amplitude (sans dimension) h de diverses sources potentielles d’ondes gravitationnelles, en fonction de leur fréquence. On distingue (◦) les événements périodiques et () les événements impulsionnels. (Brillet A., Damour T., Tourenc C., Ann. Phys., 10, 201, 1985. Avec l’aimable autorisation des Éditions de Physique.)
On peut distinguer parmi ces sources : – Les sources périodiques (étoiles binaires, pulsars. . . ), engendrant des ondes quasi sinusoïdales de très faible amplitude à cause de leur fréquence très basse (10−4 à 10−1 Hz). Ces sources sont nombreuses et proches. – Les sources impulsionnelles de basse fréquence, liées à la présence de trous noirs dans les objets massifs (105 à 109 M ) que sont les noyaux galactiques et les quasars (M = masse du Soleil). Le taux d’occurrence de ces événements est faible (un tous les dix ans en moyenne). – Les sources impulsionnelles de fréquences plus élevées (10 à 104 Hz). Les ondes sont émises par effondrement gravitationnel d’étoiles de masse M = 1 à 10 M , lors de la formation d’une supernova avec contraction du cœur en objet dense. Le taux d’occurrence est de 3 à 10 fois par siècle dans la Galaxie (h ∼ 10−18 ) et de 1 à 3 fois par mois dans l’amas de la Vierge (h ∼ 10−21 ). C’est ce dernier rayonnement dont il est le plus intéressant de rechercher la détection : il est suffisamment intense, se produit assez souvent et conduirait à d’intéressantes conclusions sur le processus d’effondrement. Il doit se caractériser par un spectre assez plat
1. L’information en astrophysique
11
à basse fréquence, de densité spectrale h ∼ 3 × 10−23 Hz−1/2 , présentant un pic marqué à la fréquence d’oscillation de l’étoile. Bien qu’elles n’aient encore été détectées qu’indirectement (Fig. 1.4), l’importance des ondes gravitationnelles est suffisamment fondamentale pour qu’une nouvelle astrophysique soit désormais en gestation. Nous revenons au chapitre 7 sur les méthodes de leur détection.
Fig. 1.4 – L’existence des ondes gravitationnelles. La preuve observationnelle indirecte de l’existence d’ondes gravitationnelles : la période orbitale du pulsar galactique psr 1913 + 16, qui appartient à un système binaire, décroît avec le temps. Le graphe donne la variation de cette période, mesurée entre 1974 et 1982 à partir du rayonnement électromagnétique émis (430 et 1 410 MHz). Les points de mesure sont indiqués avec l’estimation des erreurs expérimentales. La parabole décrit la variation de période prédite par la relativité générale et correspond à l’émission d’ondes gravitationnelles quadripolaires. On notera l’extraordinaire précision du chronométrage de cet objet (cf. Chap. 8). La période est P = 59.029 997 929 883 (7) ms et sa dérivée P = 8.626 29(8) × 10−18 s – s−1 . (Taylor J.H. et Weisberg J.M., Ap. J., 253, 908, 1982. Avec l’aimable autorisation de l’Astrophysical Journal.)
1.1.5
L’observation in situ
Jusqu’à l’avènement de l’accès à l’espace, à partir des années 1945–1959 (cf. § 2.9), toute la connaissance de l’environnement terrestre, des objets du système solaire et des profondeurs de l’univers venait de la collecte de l’information transmise par la lumière et les particules de matière. Le terme de télédétection (en anglais, remote sensing), qui a été conçu récemment pour décrire l’observation de la Terre à distance, et notamment depuis l’espace, aurait ainsi pu s’appliquer depuis toujours à l’ensemble de l’astronomie d’observation. Désormais, il est possible d’acquérir des informations considérables en faisant des mesures in situ dans l’ensemble du système solaire. Certaines d’entre
12
L’observation en astrophysique
elles relèvent toujours de la télédétection, la sonde spatiale mettant seulement à profit l’approche de l’objet pour en saisir les détails ou des régions cachées à l’observateur terrestre. La mission Voyager (décennie 1980–1990) vers les planètes lointaines du système solaire, la mission Ulysse (1990), qui survola les pôles du Soleil, la mission Clementine (1994), qui a fourni des images de la totalité de la surface de la Lune, les missions martiennes des années 2000 sont de bons exemples de télédétection où l’on se contente de se rapprocher de l’objet pour accroître la résolution angulaire des images et capter plus d’énergie. La plupart des méthodes d’observation décrites dans cet ouvrage s’appliquent à ces missions. Mais la pénétration du milieu permet aussi d’y procéder à des mesures locales : champs électriques, magnétiques, gravitationnels, densités et températures des ions ou des électrons, compositions chimiques, prélèvement d’échantillons, analyses minéralogiques voire biologiques, etc. Citons par exemple l’étude de l’atmosphère de Titan, satellite de la planète Saturne, par les spectromètres de masse de la sonde Huygens (mission Cassini-Huygens, arrivée à destination en 2004-2005). Enfin, il devient possible d’expérimenter au sens du physicien, du chimiste ou du biologiste. L’étude de la structure interne de la Lune par les méthodes sismiques classiques (explosifs) ou par le choc de sondes projetées à sa surface, l’expérimentation à finalité biologique faite par prélèvements d’échantillons du sol de la planète Mars par la sonde Viking (1976) ou par le robot Opportunity (2004), l’émission locale de radiofréquences pour effectuer un sondage radar du sol (ou sondage lidar de l’atmosphère) d’une planète ou perturber le plasma magnétosphérique, autant d’expériences qui vont au-delà de la télédétection classique. Nous n’avons pas retenu ces deux dernières catégories, en plein développement par ailleurs, dans les propos des chapitres qui suivent. Un autre ouvrage pourrait décrire, à côté de la « télédétection astronomique » traitée ici, les méthodes de l’observation in situ.
1.2
L’acquisition de l’information
Il n’est pas dans l’observation astronomique de porteur privilégié : observer et mesurer le flux de neutrinos émis au centre du Soleil peut avoir autant d’implications cosmologiques que l’observation du rayonnement électromagnétique fossile à la température de 2.7 K. Dans le passé comme aujourd’hui encore, l’essentiel de l’astrophysique se bâtit sur l’information transportée par les photons, mais le rôle des neutrinos ou celui des ondes gravitationnelles va croissant. C’est autour de la collecte de cette information que se sont construites les grandes stratégies observationnelles de l’astronomie : c’est donc aux photons que s’adresse ce qui suit, même si de nombreux aspects méthodologiques pourraient tout autant s’appliquer à d’autres porteurs de l’information, tels ceux que nous venons de décrire.
1. L’information en astrophysique
1.2.1
13
Les principales caractéristiques du photon
Le tableau 1.2 résume les caractéristiques associées à tout rayonnement électromagnétique. À chacune de ces propriétés correspond une information spécifique, irréductible aux autres. Une stratégie d’observation et de mesure adaptée à cette propriété devra alors être élaborée. Tab. 1.2 – Propriétés des photons. Propriétés des photons Énergie, longueur d’onde, fréquence
Nombre de photons reçus (flux) Intensité du rayonnement
Stratégie observationnelle Chapitre Couverture d’un domaine spectral 8 Rôle de l’opacité atmosphérique terrestre 2 Choix des récepteurs appropriés 7 Dimension des collecteurs 5 (télescopes) Sensibilité des récepteurs 7, 9 Photométrie 3
Dépendance temporelle et cohérence temporelle Analyse spectrale (t 1/ν) Résolution spectrale
8
Dépendance temporelle (t ≫ 1/ν)
Résolution temporelle Photométrie rapide (t 1 s)
Dépendance spatiale (angulaire)
Cartographie, Imagerie, Résolution spatiale (angulaire)
6
Spin
Polarimétrie
3
1.2.2
3
Le système d’observation
La figure 1.5 illustre de façon schématique la configuration de base d’un instrument astronomique, ou plutôt de ce que nous appelons le système d’observation, défini comme l’ensemble des dispositifs physiques (sous-systèmes) qui vont de la collecte du rayonnement à son traitement et à son stockage. Nous pouvons identifier sur cette figure la fonction de chacun des soussystèmes dont l’ensemble forme le système d’observation : – Le flux de photons en provenance de la source est collecté par une surface A, appelée pupille d’entrée du collecteur ; il s’agit généralement d’un miroir dit miroir primaire. La surface de cette pupille collectrice est extrêmement variable : elle peut atteindre plusieurs milliers de mètres carrés dans un radiotélescope ou être limitée à quelques dizaines de centimètres carrés dans un télescope X. – Les photons sont collectés dans un angle solide ΔΩ qui est appelé le champ du système. Ce champ est extrêmement variable, avec des valeurs de plusieurs degrés dans un télescope de Schmidt ou un télescope à rayons γ.
14
L’observation en astrophysique
Fig. 1.5 – Représentation schématique d’un système d’observation astronomique.
– D’éventuels lobes latéraux parasites peuvent recevoir de l’énergie issue de la source observée dans des directions différentes de la direction principale d’observation. Ni le lobe principal ni les lobes parasites n’ont nécessairement une symétrie axiale autour de la direction principale de visée. – Un système optique (jeu d’un ou plusieurs miroirs, lentilles, combinaison de ceux-ci) concentre l’énergie reçue et forme une image, généralement plane dans un plan image ou plan focal. Le champ ΔΩ est ainsi décomposé en éléments d’images ou pixels, sous-tendant chacun un élément d’angle solide δω de la source. – Un dispositif de sélection spectrale isole un domaine de fréquence Δν dans le rayonnement incident. Cette sélection peut simplement résulter de la sélectivité spectrale imposée par les propriétés physiques du système optique ou du récepteur lui-même, ou bien d’un filtrage volontaire du rayonnement par un filtre. Un ensemble d’éléments spectraux contenus dans Δν et de largeur individuelle δν peut, le cas échéant, être obtenu simultanément. – La polarisation du rayonnement peut être déterminée à l’aide d’un filtre polarisant, qui sélectionne une polarisation particulière (rectiligne, circulaire) dans le rayonnement incident. Là encore, certains récepteurs (radiofréquences) ne sont sensibles qu’à une polarisation particulière et combinent donc détection et mesure de la polarisation.
1. L’information en astrophysique
15
– Le détecteur ou récepteur du rayonnement transforme le signal électromagnétique incident en une quantité physique mesurable et stockable : courant, tension, transformation chimique (plaque photographique), etc. – Le détecteur est généralement suivi d’un ensemble de dispositifs électroniques qui forment la chaîne d’acquisition, de traitement et d’enregistrement du signal. Dans le cas où le récepteur est une plaque photographique, ce traitement se fera en temps différé, alors qu’il peut au moins partiellement se faire en temps réel si le signal fourni par le récepteur est un signal électrique directement manipulable électroniquement (récepteurs photo-électriques). Ce dernier cas est désormais de loin le plus fréquent. Dans le domaine du rayonnement γ, le système d’observation conserve une sélectivité en direction et en énergie, mais il devient souvent impossible d’isoler les différents sous-systèmes, comme il est possible de le faire dans les autres domaines spectraux. Ceci nous conduit à regrouper dans le chapitre 7 les systèmes d’observation γ, aux côtés des systèmes utilisés pour les neutrinos et les ondes gravitationnelles. À partir de ce schéma de base, des stratégies observationnelles très diverses sont envisageables : le spectre d’un objet peut être mesuré avec ou sans résolution spatiale ou temporelle, la cartographie d’une région poursuivie avec ou sans recherche d’une sensibilité à des flux de photons faibles, etc. Même si, pour fixer les idées, nous présentons autant que possible de façon séparée les différentes fonctions, l’observation n’isole jamais totalement un seul de ces paramètres indépendants et caractéristiques du rayonnement étudié. Pour chacune des propriétés du système d’observation, la recherche de performances accrues conditionne la découverte de phénomènes nouveaux ou la compréhension physique détaillée des objets étudiés. Nous illustrons d’abord de façon très globale la progression des performances qu’ont connue les systèmes d’observation astronomique, en nous intéressant aux principales propriétés des photons telles que les présente le tableau 1.2. Couverture du spectre électromagnétique La figure 1.6 décrit une progression historique remarquable, celle qui rendit accessible à l’observation astronomique la quasi-totalité du spectre électromagnétique. Cette couverture, bien que globale, fut initialement très inégale quant aux performances en sensibilité, en résolution spectrale ou résolution angulaire. Celles-ci, qui dépendent de la longueur d’onde et de la technologie des instruments, n’ont pourtant cessé de s’améliorer au cours des décennies 1960-2010, tant au sol que dans l’espace. L’accès à ce dernier, qui permit de s’affranchir de l’absorption de l’atmosphère terrestre, décrite en détail au chapitre 2, fut déterminant, de même que la disponibilité progressive de récepteurs toujours plus sensibles et adaptés à la longueur d’onde considérée, comme nous le voyons au chapitre 7.
16
L’observation en astrophysique
Fig. 1.6 – La couverture progressive du spectre électromagnétique par les observations. Cette couverture, totale jusqu’au GeV dans les années 1990, s’étend jusqu’au TeV dix ans plus tard.
Une couverture spectrale très large permet de disposer d’une vision globale et quantitative de l’objet considéré (Fig. 1.7, cahier couleur). L’émission des photons observés dans divers domaines spectraux résulte de sources qui peuvent être très différentes : ces images de notre Galaxie font intervenir l’émission des régions très chaudes (ultraviolet), des étoiles (visible), des poussières ou du gaz froid selon la longueur d’onde. Il est évidemment souhaitable, dans une telle comparaison, que la résolution angulaire ou le niveau de sensibilité des différentes observations soient comparables. La vue synthétique ainsi obtenue est extrêmement riche ; aussi cherche-t-on désormais à disposer, que ce soit dans l’espace ou au sol, d’observatoires de performances (sensibilité, résolution spectrale, angulaire ou temporelle) comparables dans les différents domaines de longueur d’onde. Leurs données sont rassemblées au plan mondial pour être ensuite utilisées, et comparées de manière commode, dans ce qui s’appelle désormais un observatoire virtuel, présenté au chapitre 10. Mesure de l’intensité du rayonnement Le nombre de photons reçus par unité de temps dépend, toutes choses égales par ailleurs, de la surface collectrice utilisée : le télescope a ainsi la double fonction de collecter le rayonnement et de former une image (résolution angulaire). Ce sont principalement des limitations mécaniques ou thermiques, ou encore de charge utile possible dans l’espace, qui limitent la capacité collectrice des télescopes, capacité qui est en croissance constante, d’abord historiquement dans le domaine visible, comme l’illustre la figure 1.8, puis à toutes longueurs d’onde (Fig. 1.9). La photométrie se propose de déterminer l’intensité du rayonnement reçu, non pas de façon relative par rapport à des objets de référence (étoiles ou
1. L’information en astrophysique
17
100 E-ELT REFLECTEUR (miroir)
Diamètre d'ouverture (mètres)
TMT
o
REFRACTEUR (lentille)
10
KECK x 2 ZELENTCHUK PALOMAR ROSS HERSCHEL
1
ROSS
MT.WILSON
oo YERKES LICK
o HUYGENS HADLEY
0.1
o GALILEO 0.01 1600
NEWTON
1700
1800
1900
2000
Année
Fig. 1.8 – Évolution au cours du temps du diamètre des instruments astronomiques dans le domaine optique. Noter la disparition progressive des réfracteurs (◦) au profit des réflecteurs (). Un choix a été fait de ne conserver ici que les principales étapes. Les télescopes Keck-I et -II ainsi que le vlt (Very Large Telescope) européen sont représentatifs de toute une famille d’instruments de 8-10 m, non représentés ici (cf. § 5.2) mis en service autour de l’an 2000. Les projets du Thirty Meter Telescope (tmt) californien et du European Extremely Large Telescope (e-elt) sont représentés avec leurs dates envisagées d’ouverture. (Figure adaptée d’après P. Bely.)
galaxies standard par exemple), mais de façon absolue, ramenée aux unités fondamentales de la physique. Cette démarche observationnelle, tout aussi difficile qu’essentielle, fait appel aux techniques d’étalonnage absolu (§ 3.5). Les performances du récepteur déterminent à la fois la précision de la mesure et la sensibilité ultime qu’il est possible d’atteindre. Ces performances dépendent de la technologie disponible, mais aussi de limitations physiques fondamentales, qui imposent une borne au progrès de la sensibilité des détecteurs : ainsi, les fluctuations, de nature statistique, de l’arrivée des photons imposent une limite à la précision photométrique que peut atteindre un instrument donné, en un temps donné d’observation. Ces limitations sont étudiées en détail au chapitre 7. Les connaissances astronomiques, accumulées dans les différentes civilisations – méditerranéenne, mais aussi indienne, chinoise, ou maya – à partir d’observations faites exclusivement avec l’œil humain, sans autres instruments que des outils de visée, sont impressionnantes. La précision des observations visuelles de Mars par Tycho Brahe, qui permirent à Kepler d’assigner à la planète Mars une orbite elliptique, est remarquable. La figure 1.10 met en évidence le gain de sensibilité qu’apporta ensuite, au cours des quatre derniers siècles, l’utilisation de lunettes et de télescopes de diamètre sans cesse croissant. La disponibilité d’observations faites à toutes longueurs d’onde sur un même objet facilite considérablement la modélisation et la compréhension de
18
L’observation en astrophysique 1000 reseau ALMA 2009 ARECIBO EXTREMELY LARGE TELESCOPES TMT, E-ELT... vers 2015-20 FAMILLE VLT, KECK, SUBARU... vers 2000 JWST 2013 HST 1989
Diamètre ou équivalent (m)
100
10
1 GLAST 2008 COMPTON-GRO 1991 0.1
EINSTEIN 1979 XMM-NEWTON 1999
SIGMA 1989
RADIOTELESCOPES
SPITZER 2003 HERSCHEL 2008 ISO 1995 IRAS 1983
COS-B 1975 0.01 1 TeV 0.1
1GeV
Energie
10 MeV
100 nm
1000 μm
1 mm
1m
Longueur d'onde
Fig. 1.9 – Progrès de la capacité de collecte du rayonnement électromagnétique par les instruments antérieurs à 2007 (trait plein) ou à venir (tireté), au sol (grisé intense) ou dans l’espace (grisé léger ), selon le domaine de longueur d’onde de leur fonctionnement. Le diamètre porté en ordonnée est celui de l’instrument, ou bien est déduit de la surface totale dans le cas d’un réseau. Les domaines représentés sont typiques d’un instrument ou d’une famille d’instruments, et permettent de percevoir l’évolution sur plusieurs décennies. On remarque une variation empirique du type D∝ λ1/3 au-dessous du MeV. (Cf. la table en fin d’ouvrage pour la liste des sigles et missions spatiales.)
Fig. 1.10 – Progrès en sensibilité relative de détection dans le domaine visible, normalisée aux performances de l’œil, au cours des quatre derniers siècles. La partie grisée représente le gain dû aux capacités d’intégration temporelle de la plaque photographique, puis au rendement quantique des récepteurs photoélectriques (cf. § 7.4). (D’après Harwit M., Progrès et découverte en astronomie, Masson, 1983. Avec l’aimable autorisation des Éditions Masson.)
1. L’information en astrophysique
19
celui-ci. Il est donc souhaitable de disposer de performances en sensibilité, mais aussi en résolution spatiale ou spectrale, qui soient le plus homogènes possibles à toutes les fréquences du spectre électromagnétique. S’agissant ici de la sensibilité, que signifie homogène ? La figure 1.11 permet de mieux saisir le fondement de la stratégie qui consiste à construire de façon harmonieuse des instruments dont la juxtaposition doit à terme couvrir tout le spectre. On y apprécie la sensibilité atteinte par quelques grands instruments des décennies 1980-2000 dans les divers domaines spectraux. Le critère d’homogénéité est fourni en considérant la distribution spectrale d’une source émettant un nombre de photons constant par intervalle de fréquence. Cette distribution spectrale (Spectral Energy Distribution ou sed) se rapproche de l’émission caractéristique d’un quasar, observée sur toute l’étendue du spectre électromagnétique. Analyse spectrale Les acquis de l’analyse spectrale sont tels qu’on a pu dire que l’astrophysique s’est avant tout bâtie sur la spectroscopie des sources étudiées. Composition chimique ou isotopique, champs de vitesse, turbulences, températures, pressions, champs magnétiques, gravités : les résultats sont innombrables. C’est pourquoi les techniques d’analyse spectrale, étudiées en détail dans le chapitre 8, ont fait l’objet d’efforts considérables, comme le représente la figure 1.12. Le pouvoir de résolution spectrale, que présente cette figure, est défini comme la capacité d’un instrument à mesurer indépendamment l’intensité de deux rayonnements distincts en fréquence. Il ne dépend en principe que du dispositif (spectrographe) utilisé pour l’analyse des photons. Mais en pratique, la capacité d’obtenir la résolution ultime dépend aussi du nombre de photons disponibles, donc de la surface collectrice et du temps de mesure, ainsi que de la sensibilité des récepteurs utilisés. Les spectrographes ont atteint, dans presque tous les domaines spectraux à l’exception de celui des hautes énergies (>1 keV), un pouvoir de résolution supérieure à ce que requiert l’analyse du rayonnement étudié. En effet, la largeur propre des raies spectrales de l’objet étudié, due aux mouvements internes à la source et à la largeur Doppler qu’ils induisent, limite également la résolution utile (échelle des vitesses sur la partie gauche de la figure 1.12). C’est finalement cet élargissement des raies lors de leur production qui rend superflu la recherche de résolutions spectrales toujours croissantes, sauf dans quelques cas bien particuliers – par exemple les mesures d’astérosismologie ou la recherche d’exoplanètes. Désormais, les progrès de la spectroscopie proviennent davantage de la capacité de coupler à l’analyse spectroscopique la mesure simultanée d’autres paramètres du rayonnement, par exemple : – spectroscopie et photométrie rapide, où des spectres successifs sont obtenus à des intervalles de temps très rapprochés, parfois
20
L’observation en astrophysique
Herschel-I Herschel-S
XMM & CHANDRA
Fig. 1.11 – Sensibilité de quelques instruments d’observation répartis sur toute l’étendue du spectre électromagnétique (période 1980-2007). L’éclairement spectral Fν (ordonnée) limite correspond au signal détectable avec un temps d’intégration (minutes, heures ou jours) possible avec l’instrument considéré. Les valeurs données ne sont que des ordres de grandeur. Le spectre approché de différentes sources est tracé : nébuleuse du Crabe (reste de supernova dans la Galaxie), quasar 3C273, ou le même quasar placé à grande distance (décalage spectral z = 4). (S) : mode spectroscopique (R = 103 à 104 ) ; (I) : mode imagerie en bande large (R de 1 à 10). La droite inférieure représente un éclairement avec un nombre de photons constant par intervalle spectral. Pour identifier les instruments, voir la table en fin d’ouvrage.
inférieurs à la milliseconde (éruptions solaires, étoiles éruptives, phénomènes d’accrétion, sources de rayonnement X) ; – spectroscopie et imagerie, où des images à différentes longueurs d’onde sont obtenues simultanément (spectrohéliogrammes de
1. L’information en astrophysique
21
Fig. 1.12 – Progrès en résolution spectrale relative. En grisé : performances en 1985. En tireté : performances en 2005. En pointillé : performances spécifiées pour les missions en préparation (décennie 2010-2020). On note l’exceptionnelle performance des spectromètres utilisés pour la recherche d’exoplanètes (cf. § 8.3). (Adapté d’après Harwit M., ibid. et mis à jour.)
l’activité solaire, cartographie X de la couronne solaire dans des raies spectrales de différents niveaux d’excitation, cartes de la distribution des vitesses de l’hydrogène dans une galaxie par mesure de l’effet Doppler sur la raie 21 cm).
Variabilité temporelle Les étoiles variables, à variation temporelle lente, sont connues depuis l’Antiquité (Mira Ceti), mais il a fallu attendre 1968 pour que soit découvert le premier pulsar de période 1.377 ms. Depuis, grâce aux progrès en sensibilité des récepteurs, l’étude de phénomènes très rapidement variables s’est considérablement développée : celle des sursauts γ, découverts dès les années 1970 mais compris bien plus tard, en est un bon exemple. L’observation de ces phénomènes variables est riche d’enseignements, et le tableau 1.3 donne les ordres de grandeur des échelles de temps caractéristiques de variabilité pour différentes classes d’objets4 . La capacité d’observer ces phénomènes est étroitement liée à la sensibilité des récepteurs, puisque ici, par la force des choses, le temps de mesure est imposé. Nous examinons dans les chapitres 7 et 9 comment la sensibilité s’améliore lorsque augmente le temps de mesure. La figure 1.13 montre la progression de la résolution temporelle. 4 Voir « Astrophysics on Its Shortest Timescales », D. Dravins, The Messenger, 78, 9-19, 1994 pour une analyse des phénomènes très rapides en astrophysique et leur lien avec les propriétés fondamentales du rayonnement électromagnétique (cohérence).
22
L’observation en astrophysique
Tab. 1.3 – Variabilité des sources astronomiques. Phénomène
Domaine de longueur d’onde
Échelles de temps caractéristiques (secondes)
Accrétion dans les systèmes binaires
Toutes λ
>10−1
Trous noirs
X, visible
>10−3
Sursauts γ (explosions thermonucléaires à la surface d’une étoile à neutrons)
γ, radiofréquences
>10−4 –101 >10−4
Scintillation interstellaire Radiofréquences, X
>10−3 10−6 –103
Sursauts solaires
Visible, IR, radio
Étoiles variables
Toutes λ
101 –107
Supernovae
Visible
102 –106
Oscillations solaires et stellaires (gravité)
Visible, UV
102 –104
Variabilité stellaire (convection, champ magnétique)
Radio, infrarouge, UV, visible
105 –1010
Variabilité des noyaux de galaxies, de quasars
Toutes λ
>106
Fig. 1.13 – Progrès en résolution temporelle. Le domaine couvert par les mesures est indiqué en dégradé pour les années 1939, 1959, 1979 et 1989. En tireté : performances atteintes en 2000. La partie supérieure du diagramme correspond aux observations s’étalant sur plusieurs décennies ou plusieurs siècles, telle que l’observation de la supernova du Crabe (1054). Quelques découvertes importantes d’objets variables sont indiquées. (D’après Harwit M., ibid. et 2006, communication personnelle.)
1. L’information en astrophysique
23
Images Il s’agit ici de discriminer des rayonnements provenant de directions différentes de l’espace. Le pouvoir de résolution spatiale (ou angulaire) mesure cette capacité de discrimination que possède un dispositif observationnel donné, et nous l’étudions en détail au chapitre 6. Comme pour les autres paramètres déjà cités, l’observation combine généralement la résolution angulaire avec une certaine résolution spectrale et un certain niveau de sensibilité. Le tableau 1.4 indique combien d’éléments d’image indépendants, ou pixels, sont nécessaires pour former l’image de la totalité de la voûte céleste (4 π stéradians) à diverses résolutions spatiales. Tab. 1.4 – Résolution angulaire et imagerie. Résolution
Nombre de pixels pour couvrir 4 π sr
Information disponible (2007) à cette échelle
Domaine spectral
0.1 degré
4 × 106
Carte du rayonnement fossile Cartographie du ciel
millimétrique submillimétrique γ
1 minute d’angle
1.5 × 108
Cartographie du ciel
infrarouge (10–100 μm)
1 seconde d’angle
5.4 × 1011
Cartographie du ciel Objets individuels (champ limité)
visible mm, IR, UV, X
1 milliseconde d’angle
5.4 × 1017
Objets individuels Objets individuels
IR, visible radiofréquences (mm, cm)
1 μ seconde
5.4 × 1021
Objets individuels
radiofréquences (cm, mm)
Les cartes globales du ciel, qui sont disponibles dans les divers domaines spectraux, sont très inégales en résolution : depuis quelques minutes d’angle aux radiofréquences, la seconde d’angle ou mieux dans le visible, jusqu’à la minute d’angle au mieux dans le domaine γ. Ces cartes sont obtenues par la juxtaposition de champs successifs fournis par un même récepteur, voire par un balayage pixel par pixel (radiofréquences). Néanmoins il est possible d’obtenir l’image d’une région plus limitée, contenant un objet particulier, avec une résolution très supérieure, mieux que la milliseconde, voire la microseconde d’angle par les techniques interférométriques, et celles d’interférométrie à très longue base (vlbi), présentées au chapitre 6. L’interprétation simultanée des images d’un même objet faites à différentes longueurs d’onde est essentielle : d’où l’importance de positionner ces images relativement les unes aux autres (justification) et de disposer de systèmes de repérage adéquats (cf. Chap. 4). Trois facteurs fixent la résolution angulaire qu’il est possible d’atteindre : la dimension de l’instrument utilisé, fixant la limite qu’imposent le phénomène de diffraction et la nature ondulatoire du rayonnement ; de façon concomitante,
24
L’observation en astrophysique
la longueur d’onde ; enfin, pour l’observation au sol, les effets de la turbulence atmosphérique sur la formation des images. La figure 1.14, outre les progrès, met en évidence ces limitations sur les instruments disponibles dans les décennies 1980-2010, ou allant l’être.
Résolution angulaire (secondes d'angle)
1000
100
IRAS 1983
limite de l'oeil nu
5
ISO
10
Limite
1
du
BB
LE
HU 0.01
ST
JW 0.001
0.0001 0.1 μm
8
08
0 A2
FI
SO
seeing
L HE
199 ST
t.
p da
a pt.
00
20
3 200 LT V E ètre 05 om 20 T, K r L é f A V r e N t A In OH A, R A CH
, CK
1 μm
...
+O
10 μm
200
1
C
RS
HE
O CS 1
0.1
199
ii) wa
(Ha
ace
esp
l' ans
md
1k
199
) hili
09
20
C
A(
M AL
BI
VL 100 μm
1000 μm
1 cm
Longueur d'onde
Fig. 1.14 – Résolution angulaire dans le domaine de longueurs d’onde 100 nm à 1 cm, et sa progression. Toutes les droites de pente unité correspondent à la limite imposée par diffraction. La limite du seeing atmosphérique est indiquée. Traits continus : instruments au sol ; En tireté : instruments dans l’espace. Voir en fin d’ouvrage la table des missions spatiales, celle des sigles ainsi que les adresses des sites relatifs aux instruments au sol.
Les progrès en résolution angulaire ont été rapides (Fig. 1.15). Ils proviennent principalement de la taille croissante des instruments, qui n’est même plus (en 2007) limitée par la dimension de la Terre grâce à l’interférométrie à très longue base étendue à l’espace, et d’outils d’observation, telle l’optique adaptative (§ 6.3) qui minimisent les effets, délétères pour les images, de l’atmosphère terrestre. L’accès à l’espace lève cette dernière contrainte et la seule limite imposée à la résolution angulaire est alors le nombre de photons disponibles lorsque se réduit la dimension angulaire de la région observée.
1. L’information en astrophysique
25
Fig. 1.15 – Résolution angulaire. Progrès en résolution angulaire entre 1959 et 1990, en dégradé de gris. Quelques découvertes significatives dues à ce progrès sont indiquées et, dans chacun des cas, la résolution atteinte permit d’identifier la source sans ambiguïté. (D’après Harwit M., ibid., complété en tireté pour la période 1985– 2000.)
Polarisation du rayonnement L’information transportée par la polarisation du rayonnement électromagnétique est importante, car elle est généralement très spécifique : soit des conditions d’émission telles que diffusion, présence d’un champ magnétique, rayonnement de freinage ou Bremsstrahlung, soit des conditions rencontrées par le rayonnement sur son parcours. Ainsi la présence d’un milieu anisotrope orienté macroscopiquement, tels les grains interstellaires, va-t-elle polariser le rayonnement traversé. La mesure de la polarisation, ou polarimétrie, est brièvement abordée au § 3.1. Elle est parfois intrinsèque au détecteur (radiofréquences, télescope Compton, télescope à création de paire). Repères spatio-temporels Le repérage spatio-temporel des événements astronomiques est essentiel en vue d’une collecte et d’une exploitation correctes de l’information transportée par les photons. Longtemps, le repérage du temps a été associé à la connaissance du mouvement de la Terre. Le repérage des positions des objets dans un référentiel spatial bien défini est également indispensable, qu’il s’agisse de mesurer leur mouvement propre au cours du temps, ou qu’il s’agisse de
26
L’observation en astrophysique
positionner avec précision les images du même objet, observé dans différents domaines spectraux. La détermination des référentiels de temps et d’espace est traitée au chapitre 4. L’objectif est de pouvoir disposer d’un référentiel dont la précision soit du même ordre que les meilleures résolutions angulaires disponibles, soit 0.001 seconde d’angle, ceci quelle que soit la longueur d’onde. Dans la pratique, on dispose de catalogues, relativement denses sur le ciel, d’étoiles dont sont connues les positions et les mouvements propres avec la précision requise. Le catalogue FK5, adopté en 1984 par l’Union Astronomique Internationale, donne une exactitude globale de 0.02 , et une exactitude de 1.5×10−3 seconde d’angle par an sur les mouvements propres stellaires – les deux précisions étant donc homogènes sur une période de 20 ans –, ceci pour quelques milliers d’étoiles. Un petit nombre de ces étoiles possède également une émission centimétrique qui permet de les observer avec les techniques d’interférométrie radio à très longue base (vlbi, cf. § 6.5.1) atteignant une précision de 10−4 seconde d’angle : il est ainsi possible de raccorder les référentiels utilisés dans les domaines spectraux visible, infrarouge et radio. La base de données Aladin (Centre de Données astronomiques de Strasbourg, France), présentée au chapitre 10, permet ainsi l’identification croisée d’objets connus par leur position à une longueur d’onde donnée et positionnés alors sur les plaques de Schmidt de référence. L’accès à l’espace élimine les effets perturbateurs de l’atmosphère terrestre (agitation d’image) et permet d’importants gains en précision, tels ceux obtenus par le satellite Hipparcos (1989–1993) ou attendus de la mission gaia. Une analyse plus approfondie est faite au chapitre 4.
Traitement et stockage de l’information L’information astrophysique est ici prise au sens des données recueillies sur l’ensemble des objets observés. Ces données, tout en étant perfectibles en précision, ont par ailleurs un précieux caractère historique, puisque leur éventuelle variation au cours du temps est en elle-même une information utile : l’évolution de la position d’une étoile peut traduire la présence d’un compagnon obscur, la variabilité d’un quasar est caractéristique des phénomènes physiques qui affectent son noyau, l’identification de l’étoile précurseur d’une supernova est essentielle, etc. La figure 1.16 décrit les différentes étapes du traitement de l’information astronomique et le rôle qu’y jouent les différents outils informatiques. La progression du volume des données recueillies est considérable : environ 104 étoiles visibles à l’œil nu étaient cataloguées au xviie siècle, environ 107 étoiles le sont en 2007 (position, magnitude, couleur. . . ), tandis que le nombre de galaxies cataloguées est bien supérieur. Donnons quelques autres exemples de cette progression : en radioastronomie spatiale, un seul satellite destiné à l’étude de la variabilité du Soleil et du vent solaire, débitait environ 108 bits an−1 en
1. L’information en astrophysique
27
Fig. 1.16 – Acquisition et traitement de l’information astronomique. 1972, 1010 bits an−1 en 1982. Entre 1970 et 1985, le débit de données radioastronomiques spatiales est multiplié par dix tous les cinq ans ! Le satellite iue (International Ultraviolet Explorer) destiné à l’étude des étoiles dans l’ultraviolet, a fournt 2 000 spectres par an, soit environ 1010 bits an−1 . La mission d’exploration Cassini-Huygens, vers la planète Saturne, arrivée à destination en 2004, fournit environ 1010 bits mois−1 .
Par ailleurs, une masse considérable de données existantes, acquises jusque vers 1980 sur plaques photographiques, est en cours de numérisation et devient donc d’accès facile, comme présenté au chapitre 10 : la numérisation de l’ensemble des photographies du ciel à une résolution de 10 secondes d’angle met en jeu 1011 bits d’information. L’acquisition de l’information, en temps réel, se fait par couplage direct avec le système de mesure (télescope, spectrographes, récepteurs. . . ). La visualisation en temps réel (en anglais, quick look ) optimise l’observation afin, par exemple, de choisir le temps d’intégration nécessaire pour atteindre le rapport signal à bruit attendu, comme nous le présentons dans quelques exemples d’observations réelles au chapitre 9 (§ 9.3). Les cadences d’acquisition peuvent être extrêmement variables : depuis la détection individuelle des rares photons d’une source faible – quelques coups
28
L’observation en astrophysique
par heure ou par jour –, jusqu’à l’acquisition d’images instantanées en optique adaptative dans le visible à l’aide d’un spectrophotomètre imageur, à raison de 108 à 109 bits s−1 . À cette acquisition est souvent associé un prétraitement (compression de données, filtrage), qui réduit le volume d’information que constituent les données brutes (en anglais, raw data) et qui est à stocker de façon permanente. On voit également se développer, à partir des années 1990, des méthodes de compression de données, dont l’objectif est de réduire le volume de données transmises sans perte notable d’information, grâce à des contrôles faits sur l’objet. Un exemple simple montre le type de gain possible : soit l’image d’un champ stellaire comprenant quelques centaines d’étoiles sur un récepteur ccd de 1 000 × 1 000 pixels. Il n’y a donc dans le signal qu’une fraction, valant 10−3 à 10−4 , de valeurs intéressantes et il n’est pas utile de transmettre les autres. Les techniques de compression de données sont particulièrement utiles pour les transmissions à distance (satellite → sol, télescope au sol dans un site lointain → laboratoire, laboratoire → laboratoire). Des taux de compression de quelques unités à quelques dizaines sont accessibles selon la nature des données transmises (cf. § 9.1.3).
Le volume de production de données brutes ou prétraitées augmente sans cesse et de façon considérable : le débit d’information que produit le télescope spatial Hubble (lancé en 1989) est de 4 × 103 bits s−1 pour 80 % du temps et 106 bits s−1 pendant 20 % du temps, soit au total environ 1013 bits an−1 . Le débit d’information de missions d’observation de la Terre ou d’autres planètes par des sondes spatiales est comparable. À titre de comparaison, en 2007, la capacité de stockage d’un disque numérique dépasse 1011 bits. L’analyse ultérieure de l’information est généralement interactive, : elle fait intervenir des allers et retours entre l’ordinateur, les données et l’auteur du traitement. Cette analyse interactive comprend par exemple la sélection des données les meilleures, les opérations de filtrage optimal du bruit (cf. Chap. 9), des corrections diverses des propriétés du système d’observation, telles que dérives de sensibilité, perturbations atmosphériques, dérives de pointage. . . , étalonnage à partir de sources standard (§ 3.5). Depuis le milieu des années 1990, ce sont des stations de travail, le plus souvent sous langage unix, qui assurent ces traitements interactifs. Basées sur des systèmes à mots de 32 ou 64 bits (technologie risc), leur vitesse d’opération atteint plusieurs dizaines de Mflops (nombre d’opérations en virgule flottante par seconde). L’accroissement de la puissance de ces stations passe par l’augmentation de leur vitesse d’horloge, qui peut atteindre plusieurs GHz, et l’apparition d’architectures parallèles. Les logiciels de traitement se répartissent selon au moins trois classes : a) ensemble d’algorithmes d’analyse et d’extraction de l’information à caractère thématique, du type iraf, midas, idl, aips en radioastronomie, etc. ; b) ensemble de logiciels, souvent dits de calibration ou
1. L’information en astrophysique
29
d’étalonnage, proches des instruments, créés pour optimiser le fonctionnement de tel spectromètre, de telle caméra ; c) logiciels de visualisation enfin, qui facilitent l’interface entre des programmes de calcul lourd et l’utilisateur ; ils permettent par exemple la manipulation tridimensionnelle d’objets.
Les données traitées (en anglais, processed data) comprennent une estimation de l’incertitude des mesures, c’est-à-dire du rapport signal à bruit après traitement, faute de quoi elles sont difficilement utilisables ! Les résultats sont alors communicables à la communauté scientifique, soit directement par publication, soit par mise à disposition sur une banque de données. Ainsi, chaque année au cours de la décennie 1980–1990, environ 50 000 étoiles ont fait, pour une quelconque de leurs propriétés (spectre, position, photométrie. . . ), l’objet d’une publication. Autre exemple : pendant la période 1976–1990, le satellite iue aura fourni des milliers de spectres. De même, les observations du satellite iras (InfraRed Astronomical Satellite, 1983) ont conduit à la publication d’un catalogue (Point Source Catalogue) où figurent 250 000 objets, chacun affecté de douze attributs (position, photométrie dans quatre bandes spectrales, etc.). Nous examinons au chapitre 10 les conséquences de cette explosion de données, qui ne fait que s’amplifier pendant la décennie 2000. Le problème de la normalisation des banques de données est particulièrement crucial : en effet, chaque dispositif observationnel – satellite à télescope X, télescope photographique de Schmidt, radiotélescope à synthèse d’ouverture. . . – produit ses données sous une forme qui lui est propre. Une même source, physiquement homogène, apparaît ainsi dans diverses bases sous des dénominations différentes ; les données diffèrent par le champ utilisé – depuis la minute d’angle jusqu’à 10−2 seconde d’angle ou même moins –, ainsi que par la précision des mesures. Aussi, pour les 550 000 objets présents dans la banque de données du Centre de données astronomiques de Strasbourg (France), un catalogue d’identification (Aladin) permet-il le croisement de toutes les désignations connues d’un objet donné. L’avènement des observatoires spatiaux à très haut rendement observationnel de la décennie 1990–2000 (télescope spatial, observatoires γ, X, infrarouge, etc.) a rendu indispensable la création d’une banque mondialisée de données astronomiques, désignée par le nom d’Observatoire Virtuel (cf. § 10.3). La connexion des utilisateurs et des bases de données se fait grâce au très rapide développement des réseaux depuis les années 1990 : les liaisons, fonctionnant sur le protocole Internet, qui équipent localement un site ou un campus, ont des débits de 1 à 10 Gbits s−1 ; les liaisons entre sites à l’échelle d’un pays débitent 2.5 Gbits s−1 ; enfin les liaisons entre sites intercontinentaux atteignent en 2007 un débit de 10 Gbits s−1 (réseaux de recherche) – alors que dans les annnées 1990, l’Europe était reliée au continent américain par deux lignes transatlantiques à 2 Mbits s−1 !
30
L’observation en astrophysique
La dernière étape est celle du traitement lourd : un grand nombre de données ou de propriétés d’objets est extrait de la banque et manipulé par de puissantes machines (stations de travail ) pour conduire à la mise en évidence de propriétés statistiques ou à une modélisation physique élaborée. Au milieu des années 1990, des machines comme le cray C98 comprenaient 8 processeurs de 2 Gflops, 4 Goctets de mémoire centrale et plus de 100 Goctets d’espace disque5 . La Connexion Machine, machine massivement parallèle, possédait 32 000 processeurs. En 2007, ces valeurs sont devenues les performances d’une station de traitement individuelle. L’interconnexion de machines réparties sur plusieurs sites permet d’obtenir des puissances de calcul de plusieurs dizaines de Téraflops (1012 ). Ainsi la combinaison des machines idris (CNRS, France), cineca (Italie) et celle de Garching (Max-Planck Gesellschaft, Allemagne) dote l’Europe d’une puissance de 30 Tflops.
Toutes ces opérations se déroulent dans un contexte d’évolution très rapide des moyens informatiques et de l’algorithmique associée.
1.2.3
Une approche raisonnée de l’observation
La difficulté d’une présentation des méthodes physiques sur lesquelles reposent l’observation en astronomie vient de l’intrication étroite de chacun des éléments du système d’observation, rapportée aux propriétés du rayonnement incident et à celles de la source astronomique étudiée : sensibilité et capacité d’imagerie des détecteurs, dimension du collecteur, propriétés spectrales des matériaux utilisés pour réfléchir, transmettre ou détecter le rayonnement s’entremêlent. Nous avons tenté de les distinguer ci-dessus, comme nous le faisons dans la suite de cet ouvrage. Préalablement à son arrivée sur le système d’observation, l’onde électromagnétique issue de la source a pu subir des perturbations durant son parcours. Celles qui sont imposées par l’atmosphère de la Terre sont particulièrement gênantes et méritent une étude spécifique, abordée dans le chapitre 2. Ce chapitre compare également les conditions d’observation au sol et dans l’espace (L’atmosphère terrestre et l’espace). Quelques propriétés générales du rayonnement électromagnétique et de sa mesure sont ensuite présentées au chapitre 3 (Rayonnement et photométrie). Le chapitre 4 (Les repères d’espace et de temps) situe l’observation astronomique dans les repères d’espace et de temps qui permettent de lui donner son sens physique et de comparer les mesures. Les fonctions de collecte de l’énergie et de formation des images, assurées par les télescopes, font l’objet du chapitre 5 (Les télescopes), qui se limite aux aspects de l’optique géométrique. Le chapitre 6 (Formation des images et diffraction) entre plus avant dans l’analyse des images et la résolution qu’elles offrent, ce qui nécessite l’étude de la 5 Le flop (floating point operation) correspond à une opération élémentaire (addition, multiplication).
1. L’information en astrophysique
31
cohérence du rayonnement. Le chapitre 7 (Les récepteurs du rayonnement) analyse les principes physiques sur lesquels reposent les récepteurs, placés au foyer des télescopes, et montre quelques applications. Les principes de la spectroscopie et les familles de spectromètres sont présentés au chapitre 8 (L’analyse spectrale). Le développement des outils informatiques a conduit à un développement considérable du traitement de l’information et de son stockage, qui sont présentés au chapitre 9 (Le signal en astronomie). La puissance des outils d’observation et la constitution d’immenses bases de données ont conduit à la notion d’observatoire virtuel, sujets qui font l’objet du chapitre 10 (Grands relevés et observatoires virtuels). Enfin, les Appendices I et II présentent des compléments mathématiques utiles à l’ensemble de l’ouvrage, d’une part sur La transformation de Fourier, d’autre part sur Les variables et processus aléatoires.
1.3
L’organisation mondiale de l’astronomie
Très tôt dans l’histoire des civilisations, les connaissances astronomiques furent l’objet d’échanges : autour du bassin méditerranéen, sur la route de la soie, entre Inde et Occident, entre mondes arabe et latin. Depuis la Renaissance, les astronomes ont créé une véritable communauté internationale qui, avec la mondialisation des échanges et de l’information, aborde le xxie siècle avec vigueur, stimulée par le flot de découvertes apportées tant par les progrès instrumentaux du xxe siècle que grâce aux outils d’interprétation offerts par la physique moderne. La vie et le développement de cette communauté reposent d’abord sur des hommes, puis sur des politiques de recherche, sur la communication des résultats par des publications, enfin sur le partage des connaissances accumulées avec la société toute entière. Les trois premiers de ces quatre aspects sont brièvement évoqués ici, à la veille de l’année 2009, célébrée par l’Organisation des Nations unies comme l’Année mondiale de l’astronomie6.
1.3.1
Les hommes et les femmes
L’activité de recherche proprement dite fait appel à des personnels professionnels d’expertise très diverse : chercheurs, ingénieurs, techniciens, administratifs. Le plus souvent, ces personnels sont employés par des centres de recherche ou des universités relevant des pouvoirs publics. Un ordre de grandeur intéressant à signaler est le rapport qui existe entre le personnel de soutien 6 Trois ouvrages remarquables donnent une vision panoramique approfondie sur ces quatre points. Il s’agit de Woltjer, L., Europe’s Quest for the Universe, edp Sciences, Paris (2006) ; Organizations and strategies in astronomy, Heck, A., Éd., Vol.7, Springer (2006) ; Future Professional Communication in Astronomy, Heck, A. & Houziaux, L., Éds., Académie royale de Belgique, xxviii, 2047 (2007), auxquels plusieurs éléments cités ici sont empruntés.
32
L’observation en astrophysique
et le personnel chercheur, rapport qui varie de 1 à 2 environ dans les laboratoires, mais qui peut atteindre 10 ou plus dans la structure de service qu’est un observatoire opérationnel. La diversité des métiers est considérable, même au sein des astronomes proprement dits : si la formation de physicien fut reine au milieu du xxe siècle, le renouveau de la mécanique céleste, la naissance de l’astrochimie et celle de l’astrobiologie (appelée aussi bio-astronomie), le rôle du traitement du signal avec la numérisation généralisée de l’information, la complexité technologique des instruments contemporains sont des facteurs qui ont profondément élargi le « profil » de l’astronome traditionnel. C’est aussi la complexité des technologies mises en jeu dans les instruments qui a conduit à une collaboration sans précédent avec les ingénieurs et avec l’industrie dans les domaines de l’optique, de l’électronique, de l’informatique, de la robotique, etc. La figure 1.17 donne une vue générale de la répartition géographique mondiale des astronomes, qui sont membres de l’Union Astronomique Internationale (uai). Le tableau 1.5 complète cette figure en précisant, dans divers pays, notamment européens, l’importance de la communauté des astronomes au sein de la population et le nombre de jeunes préparant un doctorat dans ce domaine. Le rapport de ces derniers aux premiers met en évidence des politiques assez différentes : certains pays, tels la France, tentent plus ou moins d’adapter le nombre de doctorats préparés à celui des postes professionnels ultérieurement possibles pour les jeunes doctorants ; d’autres pays, telle l’Allemagne, facilitent la préparation d’un grand nombre de doctorats, peuplant ainsi ses laboratoires d’une main d’œuvre jeune, créative et relativement peu coûteuse pour exploiter l’immensité disponible de données d’observation et la variété des sujets de recherche intéressants. Il serait peu convenable de terminer ce tour d’horizon sans mentionner les astronomes amateurs. Dans tous les pays, ceux-ci sont nombreux à construire des instruments souvent perfectionnés, à fréquenter éventuellement la littérature professionnelle, à contribuer parfois à une recherche originale par des programmes qui demandent temps et disponibilité : observations d’étoiles variables, de météorites ou de comètes, voire transits d’exoplanètes, tous travaux qui ne demandent pas nécessairement la très grande dimension des télescopes modernes, mais requièrent beaucoup de ténacité et de soin. La contribution de ces amateurs à la science vivante n’est parfois pas négligeable, ils font également le lien entre celle-ci et le grand public, évoqué plus loin. À titre d’exemple, en 2006, le Royaume-Uni compte environ 10 000 astronomes amateurs.
1.3.2
Les institutions et les politiques de recherche
Les laboratoires au sein desquels se déroule la recherche dépendent le plus souvent des pouvoirs publics, parfois d’initiatives privées, selon des formules
pays est suivi du nombre d’adhérents (valeur absente s’il y a moins de cinq adhérents). Les pays en grisé adhèrent à l’Union, d’autres pays peuvent avoir des membres individuels. Des institutions nationale peuvent aussi adhérer, mais ne sont pas décomptées ici. (Valeurs données par l’Union astronomique internationale (uai), www.iau.org.)
Fig. 1.17 – Distribution géographique des membres individuels de l’Union Astronomique Internationale en 2007. Chaque nom de
1. L’information en astrophysique 33
34
L’observation en astrophysique
Tab. 1.5 – Les chercheurs en astronomie dans divers pays. 1 Pays
2 Chercheurs
3 Doctor.
4 % chercheurs 0.65 0.58 1.39 0.91
5 Pages /astron. 4.0 4.0 4.4 6.2
6 Astr. par Mhab. 17 16 18 22
7 Δ iau (%) 1.0 1.1 1.4 1.6
France Allemagne Italie Roy.-Uni
800 850 950 800
200 500 100 500
Autriche Belgique Danemark Finlande Grèce Islande Irlande Pays-Bas Norvège Portugal Espagne Suède Suisse
50 (191) 45 75 130 4 32 125 (42) (65) 315 100 100
50
133 70 55
0.78 (0.83) 0.35 0.72 2.0 0.44 0.72 0.65 (0.26) 0.56 0.86 0.50 0.72
2.8 (3.2) 5.7 4.5 2.8 4.2 1.8 9.0 (2.9) 2.7 4.1 5.0 5.2
12 (19) 11 23 15 18 16 13 (9) 7 11 19 14
1.3 1.9 1.4 5.3 1.4 2.4 2.5 0.9 0.8 6.7 3.6 2.1 4.1
UE* États-Unis
4 200 4 500
1 900 (900)
0.71 0.56
4.9 5.6
16 20
1.6 1.4
13 46 30 1 28 80
Colonnes. 1 : pays ; 2 : nombre de chercheurs en astronomie ; 3 : nombre de jeunes préparant un doctorat lié à l’astronomie ; 4 : fraction de ces chercheurs par rapport au total des chercheurs du pays ; 5 : nombre moyen de pages publiées annuellement par chercheur en astronomie ; 6 : fraction du nombre d’astronomes par million d’habitants du pays ; 7 : croissance moyenne du nombre de membres de l’Union astronomique internationale pendant la période 1992-2004. UE* désigne l’Union européenne avant 2004, augmentée ici de la Norvège et de la Suisse. (Ces estimations sont extraites de Woltjer, L., Europe’s Quest for the Universe, edp, Paris, 2006, avec l’aimable autorisation de l’auteur.)
variées : instituts propres de recherche (Max-Planck Gesellschaft en Allemagne, Centre national de la recherche scientifique en France, Académies des sciences issues du modèle soviétique en Russie ou Chine), universités publiques ou parfois privées (Pontificia Universidad Católica au Chili, California Institute of Technology aux États-Unis). Alors qu’au début du xxe siècle, les instruments d’observation se trouvaient généralement proches des sites urbains où étaient les laboratoires (Meudon en France, Yerkes à Chicago par exemple), les observatoires ont rapidement migré vers les meilleurs sites en altitude (cf. § 2.8), tout en gardant parfois leur affiliation avec un ou plusieurs laboratoires. La tendance récente au gigantisme des outils d’observation, tant au sol que dans l’espace, a conduit à des collaborations internationales pour la réalisation de ces outils, par exemple en Europe (Agence spatiale européenne fondée en
1. L’information en astrophysique
35
1975, Observatoire européen austral fondé en 1962) ou même dans le monde (télescope submillimétrique alma au Chili). Ces collaborations ne concernent pas seulement les observatoires stricto sensu, mais aussi la grande diversité d’instruments coûteux dont ils sont équipés, au sol comme dans l’espace. L’astrophysique observationnelle requiert : – des moyens d’observation à distance (télescopes), placés au sol ou dans l’espace ; – des sondes spatiales, explorant in situ le système solaire : la Lune, les planètes, certains satellites comme Titan, les astéroïdes, les comètes) et rapportant éventuellement des échantillons à la Terre ; – une instrumentation complexe placée auprès des télescopes ou des sondes : caméras, récepteurs, spectrographes. . . ) ; – des moyens de traitement de l’information : ordinateurs, banques de données. . . ; – des moyens de lancement : fusées, bases de lancement, antennes de poursuite, qui sont communs à tous les bénéficiaires de l’aventure spatiale. Toute une gamme de technologies (optronique, mécanique, robotique, théorie des systèmes, intelligence artificielle, etc.) est mise au service de ces différents outils. L’astrophysique théorique utilise, outre les ressources des mathématiques, de la physique, de la chimie, les simulations numériques lourdes, faisant appel aux moyens de calcul les plus performants en capacité et vitesse de calcul. Dans tous ces cas, il existe dans chaque pays une politique nationale de recherche7 qui examine les programmes et les idées nouvelles, attribue les ressources, organise les collaborations, négocie des accords internationaux qui deviennent de plus en plus nécessaires. L’articulation entre le libre jeu des initiatives d’individus ou d’institutions d’une part, les régulations publiques d’autre part, dépend quelque peu des traditions politiques, plus ou moins centralisées, comme de la richesse des nations considérées. Mais le fait que l’astronomie soit une discipline scientifique dont l’objectif fut, et demeure, la connaissance et l’exploration, plutôt que la production d’applications immédiatement utiles, renforce ici le poids des institutions publiques8 . Comment suivre le rythme accéléré des changements technologiques en s’équipant au mieux d’outils d’observation et de calcul ? Quelles collaborations 7 Voir par exemple la description de l’état de l’astronomie au Royaume-Uni, donnée par Paul Murdin dans l’ouvrage Organizations and strategies in astronomy (2006), op. cit., avec une intéressante perspective historique. 8 Ce point de vue n’est pas nécessairement partagé par tous. Ainsi, Jacques-E. Blamont, auteur de l’ouvrage Le Chiffre et le songe. Histoire politique de la découverte (O. Jacob, Paris, 1993), lie fortement la progression historique de l’astronomie à la volonté de pouvoirs régaliens.
36
L’observation en astrophysique
favoriser ? Quels nouveaux domaines encore vierges défricher (ondes gravitationnelles, bio-astronomie...) ? Dans la plupart des grands pays, ces questions conduisent à la rédaction régulière de rapports de prospective qui, après de larges consultations nationales et internationales, dessinent régulièrement les orientations des années ou décennies à venir : Denkschrift für Astronomie en Allemagne, Rapports de prospective de l’Institut national des sciences de l’univers (insu) en France, Livres blancs ou formes analogues en Europe, us Decade Report aux États-Unis, Megascience Forum de l’ocde, etc. Quelques chiffres permettent de situer l’effort européen de recherche en astronomie. Au sein de l’Europe, les astronomes ont su organiser les collaborations entre pays, principalement au sein de l’Agence spatiale européenne (ase-esa) et de l’Observatoire européen austral (eso). Les dépenses directes ou indirectes faites au bénéfice des projets et instruments portés par ces deux institutions représentent environ 42 % de la dépense « européenne » en astronomie9 : on voit ainsi soulignée la nécessité de collaborations larges, pour disposer de moyens d’observation toujours plus ambitieux et complexes. Les coûts unitaires des équipements et des programmes suivent une progression qui traduit à la fois la croissance de leurs dimensions et celle de leur complexité. Ainsi, le coût des télescopes optiques traditionnels au sol était-il assez bien représenté au début des années 1980 par l’expression suivante, où D est le diamètre de l’instrument : coût (M$ 1980) = 0.45 × D2.6 Toutefois, le progrès des technologies (cf. chap. 5) permit d’abaisser ces coûts. Cette loi de puissance aurait conduit à un coût d’environ 350 M$ (1995) pour le Keck-Telescope, et il a été réalisé pour environ 100 M$ (1995). Le très grand télescope européen, vlt, ouvert à la fin de la décennie 1990, a coûté environ 260 Me (2004), hors coûts de développement du site de Paranal (Chili), de ses instruments et de son mode interférométrique, tous facteurs ignorés dans la formule ci-dessus. Or l’application de celle-ci aurait conduit à un coût de 760 M$ (1995), soit environ 730 Me (2004), au lieu des 260 réels. On voit comme l’évolution des technologies – miroir primaire segmenté pour le Keck, ou mince et actif pour le vlt – est parvenue à limiter la croissance des coûts et à rendre possible la fabrication de ces télescopes. Néanmoins, le coût des géants optiques, appelés Extremely Large Telescopes (elt) de la génération suivante ne paraît pas encore en 2007 fermement établi. L’instrument Thirty Meter Telescope (tmt), d’un diamètre de 30 m, que les États-Unis étudient, est annoncé autour de 9 Ce chiffre est donné pour le début de la décennie 2000-2010, L. Woltjer, op. cit. La définition de l’Europe souffre ici d’un certain flou, puisqu’elle ne recouvre pas exactement l’Union européenne, elle-même en évolution, et que ces deux périmètres ont une diversité géographique de membres, également en croissance.
1. L’information en astrophysique
37
400 M$ (2006), une valeur comparable à celle annoncée pour le futur European Extremely Large Telescope qui aurait un diamètre de 42 m et dont la faisabilité dans cette enveloppe financière reste à prouver.
Les coûts des missions spatiales sont d’un ordre de grandeur supérieur : il est possible qu’ils s’abaissent lentement avec la banalisation progressive de l’accès à l’espace. À titre d’exemple, le coût de la mission du télescope spatial Hubble (nasa + 15 % Europe) a été estimé à 4 G$ (1995) pour dix ans d’observation en orbite. L’Agence spatiale européenne a distingué, jusqu’à l’année 2005, trois catégories de missions : – les missions légères (petits satellites d’exploration circumterrestres) à 200 Me ; – les missions lourdes, de type observatoire (infrarouge, extrême ultraviolet, submillimétrique. . . ), de l’ordre de 700 Me (2005) ; – les missions d’exploration et/ou de retour d’échantillon, de très grande ampleur : véhicule d’exploration sur Mars, sonde dans l’atmosphère de Titan, prélèvement d’échantillons cométaires et retour à la Terre. Le coût unitaire de ces missions est de 1 à 2 Ge (2005) ; elles ne sont concevables qu’en coopération internationale très étendue, voire mondiale.
Qu’il s’agisse d’instruments au sol ou de missions dans l’espace, les progrès de leur productivité, au fil des années, sont spectaculaires : le choix des sites ou des orbites, l’amélioration des détecteurs, une meilleure analyse des photons disponibles, des méthodes optimisées de traitement de signal, des systèmes experts améliorant la décision en temps réel et optimisant l’usage du temps d’observation disponible sont autant d’éléments qui permettent d’obtenir une plus grande quantité d’information par heure d’instrument utilisée. Malheureusement, en face de ces données quantitatives, il n’existe pas encore d’indicateur qui permette de mesurer de façon raisonnablement sûre le rendement en découverte d’un instrument de recherche : ni le volume de publications, ni celui de citations n’offrent à eux seuls une garantie d’optimum. L’évaluation de la valeur intrinsèque d’une découverte ou d’une observation, et de leur importance dans la durée longue, reste à faire !
1.3.3
Les publications
La publication d’un travail de recherche fait partie intégrante de celuici, aussi la croissance des moyens d’observation et de leur puissance s’accompagne-t-elle d’une croissance parallèle de l’échange de l’information acquise et analysée. L’importance de l’activité de publication est considérable à un double titre : elle permet la construction progressive de l’authenticité
38
L’observation en astrophysique
d’un acquis scientifique nouveau ; elle joue un rôle essentiel et parfois même excessif dans la notoriété et la reconnaissance professionnelle des acteurs10 . Nous examinons au chapitre 10 la façon dont cette information dite primaire, puisque quasi directement issue des outils d’observation, est stockée et mise à disposition des utilisateurs, sous forme de bases de données, d’observatoire virtuel principalement. Les travaux de comptes rendus d’observations, de modélisation, de prédictions théoriques, de proposition ou validation de méthodologies, de descriptions d’instruments forment l’essentiel des publications professionnelles en astrophysique (Fig. 1.18). Leur volume ne cesse de croître, tandis que les moyens d’échange entre chercheurs, tant en volume qu’en rapidité et accessibilité, évoluent très rapidement et se diversifient avec la révolution numérique en cours depuis les années 1980. On mesure facilement le lien étroit entretenu entre publication et observation en observant la figure 1.19 : elle concerne l’un des journaux professionnels les plus importants, l’Astrophysical Journal publié aux États-Unis, dans lequel sont analysés, entre 1990 et 2006, les titres des articles. Ce titre peut, ou non, mentionner un instrument d’observation particulier : l’analyse retient les grands outils mis en service par la nasa dans cette période, et la figure en montre clairement l’impact sur les publications. Avec l’ère numérique, l’évolution des outils de communication transforme progressivement les modes de communication de la recherche, qui se déroule désormais presque exclusivement en anglais, la lingua franca de la science. Au système bien établi et commercial de revues professionnelles, dotées de comités de lecture à l’éthique en principe rigoureuse, garantissant équité de traitement des auteurs, jugement par les pairs, compétence, ouverture aux idées nouvelles ou hétérodoxes, s’ajoutent depuis les années 2000 d’autres modes de publication, marqués par l’usage des moyens électroniques numériques (Internet). Tandis que les journaux classiques évoluent pour s’adapter à la publication électronique et fournir, par exemple, une indexation immédiate ou leurs archives en ligne, de nouveaux outils apparaissent. Ceux-ci, plus libres, veulent aussi répondre à des critiques faites aux moyens traditionnels, telles que celles de parti pris éditorial, de coût trop élevé ou de lenteur. Classés sous le terme générique d’Open Acess, ces pratiques nouvelles peuvent être très diverses : depuis l’auteur publiant sans validation par un comité de lecture, sous sa propre responsabilité et en ouvrant son article à la critique, jusqu’à la revue professionnelle mettant en circulation libre les articles récents pendant une période limitée, puis à nouveau après une période d’embargo, ou bien encore laissant l’auteur diffuser son manuscrit lui-même après sa publication. Les formules sont multiples, qui s’essaient en cette décennie, la difficulté ici étant de concilier la solidité économique du modèle avec la rigueur de validation de l’information qu’il doit assurer. 10 Voir Future Professional Communication in Astronomy, Heck, A. & Houziaux, L., Éds., Académie royale de Belgique, xxviii, 2047 (2007).
1. L’information en astrophysique
39
Fig. 1.18 – Le cheminement de l’information en astronomie. (Extrait de Heck, A., in Future Professional Communication in Astronomy, op. cit., avec l’aimable autorisation de l’auteur et de l’éditeur.)
Un des efforts les plus remarquables pour assurer un accès semi-libre aux publications est celui entrepris conjointement depuis 1992 par la nasa, et le cds (Strasbourg), connu sous le nom de Astrophysics Data System (ads). Dans ce système d’accès libre sur Internet, les articles sont recensés et accessibles soit intégralement sur abonnement, soit par leur titre, auteur(s) et résumés de façon libre. Il s’agit là d’un outil exceptionnel d’accompagnement bibliographique de tout travail de recherche en astronomie.
Il n’est pas inutile de rappeler combien les préoccupations d’éthique connaissent une actualité renouvelée, notamment à propos de la publication
40
L’observation en astrophysique
Fig. 1.19 – Relation entre publication et outils d’observation. Les courbes donnent les nombres d’articles de la revue Astrophysical Journal (incluant Letters et Supplements), dont le titre contient la mention d’un des instruments majeurs, entrés en service aux États-Unis lors de la période considérée. En 2006, l’ensemble de ces articles a représenté environ le quart de tous les articles publiés par ce journal. (Extrait de Burton, W.B., in Future Professional Communication in Astronomy, op. cit., avec l’aimable autorisation de l’auteur et de l’éditeur.)
des travaux de recherche. Citons ici un extrait d’un avis formulé en France par un comité d’éthique11 , qui recommande les conduites suivantes : – Identifier et soutenir des systèmes de publications accessibles et de qualité, afin d’assurer une diffusion du savoir la plus large possible. – Sensibiliser les acteurs de la recherche aux différentes modalités de communication de leurs résultats (...). – Réfléchir à corriger les abus de situation dominante ou de monopole des publications. – Envisager des formules pour contrebalancer la prédominance de l’anglais dans les systèmes de diffusion des connaissances en favorisant en particulier le bilinguisme et éventuellement dans certaines disciplines la traduction assistée par ordinateur. – Sensibiliser celui qui produit les connaissances à sa responsabilité éthique. L’acte de publication doit être raisonné, la contribution doit être appropriée, équilibrée, justifiée en dépassant les seules 11 Comité d’éthique du cnrs (comets, mars 2007). www.cnrs.fr/fr/organisme/ethique/comets. Voir aussi le Universal Code of Ethics for Scientists publié par le Conseil britannique pour la science et la technologie.
1. L’information en astrophysique
41
motivations de progression de carrière ou de présence dans la compétition internationale. – S’agissant de l’évaluation, veiller à fonder le jugement sur des indicateurs diversifiés, prenant en compte l’originalité, l’inventivité des résultats, sans se limiter à des critères uniquement quantitatifs tels que facteurs d’impact des revues ou index de citations.
Nous ne discutons pas ici le dernier point évoqué dans cet avis, à savoir les systèmes de mesure de notoriété d’une publication, d’un auteur ou d’une institution grâce à la mesure des taux de citation. Il s’agit d’un vaste et important sujet, qui dépasse le cadre de cet ouvrage.
This page intentionally left blank
Chapitre 2 L’atmosphère terrestre et l’espace Tout au long de l’histoire, l’atmosphère terrestre a représenté un écran entre l’observateur et le reste de l’univers. Pour les pré-coperniciens, elle est, par sa mobilité, le lieu des éléments ignés et sépare le monde sublunaire de celui des astres. Depuis Galilée et jusqu’à la conquête spatiale, elle a limité les photons observables à l’étroite fenêtre du rayonnement visible, récemment1 augmenté des radiofréquences. Malgré l’accès récent à l’espace, le sol terrestre offre des commodités irremplaçables de coût et d’accès. Dans la stratégie globale de l’observation astronomique, la connaissance précise des propriétés de l’atmosphère de la Terre est indispensable : elle seule permet de définir quelles sont les possibilités et les limites de l’observation au sol, de déterminer, pour chaque longueur d’onde du spectre, l’altitude optimale à laquelle s’élever et de choisir les sites d’implantation des instruments nouveaux. Le choix d’un site est une opération essentielle, mettant en jeu de multiples facteurs, que nous décrivons. Le continent antarctique, désormais accessible à l’astronomie, offre pour l’avenir des possibilités sans doute considérables. Ce chapitre examine successivement les propriétés physiques et la composition de l’atmosphère, d’où découle son opacité, c’est-à-dire ses propriétés d’absorption du rayonnement, variables selon la longueur d’onde. La diffusion atmosphérique interdit l’observation diurne dans le visible ; elle est responsable de la pollution lumineuse la nuit. La réfraction et la dispersion écartent la direction apparente d’un astre de sa direction vraie, de façon chromatique. L’émission thermique de l’atmosphère rend également le ciel émissif de jour comme de nuit et perturbe l’observation infrarouge et millimétrique. La turbulence atmosphérique dégrade les images, introduit des fluctuations de phase qui perturbent le fonctionnement des télescopes et des interféromètres. L’ionisation de la haute atmosphère crée un plasma qui modifie la propagation des radiofréquences. L’ensemble de ces phénomènes est de surcroît 1 La première observation radioastronomique est due à Karl Jansky (1905-1950, États-Unis), qui a observé le Soleil en 1933 à l’aide d’une antenne de télécommunication.
44
L’observation en astrophysique
variable dans le temps et très fortement dépendant, pour la plupart d’entre eux, du site d’observation. Au cours du xxe siècle, l’accès à l’espace2 a permis d’ouvrir à l’observation la totalité du spectre électromagnétique. Pourtant, même dans l’espace, des phénomènes parasites demeurent, qui, comme l’atmosphère de la Terre, perturbent les observations. Il n’est pas illogique de les aborder également dans ce chapitre.
2.1
La structure physico-chimique de l’atmosphère
Nous examinons dans cette section les propriétés très variables de l’atmosphère terrrestre en fonction de l’altitude, ce qui conduit à placer des observatoires soit au niveau de la mer, soit en haute montagne, soit à bord d’avions ou de ballons stratosphériques, selon les propriétés recherchées pour la longueur d’onde d’observation requise.
2.1.1
Structure verticale
L’atmosphère terrestre est, en première approximation, en équilibre radiatif avec son environnement : le bilan net et global sur toute la Terre des flux reçus du Soleil et réémis vers l’espace conduit à une distribution de températures, pressions, etc. grossièrement stationnaire dans le temps, mais présentant toutefois des cycles diurnes, annuels, voire séculaires. La structure moyenne de l’atmosphère est décrite en fonction de l’altitude z par les lois de température T (z) et de densité ρ(z) (Fig. 2.1). On distingue la troposphère (∂T /∂z < 0 généralement) et la stratosphère (∂T /∂z > 0), séparées par la tropopause. La hauteur de la tropopause varie très fortement avec la latitude, jusqu’à presque atteindre le niveau du sol sur le continent antarctique (altitude du dôme polaire Sud ∼3-4 km). À toute latitude, des écarts importants à la distribution moyenne s’observent au voisinage du sol. Il existe notamment des couches d’inversion, où le gradient de température change de signe sur une certaine épaisseur, qui peut dépasser le kilomètre. Entre 0 et 90 km, la composition de l’air peut être considérée comme constante et la pression approximativement décrite par la loi exponentielle : P (z) = P0 exp(−z/H)
H=
R Tm , M0 g
où H est l’échelle de hauteur, M0 la masse moléculaire moyenne de l’air, et Tm une température moyenne. Avec R = 8.32 J K−1 mole−1 , M0 = 0.029 kg, on obtient la valeur H = 7 998 m ≈ 8 km au voisinage du sol. 2 Les premiers ballons équipés de détecteurs datent des années 1910, les premières fusées scientifiques (utilisant la fusée allemande V-2) de l’année 1946, les premiers satellites sont mis en orbite à partir de 1960.
2. L’atmosphère terrestre et l’espace
45
Fig. 2.1 – Profil de température T (z), de masse volumique ρ(z) et de pression P (z) de l’atmosphère moyenne. Les noms des couches et leurs frontières sont ceux qui sont adoptés par l’Organisation Météorologique Mondiale. (D’après U.S. Standard Atmosphere.)
La valeur du gradient adiabatique de l’air sec vaut environ 0.01 ◦ m−1 au voisinage du sol et est donnée par l’expression ∂T Cp − Cv g = − M0 [Cp , Cv , chaleurs spécifiques] , ∂z ad R Cp et tout gradient supérieur, en valeur absolue, au gradient adiabatique correspond à une instabilité convective de l’atmosphère, et donc à la création de courants verticaux. Les observatoires spatiaux sont plaçés sur des orbites au-dessus de 300 km, altitude à laquelle la quantité résiduelle d’atmosphère n’est pas encore totalement négligeable (Fig. 2.2).
2.1.2
Constituants atmosphériques
Les constituants majoritaires sont le dioxygène O2 et le diazote N2 , dont la proportion relative reste constante entre 0 et 100 km. L’étude des constituants minoritaires dans ces même couches est un actif domaine de recherche, compte tenu de leur rôle dans le maintien des conditions physiques à la surface de la Terre (flux ultraviolet, bilan radiatif), ainsi que de la perturbation possible de
46
L’observation en astrophysique
Fig. 2.2 – Profils de température, masse volumique et masse moléculaire entre 0 et 700 km d’altitude. Ce profil moyen connaît des variations importantes avec la latitude ou l’activité solaire. (United States Standard Atmosphere.)
l’équilibre naturel par l’activité humaine. Certains de ces constituants jouent également un grand rôle par rapport aux observations astronomiques, par suite de leur importante absorption dans certaines bandes spectrales : c’est tout particulièrement le cas de la vapeur d’eau, du gaz carbonique et de l’ozone.
Vapeur d’eau Le rapport de mélange est défini localement par : r=
masse H2 O par m3 (mesuré habituellement en g kg−1 ). masse air par m3
Ce rapport varie entre 0 et une valeur maximale rs (T ), caractéristique de la saturation et fonction très rapidement variable de la température de l’air (Fig. 2.3a). Le rapport de mélange dans l’atmosphère est fonction de l’altitude ; il est très variable avec le temps et la latitude (Fig. 2.3b).
2. L’atmosphère terrestre et l’espace
47
Fig. 2.3 – a) Concentration massique de l’eau dans l’air à saturation, sous pression normale, en fonction de la température. b) Rapport de mélange r(z) de la vapeur d’eau dans l’air, en fonction de l’altitude, pour une atmosphère moyenne, r(z) est mesuré en g kg−1 , de façon à être voisin de l’unité dans les conditions les plus fréquemment rencontrées au sol.
La quantité d’eau précipitable au-dessus de l’altitude z0 est une grandeur intégrée, définie par : ∞ w(z0 ) = NH2 O (z) dz, z0
où NH2 O (z) est le nombre de molécules par unité de volume, P0 et T0 les températures et pressions normales : NH2 O (m−3 ) = 4.3 × 1025
P T0 r(z) P0 T
On exprime également cette quantité en hauteur d’eau : −3
hH2 O (cm) = ρ0 (g cm
∞
)
r(z)e−z/H dz
z0
où ρ0 est la masse volumique de l’air à l’altitude z0 . À cause de la variation rapide de r(z) avec l’altitude, l’échelle de hauteur de la vapeur d’eau est significativement inférieure à celle de l’air sec H et vaut environ 3 km dans la troposphère. Aussi l’installation sur une haute montagne, à plusieurs kilomètres d’altitude, améliore-t-elle significativement la qualité d’un observatoire, en particulier dans l’infrarouge et aux longueurs d’onde millimétriques. Le plateau antarctique (altitude de 3 000 m) offre également des conditions très favorables (cf. § 2.8).
48
L’observation en astrophysique
Ozone La répartition verticale de l’ozone dépend de la latitude et de la saison. L’intérêt s’est focalisé sur cette couche après qu’ont été mises en évidence les perturbations possibles dues à l’activité humaine, notamment le rôle destructif des produits industriels tels les fluorocarbones (années 1980). Ramenée aux conditions normales, la quantité d’ozone intégrée sur toute l’épaisseur de l’atmosphère varie entre des épaisseurs de 0.24 cm STP (Standard Temperature Pressure) et de 0.38 cm en passant des basses aux hautes latitudes. Le maximum de concentration se situe autour de 16 km, mais l’ozone est présent jusqu’à 80 km. Il absorbe principalement le rayonnement ultraviolet (λ 300 nm). Gaz carbonique Ce constituant présente également une importante absorption infrarouge, sa répartition verticale suit celle de O2 et de N2 , et son rapport de mélange est indépendant de l’altitude. Son absorption est dominante dans l’infrarouge moyen. Ions L’atmosphère s’ionise progressivement au-dessus de 60 km, sous l’effet du rayonnement ultraviolet solaire, par une série de réactions photochimiques du type : − O2 + hν → O+∗ 2 +e
[O+∗ 2 désigne un état excité de O2 ],
O2 + hν → O+ + O + e− . Les réactions inverses de recombinaison ou de désexcitation (radiative ou collisionnelle) se produisent également, si bien que la densité électronique n’est pas constante à une altitude donnée. Elle varie très fortement avec l’altitude et l’illumination solaire (cycle jour-nuit, dit circadien), ainsi qu’avec l’activité solaire. Les éruptions solaires provoquent une croissance du flux ultraviolet, ainsi que des précipitations d’électrons (Fig. 6.37, cahier couleur), canalisées le long des lignes de force du champ magnétique terrestre, qui ionisent l’atmosphère aux latitudes élevées (zones aurorales). On distingue des couches ionosphériques correspondant aux maxima relatifs de la densité électronique Ne , comme présenté dans le tableau 2.1. Tab. 2.1 – Couches de l’ionosphère. Couche
Altitude (km)
Densité électronique Ne (cm−3 )
D E F
60 100 150–300
103 105 2 × 106
2. L’atmosphère terrestre et l’espace
49
Au-delà, l’ionisation demeure sensiblement constante, jusqu’à une altitude de 2 000 km, avec Ne ∼ 104 cm−3 .
2.2
L’absorption du rayonnement
L’absorption du rayonnement par les constituants atmosphériques peut être totale ou partielle : totale, elle permettra de définir, à une altitude donnée, les fenêtres de transmission, ou encore l’altitude minimale à laquelle il est nécessaire de travailler pour qu’une observation soit possible ; partielle, elle conduira à une modification du spectre des sources observées, spectre qui sera affecté de raies d’absorption tellurique parasites, dont on souhaitera connaître la position, l’intensité, la largeur équivalente (cf. § 8.1). Transitions atomiques et moléculaires Ces transitions sont responsables de l’absorption à des longueurs d’onde discrètes. Les transitions mises en jeu sont : – les transitions moléculaires de rotation pure (H2 O, CO2 , O3 ...), – les transitions moléculaires de rotation-vibration (CO2 , NO, CO...), – les transitions moléculaires électroniques (CH4 , CO, H2 O, O2 , O3 ou radicaux tels que OH), – les transitions atomiques électroniques (O, N...). La physique atomique et moléculaire permet de calculer les coefficients d’absorption κi (λ) (dimension cm2 g−1 ) ou les sections efficaces (dimension cm2 ) de ces différentes transitions pour un constituant donné, en fonction de la longueur d’onde. Ces coefficients sont souvent donnés pour P = 1 atm, T = 273 K : une correction est nécessaire pour tenir compte des variations avec l’altitude. La physique atomique calcule les sections efficaces σ (cm2 ) et les conditions physiques du gaz déterminent la population ni (cm−3 ) d’un niveau d’énergie donné. Le coefficient d’absorption massique est alors : κi =
σni · ri ρ 0
À une altitude z0 , la profondeur optique sur une ligne de visée verticale d’un constituant i dont le rapport de mélange est ri (z) est donnée par l’expression : ∞
τ1 (λ, z0 ) =
ri (z)ρ0 (z)κi (λ)dz, z0
où ρ0 (z) est la masse volumique de l’air.
50
L’observation en astrophysique
L’atténuation par l’atmosphère d’un rayonnement incident d’intensité I0 reçu à l’altitude z0 et dont la direction fait un angle θ avec celle du zénith (distance zénithale) s’écrit : I(z0 ) 1 = exp − τi (λz0 ) , I0 (∞) cos θ i où la sommation est faite sur toutes les espèces absorbantes : σni κi = · ri ρ0 La figure 2.4 donne en fonction de la longueur d’onde les altitudes z0 auxquelles le rapport I (z0 , λ, θ = 90◦ )/I0 (∞, λ) a respectivement les valeurs 0.5, 0.1, 0.01, ce qui correspond aux profondeurs optiques respectives de 0.69 (transparent), 2.3 et 4.61 (opaque). Cette figure couvre l’ensemble du spectre électromagnétique, depuis la coupure du plasma ionosphérique à λ = 23 m (radiofréquences), jusqu’au rayonnement γ de plusieurs GeV. L’atmosphère est totalement opaque si τ0 = 10, et on peut considérer que les observations astronomiques deviennent raisonnablement possibles lorsque τ (λ, z) 0.5, soit une transmission supérieure à 61 %. Qualitativement, les longueurs d’onde millimétriques sont dominées par les raies de rotation pure de H2 O et de O2 , les domaines infrarouge et submillimétrique par les raies de rotation de H2 O et de CO2 , ainsi que par les raies de rotation-vibration de ces constituants, le proche ultraviolet par les transitions électroniques de O2 et O3 . Dans le proche ultraviolet apparaissent les bandes d’absorption continue de l’oxygène O2 , caractéristiques de l’ionisation de cette molécule dans l’ionosphère. Le continu d’absorption de N2 domine l’ultraviolet lointain (λ < 20 nm). Aux longueurs d’onde inférieures à 10 nm, l’ionisation des molécules est totale et le coefficient d’absorption devient sensiblement constant. L’épaisseur optique d’une couche de longueur l (cm) s’écrit alors, P0 et T0 désignant les conditions normales : P T0 τλ 10 nm ∼ 30 l (cm) · P0 T À ces longueurs d’onde et même à des pressions faibles comme celles rencontrées à l’altitude des ballons stratosphériques (z = 30 km, P = 10−3 P0 ), on a τ = 1 (transmission de 37 %) pour un très court parcours de longueur l = 30 cm. L’examen de la figure 2.4 permet de définir les domaines respectifs des observatoires astronomiques au sol ou dans l’espace : – L’astronomie au sol est limitée au visible, au proche infrarouge (λ 25 μm) où subsistent de nombreuses régions d’absorption, ainsi qu’aux longueurs d’onde millimétriques, (λ 0.35 mm), affectées d’une absorption non négligeable, puis centimétriques et au-delà.
2. L’atmosphère terrestre et l’espace
51
Fig. 2.4 – Atténuation du rayonnement électromagnétique par l’atmosphère. Les courbes donnent les altitudes z0 (échelle de droite) ou la fraction résiduelle d’atmosphère, en masse au-dessus de z0 (échelle de gauche), pour trois valeurs du rapport I(z0 , λ, θ = 0◦ )/I0 (∞, λ). Chacaltaya est un site andin (altitude ∼ 6 000 m).
– L’astronomie spatiale couvre tout le reste du spectre électromagnétique : γ, X et ultraviolet (uv), puis infrarouge (ir) ; on note néanmoins que la transmission 50 % se produit à des altitudes assez différentes selon la longueur d’onde : l’astronomie X ou γ sera marginalement possible à l’altitude des ballons (30 à 40 km), de même que l’observation du proche UV (λ > 200 nm). L’observation infrarouge et submillimétrique est possible dès l’altitude de 12 km, qu’atteint sans difficulté un avion de type commercial (Airbus, B747) ou sur les dômes du plateau antarctique. Les coûts relativement plus réduits des plates-formes intermédiaires (avions ou ballons) ont amené à leur emploi intensif dans les décennies 1960−1980, puis décroissant progressivement par la suite (1980−1990) avec l’émergence de puissants observatoires spatiaux. On peut citer par exemple l’observatoire infrarouge et submillimétrique kao (Kuiper Airborne Observatory) de la nasa, formé d’un télescope de 0.9 m de diamètre volant à bord d’un avion gros porteur et dont un successeur de 2.5 m de diamètre (sofia) se prépare à voler (2007). Le cnes (France) a fait voler dans les annés 1990
52
L’observation en astrophysique
un grand télescope stratosphérique (2 m), emporté par un ballon dépassant 30 km d’altitude (Pronaos). Il est prévisible qu’à l’avenir de telles platesformes seront réservées à des missions très spécifiques, puisque désormais la majeure partie des observations se fait à partir de véritables observatoires en orbite, spécialisés dans un domaine de longueur d’onde donné, leur orbite étant optimisée pour les observations correspondantes. La maîtrise désormais acquise des conditions d’observation permet donc de s’affranchir totalement de l’absorption atmosphérique et d’ouvrir à l’observation astronomique du rayonnement électromagnétique un domaine d’énergie s’étendant sur plus de seize décades, facteur considérable s’il est comparé à l’octave de l’astronomie visible traditionnelle (350 à 800 nm). Raies telluriques En spectroscopie astronomique (cf. Chap. 8), il est fréquent d’étudier une raie située non loin d’une raie d’absorption atmosphérique3 et de chercher à l’en distinguer. La figure 2.5 fournit un bon exemple d’une telle situation. La connaissance précise du profil de la raie atmosphérique est alors nécessaire4. Le profil des raies d’absorption moléculaire (rotation ou vibration-rotation) est généralement un profil de Lorentz, caractérisant des raies où l’amortissement est dominé par les collisions (effet de pression). La section efficace d’absorption présente alors une dépendance en fréquence ϕ(ν, ν0 ) dont l’intégrale sur la fréquence est normalisée à l’unité : ϕ(ν, ν0 ) =
ΔνL /2π , (ν − ν0 )2 + (ΔνL /2)2
dans l’approximation d’impact (voir AF, § 2.20.2), ν0 est la fréquence centrale de la transition, et ΔνL sa largeur totale. ΔνL est relié au temps moyen τ séparant deux collisions par : ΔνL = (πτ )−1 . Ce profil, qu’on observe sur les raies atmosphériques de la figure 2.6, représente bien le noyau des raies, mais en sous-estime généralement les ailes. La pente moyenne d’atténuation, croissante avec la fréquence, est due à l’effet cumulé des ailes de nombreuses raies faibles de H2 O. L’atténuation est mesurée en dB km−1 . Cette grandeur se convertit en profondeur optique : τ = 0.23× Atténuation (dB km−1 ). 3 Une revue détaillée des raies atmosphériques dans le domaine des radiofréquences se trouve dans Methods of Experimental Physics, vol. 12 B. Un inventaire des raies telluriques dans le visible et le proche infrarouge se trouve dans les atlas du spectre solaire, où ces raies apparaissent en absorption. 4 En astronomie millimétrique, une mesure très précise de la quantité d’eau sur la ligne de visée, suivie d’une modélisation soignée des raies, permet quasiment d’éliminer leur présence dans les spectres observés.
2. L’atmosphère terrestre et l’espace
53
Fig. 2.5 – Absorption tellurique et spectroscopie. Le spectre de l’étoile γ Cas. Spectre obtenu avec le télescope de 3.6 m (Canada-France-Hawaii) au Mauna Kea (4 200 m) avec un interféromètre à transformée de Fourier (cf. § 8.3), dans la fenêtre de transmission atmosphérique du proche infrarouge, avec une résolution de Δσ = 0.5 cm−1 . (Chalabaev A., Maillard J.-P., Ap. J., 294, 640, 1984.) Les bandes d’absorption atmosphérique sont indiquées ainsi que les fenêtres photométriques I, J et K (cf. § 3.3). Le spectre de l’étoile présente un continu et des raies (principalement les raies de recombinaison de l’hydrogène atomique) en émission. L’encart montre la raie 3-4 Paschen α (5 331.6 cm−1 ) extraite de la partie fortement absorbée du spectre : le spectre de l’étoile γ Cas a été divisé par celui d’une étoile de référence (α Leo) pour éliminer les raies atmosphériques. Comme αLeo (type spectral B7) contient également les raies de l’hydrogène, la valeur absolue de l’intensité dans la raie Pα n’est pas significative. L’observation de la raie Pα serait impossible dans un site d’altitude inférieure. (Avec l’aimable autorisation de l’Astrophysical Journal.)
Plasma ionosphérique Les couches ionisées et donc conductrices de la haute atmosphère terrestre ont un indice de réfraction n lié à la densité électronique Ne (cm−3 ) par l’expression : 2 ωp2 λ n2 = 1 − 2 = 1 − , ω λp
54
L’observation en astrophysique
Fig. 2.6 – Atténuation horizontale du rayonnement par les constituants atmosphériques, principalement O2 et H2 O, dans le domaine millimétrique. Les constituants qui sont à l’origine des raies spectrales sont identifiés et le profil des raies est lorentzien. Conditions d’observation : (—) Altitude 0.25 km. T = 273 K, ρH2 O = 7.5 g m−3 . (- - -) Altitude 4 km. T = 273 K, ρH2 O = 1 g m−3 .
où la fréquence de plasma νp = νp (Hz) =
ωp = 2π
2π λp
est donnée par :
Ne e2 4π 2 ε0 m
1/2 = 8.97 × 103 Ne1/2 .
La couche F par exemple (Ne = 2 × 106 cm−3 ) présente une réflexion totale pour λ = 23.5 m (ν ≈ 12 MHz), longueur d’onde pour laquelle n = 0. L’ionosphère est donc généralement transparente aux longueurs d’onde centimétriques et métriques et ce fait explique le développement rapide de la radioastronomie au sol.
2.3
Les émissions atmosphériques
L’atmosphère terrestre émet des photons, soit par fluorescence, soit par émission thermique ; la discrimination entre cette émission et les sources
2. L’atmosphère terrestre et l’espace
55
astronomiques recherchées est une des principales limitations de l’observation au sol dans les domaines visibles, infrarouge et millimétrique. Il convient d’étudier non seulement l’intensité et la dépendance en longueur d’onde de ces émissions, mais encore leurs éventuelles fluctuations spatiales ou temporelles. Outre ces photons, qui proviennent d’une conversion du rayonnement lumineux solaire incident, l’atmosphère peut également engendrer des photons à partir de particules incidentes (électrons ou autres). Ce cas est présenté brièvement dans cette section, et plus longuement dans la suivante à propos du rayonnement γ.
2.3.1
Émissions de fluorescence
La recombinaison des électrons et des ions produits par les réactions diurnes de dissociation photochimique provoque l’émission de photons. Cette émission est dite de fluorescence parce que les faibles probabilités de désexcitation des niveaux conduisent à une émission qui peut être différée de plusieurs heures par rapport à l’excitation. Cette émission est formée d’un continu et de raies d’émission. Elle porte également le nom d’airglow (Fig. 2.7) et n’est sensible que la nuit, la diffusion (cf. § 2.4) dominant de jour.
Fig. 2.7 – a) L’atmosphère terrestre photographiée depuis la station orbitale Skylab (1973-1974), pendant la nuit. On distingue clairement la luminescence nocturne de la haute atmosphère (couche vers 100 km d’altitude). L’observation tangentielle accroît la profondeur optique, donc la brillance observée. Une aurore polaire est également présente sur le cliché. (Cliché nasa.) b) Image reconstituée des régions polaires de la Terre, photographiées depuis un satellite. On note le terminateur jour-nuit, ainsi que l’anneau caractéristique de la ceinture aurorale. (Cliché dû à Franck L. A., université d’Iowa, États-Unis.) Un anneau auroral similaire est observé sur la planète Jupiter.
La fluorescence principale se produit vers 100 km, à une altitude où la densité est suffisamment faible pour que la désexcitation radiative, ayant une probabilité de transition spontanée A > 102 s−1 , se produise avant la désexcitation collisionnelle.
56
L’observation en astrophysique
Les principales sources d’émission sont les atomes et radicaux O I, Na I, O2 , OH, H. Dans la notation spectroscopique utilisée en astronomie, O I est l’oxygène neutre, O II l’oxygène ionisé une fois, etc. L’intensité intégrée de l’émission se mesure en rayleigh, unité ainsi définie : 1 rayleigh =
106 1.58 × 10−7 photons cm−2 s−1 sr−1 = W m−2 sr−1 . 4π 4πλ(nm)
Le tableau 2.2 résume les principales fluorescences de l’atmosphère dans le domaine visible et à ses proches frontières infrarouge et ultraviolette. On notera qu’à l’exception des zones aurorales (latitude magnétique supérieure à 70◦ ), dans lesquelles l’ionisation est provoquée par l’injection d’électrons, l’émission du ciel ne présente pas de dépendance marquée en latitude. On notera également la présence de raies de l’hydrogène atomique, produites par diffusion multiple résonante de la lumière solaire dans la très haute atmosphère de la Terre (géocouronne d’hydrogène). La fluorescence du radical OH est importante dans le proche infrarouge (Fig. 2.8). Tab. 2.2 – Émissions atmosphériques (d’après B. M. MacCormac, 1971). λ (nm)
Émetteur
Altitude
Intensité
(état)
(km)
(Rayleigh)
Processus(*)
102,5
H Ly β
200
10
R
121,6
H Ly α
102 –105
2 000
R
260–380
O2
90
600
C
500–650
NO2
90
1 RÅ−1
C
557,7
O
90–300
250
C, I
589,3
Na
C
630
O
761,9
O2
A3 Σ+ u 1
S 2
1
P
D
90
20–150
300
10–500
I
80
6 000
C
(*) R : diffusion résonnante ; C ou I : réaction chimique ou ionique. Å désigne l’ancienne unité Angström, 1 Å = 0.1 nm.
Le télescope spatial Hubble, placé en orbite basse (vers 600 km), mesure facilement le fond de ciel. Ces mesures5 mettent en évidence : (i) une émission géocoronale à la longueur d’onde de la raie Lyα (121.6 nm), dont l’intensité est de 3 à 20 k rayleigh selon l’angle entre la direction de visée et celle du Soleil ; (ii) l’émission de l’oxygène atomique OI résiduel, mesurable le jour seulement, d’environ 5 k rayleigh ; (iii) un continu de diffusion zodiacale, conforme aux modèles de l’atmosphère zodiacale diffusante (cf. § 2.4). Sur la figure 2.9 sont données les magnitudes visibles et ultraviolettes du fond du ciel observé depuis le sol et depuis l’espace circumterrestre. Ces magnitudes sont données pour un angle solide de référence 5 Caulet
A. et al., Astron. Astrophys. Suppl. Séries, 108, 1-8, 1994.
2. L’atmosphère terrestre et l’espace
57
Fig. 2.8 – a) Transmission de l’atmosphère (à l’altitude z0 = 4 200 m) dans tout le domaine infrarouge et submillimétrique. Les bandes photométriques (cf. § 3.1) sont indiquées par leur dénomination conventionnelle. La transparence submillimétrique, relativement bonne, correspond à une quantité de vapeur d’eau précipitable inférieure à 1 mm. b) Brillance du fond de ciel dans le proche infrarouge, à l’altitude de Mauna Kea (4 200 m). La température effective du corps noir (à droite) représentant au mieux l’émission est T = 228 K avec une émissivité ε = 0.184 (d’après Traub et Stier, 1976), tandis que les limites supérieures de l’émission du radical OH dans les bandes photométriques J, H et K sont indiqués à gauche (d’après McLean I., 1993). égal à une seconde d’angle carrée : elles mesurent l’éclairement produit par une seconde d’angle carrée de fond de ciel. On y note l’intensité de la raie Lyα (λ = 121.6 nm) de l’hydrogène géocoronal (∼7 × 10−3 photon s−1 cm−2 arc sec−2 ). Aux longueurs d’onde supérieures à 400 nm, la correspondance est sensiblement la suivante : à une magnitude m = 27 arc sec−2 correspond un éclairement monochromatique de 10−7 photon s−1 cm−2 nm−1 arc sec−2 .
Cette excitabilité des constitutants atmosphériques, parasite pour l’observation astronomique, est précieuse pour l’étude fine de l’atmosphère : composition locale, température, physico-chimie. Les techniques de lidar (Light Detection And Ranging), proches du radar, désignent l’excitation, provoquée généralement par laser accordable, de constituants atmosphériques et l’étude
58
L’observation en astrophysique
Fig. 2.9 – Magnitudes visibles et ultraviolettes du fond du ciel observé depuis le sol et depuis l’espace circumterrestre. Les lettres désignent les bandes spectrales de référence du système photométrique (cf. § 3.1) auxquelles correspondent les points (•). (D’après Courtès G., Comm. pers. ; Smith H.E., Burbidge E.M. Ap. J., 210, 629, 1979 ; Leinert C., Sp. Sc. Rev., 18, 281, 1975 ; Machetto F. et al., E.SA-SP, 1028, 1980, Agence Spatiale Européenne.) de leur désexcitation par la mesure de la lumière rétro-émise. Elles ont inspiré la méthode de création d’étoiles artificielles, précieuses pour l’optique adaptative (cf. § 6.3). Discrimination des sources astronomiques faibles La dimension angulaire moyenne d’une image d’étoile, observée au travers de l’atmosphère turbulente de la Terre étant fréquemment de l’ordre de la seconde d’angle (cf. § 6.2), il est courant de mesurer l’émission du fond de ciel en magnitude (échelle logarithmique définie § 3.3) par seconde d’angle carrée.
2. L’atmosphère terrestre et l’espace
59
Calculons la magnitude d’un carré de fond de ciel, d’une seconde d’angle de côté, correspondant à une fluorescence d’intensité 1 R Å−1 à 550 nm, sachant qu’une magnitude 0 correspond à un éclairement monochromatique de 3.92 × 10−8 W m−2 μm−1 : 1.58 × 10−7 × (2.35 × 10−11 sr) × 104 = 4π × 550 0.537 × 10−17 Wm−2 μm−1 arc sec−2 , soit mv (ciel) = 24.6 arc sec−2 . Même en utilisant une technique soustractive entre deux points voisins du ciel, il sera difficile, à cause des fluctuations temporelles et/ou spatiales de cette émission, d’extraire d’une plaque photographique, ou d’une image numérisée électronique, le signal d’une galaxie dont la magnitude est significativement supérieure à la magnitude mv (ciel). Un contraste inférieur à 1 % (soit 5 magnitudes) est en effet difficile à détecter. En outre, l’émergence de techniques d’imagerie à la limite de diffraction des grands télescopes (optique adaptative, cf. § 6.3) conduit à se préoccuper très soigneusement de la « granularité » du fond aux fréquences spatiales élevées, sous peine de perdre dans l’objet l’information à ces fréquences.
La limite de l’observation au sol des objets très faibles est donc due à la luminance propre du ciel nocturne. Un gain significatif sur la brillance du fond du ciel est obtenu dans l’espace comme le montre la figure 2.9, mais il y subsiste néanmoins un fond de rayonnement dû à l’environnement du système solaire (cf. § 2.9). Si l’objet a une dimension angulaire propre très inférieure à la seconde d’angle et s’il est possible au sol de réduire l’effet de la turbulence atmosphérique, c’est-à-dire de diminuer l’angle solide de ciel observé simultanément, la contribution du fond de ciel va fortement diminuer et le contraste, donc la détection, s’en trouver amélioré. C’est ce qu’obtient l’optique adaptative déjà citée.
2.3.2
Émission thermique
L’atmosphère terrestre peut être considérée comme un gaz en équilibre thermodynamique local (etl), jusqu’à une altitude de 40 à 60 km, au-delà de laquelle les collisions se produisent à un taux insuffisant pour assurer la thermalisation des niveaux. Un calcul élaboré de transfert de rayonnement permet de déterminer l’intensité spécifique reçue au sol à une longueur d’onde donnée. Une approximation simple est possible lorsque l’atmosphère est optiquement mince, c’est-à-dire lorsque l’épaisseur optique zénithale τλ est petite devant l’unité, ce qui correspond à une atmosphère transparente à la longueur d’onde considérée. Dans ce cas, l’intensité reçue à l’altitude z et à la distance zénithale θ est : 1 Iλ (z) = τλ Bλ (T ) , cos θ
60
L’observation en astrophysique
Tab. 2.3 – Émission thermique moyenne de l’atmosphère. Bande photométrique (cf. § 3.3) Longueur d’onde moyenne (μm) Épaisseur optique moyenne τ Magnitude (arc sec−2 ) Brillance monochrom. (Jy arc sec−2 )
L 3.4 0.15 8.1 0.16
M 5.0 0.3 2.0 22.5
N 10.2 0.08 –2.1 250
Q 21.0 0.3 –5.8 2 100
(1 jansky = 10−26 W m−2 Hz−1 )
où Bλ (T ) est la fonction de Planck à la température moyenne de l’atmosphère T , et θ la distance zénithale. Les longueurs d’onde auxquelles sont satisfaites les deux conditions τλ < 1 et Bλ (T ) non négligeable sont celles correspondant aux fenêtres du proche infrarouge (1 à 20 μm) et à celles du domaine millimétrique (0.5 à 2 mm). Le tableau 2.3 donne en direction du zénith la magnitude infrarouge (grandeur définie § 3.3) du ciel dans une seconde d’angle carrée en adoptant T = 250 K comme température moyenne de la région émissive de l’atmosphère terrestre. Il s’agit évidemment de valeurs moyennes, la dispersion des valeurs pouvant être significative selon le site considéré. Les objets astronomiques détectables sont moins brillants par plusieurs ordres de grandeur que cette émission du ciel. Le problème de discrimination des sources faibles est semblable à celui rencontré plus haut pour la fluorescence. La figure 2.8 présente un graphe de la transmission atmosphérique dans le domaine infrarouge et millimétrique (Fig. 2.8a), plus précise que la vue générale de la figure 2.5, et un graphe de l’émission atmosphérique dans le proche infrarouge (Fig. 2.8b), dans un des meilleurs sites au monde pour l’observation au sol (sommet du Mauna Kea, Hawaii, z0 = 4 200 m). Sur le premier graphe apparaissent les fenêtres photométriques d’observation telles que définies § 3.1. Sur le second apparaît la croissance extrêmement rapide de l’émission atmosphérique, du côté Wien de la fonction de Planck Bλ (T ), conduisant à des valeurs très élevées de l’émission du fond de ciel à 10 μm (Tab. 2.3). À plus courte longueur d’onde, l’émission thermique est dépassée par l’émission de fluorescence du radical OH. La résolution spectrale du graphe de la figure 2.8b est insuffisante pour résoudre la structure en raies discrètes de cette émission, qui limite fortement la sensibilité de détection par des observations au sol entre 1.6 et 2 μm. On peut d’ailleurs concevoir un dispositif de filtre spectral, formé d’une grille « peignant » le spectre fortement dispersé, éliminant ainsi l’émission de ces raies atmosphériques parasites et permettant par exemple la recherche de galaxies très faibles. Dans les années 1990, ce concept a été appliqué sur différents télescopes, il est opérationnel (2006) sur le télescope japonais Subaru de 8.2 m (Hawaii, cf. § 5.2).
2. L’atmosphère terrestre et l’espace
61
L’importance d’une mesure soignée de la vapeur d’eau précipitable lors de la recherche de sites (cf. § 2.8) est considérable pour l’observation infrarouge, submillimétrique ou millimétrique. On utilise à cette fin un hygromètre spectral, photomètre différentiel qui compare l’émission reçue à une longueur d’onde (vers 13 μm) où l’atmosphère est entièrement opaque et rayonne donc pratiquement comme un corps noir (T = 250 K), et celle reçue à une longueur d’onde (1.8 ou 6 μm) dominée par une raie émise par H2 O et dont la profondeur optique est proche de l’unité, afin d’être très sensible à la valeur de hH2 O . On choisit par exemple λ = 6 μm, où le coefficient d’absorption vaut κ(H2 O) = 102 cm2 g−1 , conduisant à τ (H2 O) = 0.1 pour hH2 O = 0.1 mm, valeur caractéristique d’un site de qualité exceptionnelle, par exemple sur le dôme antarctique.
Cette émission thermique est fluctuante dans le temps, à cause des mouvements turbulents de l’atmosphère. Le spectre temporel de puissance de ces fluctuations est généralement inversement proportionnel à la fréquence6 . L’émission fluctue également avec la direction de visée, puisque l’intégration du flux se fait sur des masses d’air différentes ; la conséquence en est une granularité de l’émission thermique du fond de ciel, source d’un bruit lors de l’observation (cf. § 9.4).
2.3.3
La technique des mesures différentielles
L’émission intense de l’atmosphère et la sensibilité des détecteurs obligent à procéder par mesure différentielle pour éliminer le rayonnement de fond de ciel, qu’il soit d’origine thermique ou de fluorescence. Ceci s’applique dans le visible pour la détection de sources faibles (magnitude mV > 15), comme dans l’infrarouge, le submillimétrique ou le millimétrique. Cela devient impératif, la source fût-elle très brillante, vers λ = 10 μm où se situe le maximum d’émission thermique de l’atmosphère : même pour un pixel de petite taille, par exemple quelques secondes d’angle, l’intensité reçue de l’atmosphère peut être supérieure de plusieurs ordres de grandeur au signal reçu de la source. Il en est de même dans le millimétrique, où la sensibilité exceptionnelle des récepteurs permet la détection d’une émission atmosphérique pourtant loin de son maximum. Considérons (Fig. 2.6) la longueur d’onde λ = 2.6 mm correspondant à une transition très étudiée de la molécule 12 CO. La transmission atmosphérique, dans un site de bonne qualité (z0 ∼ 2 000 m), est d’environ 76 % à cette longueur d’onde, soit τ (2.6 mm) = 0.27. L’émission atmosphérique correspond donc à une température d’antenne (cf. § 7.5) de 0.27 × 273 = 75 K, ou encore à un éclairement spectral de 10 Jy (1 Jy = 10−26 W m−2 Hz−1 ), alors que la source astronomique étudiée peut être beaucoup moins intense, par trois ou quatre ordres de grandeurs. 6 On en trouvera une analyse quantitative dans Kaüfl et al., Experimental Astronomy, 2, 115, 1991.
62
L’observation en astrophysique Pour discriminer dans tous ces cas la source du fond de ciel atmosphérique, on procède à une technique de dépointage (en anglais, offset, ou encore on-off ) en pointant le télescope successivement sur la source et sur une partie voisine de ciel supposée vide de sources. Un voisinage de quelques minutes d’angle est adéquat, l’hypothèse que l’émission atmosphérique reste spatialement uniforme sur une telle distance apparaissant vérifiée. Par différence des deux mesures, on restitue le signal de la source seule (soustraction de fond de ciel ). Toutefois, les nouvelles techniques de spectroscopie par fibres optiques (cf. § 8.3) prélèvent la lumière très localement en plusieurs centaines de pixels répartis dans un champ de plusieurs minutes d’angle, et la soustraction de fond de ciel peut alors faire apparaître des résidus de fluctuations spatiales, se traduisant par un bruit spatial additionnel. Nous revenons plus en détail au chapitre 9 (§ 9.4) sur les précautions à prendre dans ce type d’observation.
Un second effet vient perturber cette méthode. L’émission atmosphérique fluctue généralement dans le temps (passage de nuages invisibles de vapeur d’eau, excitation variable des fluorescences au cours de la nuit, vents ionosphériques, etc.) à des fréquences assez rapides (f ∼ 0.1−10 Hz). La mesure différentielle va donc comparer deux émissions qui diffèrent aléatoirement, et le résultat de la soustraction sera affecté d’un bruit aléatoire, appelé bruit de ciel (sky noise, en anglais). Ce bruit sera d’autant plus faible que la modulation est rapide entre les deux champs. Dans ce but, on donne au miroir secondaire du télescope dans un montage optique Cassegrain ou Coudé (cf. chap. 5) un mouvement vibratoire sinusoïdal ou mieux en créneau, qui déplace l’image de la source sur le diaphragme délimitant le champ (en anglais, chopping) tout en maintenant rigoureusement constante l’émission thermique du télescope lui-même, émission qui traverse aussi le diaphragme de champ et atteint le récepteur. Les radiotélescopes ont généralement des tailles et donc une inertie trop importantes pour permettre une modulation rapide (>1 Hz) du pointage ou de la position du miroir secondaire, aussi obtiennent-ils cette modulation par un dépointage, naturellement moins rapide, de l’ensemble de l’instrument.
En toute rigueur, le faisceau se déplace sur le miroir primaire lors d’une modulation par le miroir secondaire, puisque le diaphragme de champ est généralement choisi comme étant le miroir secondaire lui-même. Toute variation, même minime, de température ou d’émissivité du miroir primaire produit alors une modulation supplémentaire parasite, appelée biais de mesure (en anglais, offset signal ). Les biais de mesure, effets perturbateurs très importants, sont discutés au chapitre 9. C’est cet effet qui rend si difficiles les mesures dans l’infrarouge ou le submillimétrique et qui disparaît lorsqu’il est possible, dans l’espace, de refroidir les télescopes eux-mêmes.
2. L’atmosphère terrestre et l’espace
63
Le principe de la modulation différentielle a été développé ici pour s’affranchir au mieux de l’émission du fond atmosphérique, mais il s’applique de façon plus générale chaque fois qu’il s’agit de discriminer une source faible et spatialement peu étendue d’un fond brillant plus ou moins uniforme. Ainsi la détection des sources infrarouges galactiques requiert-elle d’éliminer le fond zodiacal (cf. § 2.9). De même, la recherche des fluctuations du fond diffus cosmologique, qui sont de l’ordre de 10−6 fois le rayonnement moyen demande, cette fois dans le domaine submillimétrique, une soustraction de l’émission interstellaire galactique (« cirrus »). La figure 2.10 montre quantitativement la granularité de ce fond galactique, par son spectre spatial de puissance.
Fig. 2.10 – Spectre de puissance de la brillance du fond du ciel, observé depuis une orbite autour de la Terre, dans la direction du pôle galactique Nord à λ = 100 μm. En gras : partie basse fréquence échantillonnée par le satellite iras (1983) avec une résolution de 2 minutes d’angle . En pointillé : partie hautes fréquences déduite de mesures ccd dans le visible. (D’après Low F.J. et Cutri R.M., Infrared Physics, 35, 29-1994.)
2.4
La diffusion du rayonnement
Les molécules des constituants de l’air d’une part, les aérosols en suspension dans l’atmosphère d’autre part sont les constituants responsables de la diffusion atmosphérique. La répartition verticale des premiers suit celle de la densité, donc décroît avec l’altitude, alors que celle des seconds est plus capricieuse (effet des vents, du climat, de la nature du sol, de l’activité volcanique, de la pollution industrielle...). La diffusion du rayonnement des astres
64
L’observation en astrophysique
brillants – Soleil et Lune – conduit de jour au bleu du ciel et de nuit à un voile qui masque les sources astronomiques faibles ; de même que l’émission atmosphérique, la diffusion rend difficile la discrimination des sources faibles. Le caractère très fortement chromatique de la diffusion n’en fait une gêne pour l’observation, tant de jour que de nuit, que dans le visible et le très proche infrarouge. La diffusion due aux molécules dans le visible et le proche infrarouge est la diffusion Rayleigh. La section efficace de diffusion Rayleigh, intégrée sur toutes les directions, est donnée par : σR (λ) =
8π 3 (n2 − 1)2 , 3 N 2 λ4
où n est l’indice de réfraction, N le nombre de molécules par unité de volume. L’indice de l’air à λ = 0.5 μm peut être approché par la loi de Gladstone qui s’écrit : P (mb) n − 1 ≈ 80 × 10−6 · T (K) La diffusion n’est pas isotrope : σR (θ, λ) est fonction de l’angle θ entre la direction du rayonnement incident et celle du rayonnement diffusé (voir AQ, Chap. 5). L’intensité j diffusée dans l’angle solide dω est donnée, pour une intensité incidente I, par dω 3 j = σR (1 + cos2 θ) I. 4 4π Même en l’absence de tout aérosol, la brillance du ciel due à la diffusion Rayleigh n’est pas négligeable. À une altitude de 2 000 m, pour une distance angulaire au Soleil de θ = 90◦ , à la longueur d’onde du rouge λ = 700 nm, le rapport de la brillance du ciel à celle du disque solaire est de 10−7 environ.
La diffusion par les aérosols est contrôlée par une loi différente, car la dimension des particules diffusantes est plus importante que celle des molécules. La section efficace totale d’une sphère de rayon a est donnée par la théorie de Mie7 : σ = πa2 Q = πa2 (Qdiffusion + Qabsorption ). Si a λ, Qd = Qa = 1, la puissance diffusée est égale à la puissance absorbée, et la section efficace est le double de la section géométrique. Si a > λ, la dépendance en λ des deux termes Qd et Qa est complexe, mais on peut admettre que, pour des sphères diélectriques (gouttelettes d’eau ou grains de poussière tels les silicates), on a la relation Qd ∝ λ−1 : l’intensité diffusée varie en λ−1 . 7 La théorie générale de la diffusion par les petites particules se trouve dans l’ouvrage classique de H.C. van de Hulst, Light Scattering by Small Particles, Wiley, 1957. On trouvera aussi des résultats utiles dans AF, § 1.41.
2. L’atmosphère terrestre et l’espace
65
Tout ceci, applicable à la diffusion du rayonnement solaire, s’applique également à la diffusion de la lumière lunaire, laquelle conduit à privilégier, dans les observatoires terrestres, l’observation infrarouge pendant les nuits proches de la pleine lune. La diffusion des lumières urbaines est également un problème pour l’observation astronomique (cf. § 2.8). Observation diurne au sol L’émission thermique de l’atmosphère croît exponentiellement (partie Wien du spectre thermique) lorsque augmente la longueur d’onde du visible au proche infrarouge. Il existe donc une longueur d’onde au-delà de laquelle cette émission dépasse la diffusion diurne. Au-delà de cette longueur d’onde, le cycle jour-nuit n’apporte aucune modification sensible à la brillance du ciel comme le montrent les mesures reportées sur la figure 2.11. Lorsque le pointage d’un télescope est fait de manière absolue (i.e. à la précision de quelques secondes d’angle, sans étoile de référence), l’observation devient possible pendant la journée. Ceci pourrait augmenter de façon importante le temps d’utilisation des grands télescopes optiques au sol, mais d’autres problèmes de contrôle thermique de l’instrument limitent malheureusement cette éventualité. Bien entendu, dans le domaine millimétrique, l’observation circadienne est de routine. Éclipses de Soleil L’émission de la couronne solaire, dans le visible, immédiatement au-dessus du bord solaire (1.03 R du centre du disque, soit 30 du bord) est environ 10−6 fois moins intense que l’émission photosphérique. Cette émission coronale est donc supérieure à la diffusion Rayleigh mais généralement inférieure à l’intensité diffusée par les aérosols (auréole solaire) considérable lorsque l’angle de diffusion est très proche de 0◦ (Fig. 2.11). Même dans un site en altitude, l’observation de la couronne blanche (couronne continue ou K) est donc très difficile en dehors d’une éclipse de Soleil (Fig. 2.12) puisqu’elle se situe à un niveau de 10−6 à 10−9 fois l’émission photosphérique en passant du bord solaire à une distance de 1 R . En revanche, aux longueurs d’onde où l’émission chromosphérique (raie H α) ou coronale (raie du fer XIV, λ = 530.3 nm) est importante et quasi monochromatique, la diffusion atmosphérique peut être pratiquement éliminée par l’usage d’un filtre étroit. Un coronographe (cf. § 6.6) au sol, muni d’un filtre, permet d’éliminer en partie la diffusion atmosphérique et instrumentale qui se situe dans un bon site à 10−5 fois l’émission photosphérique, il permet donc l’observation hors éclipse de la couronne monochromatique. Dans l’espace, seule subsiste la diffusion instrumentale et la couronne est observée plus facilement. L’émission photosphérique aux longueurs d’onde X est négligeable, et la couronne X est donc observée sans coronographe. Les éclipses, moments poétiques de la vie d’un astronome, ont vu leur intérêt battu en brèche par l’observation spatiale.
66
L’observation en astrophysique
Fig. 2.11 – Contributions à la brillance du ciel dans le visible et le proche infrarouge. La diffusion moléculaire est indiquée pour l’altitude z = 2 000 m, à 90◦ du Soleil. La dépendance en longueur d’onde est en λ−4 , et ignore le terme correctif dû à la variation n(λ) − 1 de l’indice avec λ. L’émission thermique est également tracée, en supposant une émissivité moyenne uniforme de 0.1, laquelle dépend notamment de la quantité d’eau précipitable. Le point de croisement des deux courbes indique, en l’absence d’aérosols, la longueur d’onde au-delà de laquelle l’observation peut indifféremment être diurne ou nocturne. La ligne tiretée indique une contribution additionnelle possible d’aérosols, en λ−1 , qui déplace vers la droite le point de croisement. On a reporté pour comparaison la brillance du ciel (•) mesurée dans un site astronomique (Kitt Peak National Observatory, Arizona) à 0.5 du bord solaire. (Source : P. Léna, non publié.)
2.5
La réfraction et la dispersion atmosphérique
L’indice de l’air n(λ) dépend de la longueur d’onde dans le vide λ0 . Dans l’air sec, entre 0.2 et 4 μm, l’expression suivante, où λ0 est en μm, est valide dans les conditions de pression P = 1 atm et de température T = 15 ◦ C : [n(λ) − 1] × 10+6 = 64.328 + 29 498.1(146 − 1/λ20 )−1 + 255.4(41 − 1/λ20 )−1 . Aux radiofréquences (centimétrique et au-delà), la réfraction n’est pratiquement pas chromatique. La réfraction atmosphérique se traduit par l’aplatissement du disque solaire à l’horizon. Son caractère dispersif produit le phénomène de rayon vert au lever ou coucher du Soleil, ou encore l’aspect parfois
2. L’atmosphère terrestre et l’espace
67
Fig. 2.12 – L’éclipse qui a bouleversé l’astrophysique. Ce cliché a été obtenu par l’astronome britannique Eddington, lors de l’éclipse du 29 mai 1919 : c’est en comparant les positions des étoiles proches du limbe solaire à celles d’un cliché distant de plusieurs mois que fut mis quantitativement en évidence le déplacement dû à la courbure gravitationnelle de l’espace, prédite par Albert Einstein. (Document issu de l’exposition commémorative Einstein in Berlin, 2005.)
coloré de la scintillation des étoiles. Plus important pour l’observation est le fait que la distance zénithale apparente θ d’une étoile diffère de sa distance vraie θ. La réfraction est fonction de l’épaisseur d’air traversée, donc dans une atmosphère stratifiée plan-parallèle, de la quantité m = 1/ cos θ, appelée masse d’air. Cet effet est faible, bien que non négligeable : θ − θ ∼ −2 entre 0.3 et 0.8 μm pour θ = 45◦ . En outre, l’effet est chromatique par dispersion, d’où l’étalement coloré de l’image d’une étoile observée loin du zénith. Ces effets de réfraction différentielle et de dispersion ne peuvent être ignorés dès que la résolution angulaire devient significativement meilleure que la seconde d’angle, ce qui est le cas en imagerie à haute résolution, et tout particulièrement en optique adaptative (cf. § 6.3) et interférométrie optique (cf. § 6.4). Un dispositif optique compensatoire (correcteur de dispersion) est alors utilisé. Des effets analogues de réfraction et de dispersion ionosphérique s’observent aux radiofréquences, puisque l’indice du plasma ionosphérique est fortement chromatique (cf. § 2.2).
68
2.6
L’observation en astrophysique
La turbulence de l’atmosphère terrestre
La description statique et homogène des propriétés de l’atmosphère est évidemment insuffisante. Milieu essentiellement variable, dont les fluctuations conditionnent l’observation astronomique, l’atmosphère est même impossible à décrire par un modèle fluctuant unique. Ses fluctuations spatiales ont des longueurs d’onde allant de plusieurs milliers de kilomètres (dépressions et anticyclones) au millimètre (dissipation visqueuse) ; de même, ses fluctuations temporelles ont des périodes allant des évolutions climatiques séculaires à la milliseconde, temps caractéristique de la déformation des images. De surcroît, ces fluctuations spatiales ou temporelles sont éminemment non stationnaires. Les fluctuations spatiales à grande échelle ( km) peuvent conduire à des effets systématiques, par exemple à des erreurs sur la détermination des positions en astrométrie par le biais de la correction de réfraction atmosphérique. (cf. Chap. 4). On ne considérera ici qu’une description limitée aux petites échelles spatiales ( km) et temporelles (1 s), échelles caractéristiques en particulier des phénomènes de turbulence atmosphérique ayant une influence directe sur l’observation astronomique. L’hypothèse de stationnarité, souvent nécessaire à un traitement statistique raisonnablement simple, n’est en général pas réalisée dans la situation réelle d’observation. Sous cette hypothèse, il devient néanmoins possible de donner des fluctuations atmosphériques une description statistique et de déterminer les moments successifs (moyenne, écart-type) des quantités qui interviennent dans la propagation de l’onde électromagnétique. Celle-ci sera traitée en détail § 6.2 à propos de la formation des images.
2.6.1
Turbulence de l’atmosphère inférieure et moyenne
Les couches considérées sont la troposphère (z 12 km) et éventuellement la partie basse de la stratosphère (12 z 20 km). Nous allons examiner ici comment la turbulence se développe dans ces couches en présence de vents et en donner une modélisation relativement simplifiée mais utile à notre propos. Un modèle simple de la turbulence Dans un fluide, la turbulence se développe lorsque le nombre de Reynolds, quantité sans dimension qui caractérise l’écoulement du fluide, dépasse une valeur critique. Ce nombre est défini par : Re =
VL , ν
où V est la vitesse de l’écoulement, ν la viscosité cinématique du fluide et L une dimension caractéristique (diamètre de la veine dans laquelle se produit l’écoulement, dimension de l’obstacle normalement à la vitesse...).
2. L’atmosphère terrestre et l’espace
69
Dans l’air, ν = 1.5 × 10−5 m2 s−1 . Adoptant L = 15 m et V = 1 ms−1 , il vient Re = 106 , largement supérieur à la valeur critique Re ∼ 2 000 qui correspond au passage du régime laminaire au régime turbulent. Pour des valeurs aussi élevées de Re, la turbulence est pleinement développée : l’énergie cinétique des mouvements à grande échelle (∼ L) est progressivement transférée vers des échelles plus petites, avec isotropisation, jusqu’à une échelle l à laquelle l’énergie est dissipée par frottement visqueux. La vitesse locale du fluide turbulent est une variable aléatoire V (r, t) (cf. Appendice II), qui dépend du point r et du temps t. Figeant la turbulence (t = t0 ), V (r, t0 ) se décompose en harmoniques spatiales de vecteur d’onde κ, ϑ (κ) étant également une variable aléatoire : V (r) = ϑ(κ)e2jπκ·r dκ. L’énergie cinétique moyenne (au sens de la moyenne d’ensemble) dE(κ) contenue entre κ et κ + dκ, où κ = |κ|, est proportionnelle à |ϑ(κ)2 |, densité spectrale de la quantité aléatoire V (r). Un raisonnement dimensionnel simple conduit à écrire la vitesse du fluide sous la forme : V ∝ (ε0 R)1/3 , où ε0 est le taux de production (ou de dissipation) de l’énergie turbulente et R l’échelle considérée (R = 1/κ). On a donc : dE(κ) ∝ κ−2/3 dκ. La base du raisonnement dimensionnel est la suivante : à des échelles R grandes devant l’échelle de dissipation visqueuse, la vitesse turbulente V doit être indépendante de la viscosité. Elle ne doit dépendre que de l’énergie déposée ε (J s−1 kg−1 ), de l’échelle R et de la masse volumique ρ du fluide. La seule combinaison de ces quantités ayant la dimension d’une vitesse est (εR)1/3 . (Voir Landau L., Lifchitz E., Mécanique des fluides, Éditions de Moscou, 1971.)
Par intégration, on obtient le spectre de l’énergie cinétique, appelé spectre de Kolmogorov 8 : E(κ)d ∝ κ−5/3 , lorsque κ appartient au domaine d’inertie : −1 L−1 0 κ l0 ,
où l0 et L0 sont respectivement appelés les échelles internes et externes de la turbulence. L’ergodicité (cf. Appendice II) d’une turbulence pleinement développée permet d’écrire l’identité des moyennes d’ensemble et des moyennes temporelles : 2 2 |ϑ(κ)| = |ϑ(κ, t)| . t
8 Andreï
Kolmogorov (1903-1987), mathématicien soviétique à l’œuvre immense. Outre la première étude approfondie de la turbulence dont il est l’auteur, nous retrouvons ses travaux au chapitre 9, à propos du traitement du signal.
70
L’observation en astrophysique
Une turbulence décrite par un spectre de puissance en κ−5/3 est dite homogène. En dehors du domaine d’inertie, le spectre est contrôlé par les modalités de génération et de dissipation. La valeur de l’échelle externe L0 au voisinage du sol varie entre quelques mètres et quelques centaines de mètres. Lorsque la turbulence intervient dans une couche d’air présentant un gradient de température qui diffère du gradient adiabatique, elle mélange, à la même altitude, des masses d’air à des températures différentes et produit donc des fluctuations de température. On montre9 que les équations régissant fluctuations de vitesse et fluctuations de température sont analogues et que la densité spectrale spatiale des fluctuations de température est : Φθ (κ) ∝ κ−5/3 ,
2
2
−2jπκ·r Θ(r).e avec Φθ (κ) = 4πκ
dr
, où Θ(r) est la fluctuation de température par rapport à la moyenne T (r) : Θ(r) = T (r) − T (r) · La densité spectrale de la fluctuation de température présente également des coupures basse et haute fréquence, comme le spectre de l’énergie (Fig. 2.13). Il vient donc également : ΦT (κ) ∝ κ−11/3 . La covariance des fluctuations de température est définie par : BT (ρ) = Θ(r)Θ(r + ρ) , où est une moyenne sur l’espace r. BT (ρ) est la transformée de Fourier de ΦT (κ) (théorème de Wiener, cf. Appendice II) : ΦT (κ)e2jπκ·ρ dκ. BT (ρ) = Cette intégrale diverge si l’on adopte ΦT (κ) en loi de puissance sur [0, +∞[, mais reste finie en présence de la coupure à κm = 1/L0. La fonction de structure de la variable aléatoire Θ(r) est définie par : 2 DT (ρ) = |Θ(r + ρ) − Θ(r)| , 9 Voir Obukhov A.M., Izv. Nauk. SSSR. Ser. Geograf. Geofiz, 13, 58, 1949, qui montre que la concentration d’un additif passif, c’est-à-dire n’affectant pas la dynamique du fluide, et additif, c’est-à-dire ne réagissant pas chimiquement, suit également la loi de Kolmogorov.
2. L’atmosphère terrestre et l’espace
71
Fig. 2.13 – Densité spectrale E(κ) des fluctuations de vitesse dans un fluide turbulent, où la turbulence est isotrope et complètement développée entre les échelles L0 et l0 (turbulence obéissant à la loi de Kolmogorov dans cet intervalle). Les nombres d’onde correspondants sont κm = 1/L0 et κM = 1/l0 . En ordonnée, log E(κ). Une variation de l’intensité de la turbulence (ou de l’énergie injectée à l’échelle L0 ) se traduit par une translation verticale de la courbe.
et reste définie pour tout ρ, d’où l’intérêt de l’introduire. On démontre alors, également par des considérations dimensionnelles, que : π 8 sin Γ 3 3 2 −11/3 DT (ρ) = CT2 ρ2/3 et ΦT (κ) = CT κ = 0.033 CT2 κ−11/3 . 4π 2 CT2 est appelée la constante de structure des fluctuations de température en turbulence homogène. La valeur numérique de CT2 caractérise l’intensité de la turbulence. Dans l’atmosphère, la production de turbulence peut survenir à différentes échelles. Au voisinage du sol, la couche limite planétaire a une épaisseur de l’ordre du kilomètre et la turbulence y est produite par l’écoulement du vent sur les accidents orographiques (Fig. 2.14). La figure 2.15 illustre une mesure de la structure verticale de la turbulence dans les vingt premiers kilomètres au-dessus du sol. La constante de structure CT2 (z) est localement déterminée en mesurant la corrélation de la scintillation des deux composantes d’une étoile double à l’aide d’une technique appelée scidar. L’échelle externe L0 est encore mal connue. Elle varie beaucoup selon les sites et les conditions d’excitation de la turbulence (vent). Ses valeurs peuvent aller de quelques mètres à plusieurs centaines ou milliers de mètres. Sa connaissance est particulièrement importante pour l’interférométrie optique (cf. § 6.4), car elle détermine l’amplitude de la perturbation différentielle de phase (effet piston) entre deux pupilles éloignées.
72
L’observation en astrophysique
Fig. 2.14 – Représentation schématique de la production de turbulence dans l’atmosphère par différents obstacles. L’amplitude des fluctuations de température dépend de l’amplitude de la turbulence et de l’écart entre le gradient de température réel et le gradient adiabatique. Les échelles L1 , L2 et L3 sont caractéristiques des échelles externes de turbulence sous le vent des obstacles 1, 2 et 3. On voit que la sélection d’un site astronomique d’observation devra tenir compte des vents dominants, et des reliefs situés au vent, les tourbillons de turbulence ne s’amortissant que très lentement.
Fig. 2.15 – Sondage optique de la turbulence atmosphérique. En ordonnée : altitude. En abscisse : le temps (durée totale de la mesure 45 min) En niveaux d’intensité : la valeur de CT2 (z, t). Résolution verticale : ±800 m. Résolution temporelle : 20 s. Trois couches turbulentes sont apparentes : la couche limite planétaire au voisinage du sol, une couche à 4.8 km et la couche de la tropopause (10–11 km). Les brusques variations temporelles montrent le caractère intermittent de la turbulence. (Mesures faites à l’Observatoire de Haute-Provence, 1981, par Azouit M. et Vernin J., J. Atm. Sci., 37, 1550.)
2. L’atmosphère terrestre et l’espace
73
À toutes altitudes, des cisaillements de vent peuvent conduire à une interface turbulente entre couches en écoulement laminaire. À la tropopause, ce phénomène peut conduire à des valeurs importantes du CT2 à cause de la grande vitesse (100 à 200 km h−1 ) des vents liés à la circulation générale de l’atmosphère (jetstream). Enfin, la circulation générale de l’atmosphère peut induire, sous le vent d’un relief important, des ondes de gravité, susceptibles de déferler en régime non linéaire d’écoulement également turbulent. Le critère d’apparition de la turbulence en présence d’un cisaillement de vent est donné par le nombre de Richardson : ∂T g Ri = ∂z 2 , T ∂V ∂z
V (z), vitesse du vent.
Lorsque Ri < 0.25, l’écoulement devient turbulent10 . Cette situation est fréquente dans la production de la turbulence terrestre, en présence d’une stratification de densité et/ou de température. En toute rigueur, la quantité devant figurer dans l’expression précédente est Tp , température potentielle, et non T . La température potentielle est la température que prendrait un élément de volume d’air sec particulier, lorsqu’il serait amené adiabatiquement à une pression de 1 bar. Il est donc possible, à partir d’un ensemble de sondages verticaux de l’atmosphère (ballons-sondes) de connaître la distribution CT2 (z). On mesurera, à l’aide de deux sondes thermométriques à réponse rapide, distantes de ρ, la fonction de structure DT (ρ) des variations de la température, à différentes altitudes. Cette distribution peut également être mesurée depuis le sol à l’aide de méthodes optiques (Fig. 2.15), ou indirectement à partir de son effet sur les images astronomiques par détermination du paramètre de Fried r0 et son évolution temporelle (cf. § 6.2).
La connaissance de la turbulence locale est un paramètre essentiel dans le choix d’un site astronomique. Fluctuations de température et indice de l’air Les fluctuations de température et de concentration de H2 O entraînent des fluctuations de l’indice de réfraction de l’air. Celui-ci s’écrit : n = n0 (T, CH2 O ) + jk(CH2 O ), expression où la partie imaginaire k, importante dans l’infrarouge et le millimétrique, correspond à l’absorption par H2 O au voisinage des bandes de 10 Woods J.D., Radio Sc., 4, 1289, 1969, discute la transition entre régimes laminaire et turbulent dans les écoulements atmosphériques.
74
L’observation en astrophysique
celle-ci (nous négligeons la concentration des autres constituants, leur rapport de mélange étant très variable localement). Les fluctuations de la partie réelle Δn = n0 − n0 s’écrivent : Δn =
∂n0 ∂n0 Θ+ c. ∂T ∂C
Pour de faibles valeurs de la concentration CH2 O , caractéristiques des sites astronomiques, on peut écrire : 2 Δn =
∂n0 ∂T
2
2 Θ ·
Les fluctuations étant isobares, la relation de Gladstone conduit à : ∂n0 80 × 10−6 = P, ∂T T2 avec P en mb (1 millibar = 100 pascals) et T en kelvin. La fonction de structure de l’indice s’écrit de même : Dn (ρ) = Cn2 ρ2/3 , avec une constante de structure de l’indice Cn reliée à CT par : Cn =
80 × 10−6 P (mb) CT . T 2 (K)
Une fluctuation de la concentration de l’absorbant entraîne une fluctuation de la partie imaginaire de l’indice, donc une fluctuation de l’absorption et de l’émission thermique de l’élément de volume considéré (bruit de ciel, cf. § 2.3 et § 9.4). La connaissance de l’intégrale des fluctuations sur une ligne de visée suffit en première approximation à l’étude de la propagation d’une onde, aussi caractérise-t-on la turbulence atmosphérique d’une couche donnée par le produit CT2 Δh, où Δh est l’épaisseur de la couche turbulente considérée. Le tableau 2.4 donne des valeurs typiques de ce produit qui seul intervient dans la formation d’image (cf. § 6.2), pour des couches minces (quelques centaines de mètres) situées à différentes altitudes. Tab. 2.4 – Intensités typiques de la turbulence atmosphérique. Altitude de la couche (km)
3
6
10
2 Cn Δh (cm1/3 )
4 × 10−13
13 × 10−13
7 × 10−13
2. L’atmosphère terrestre et l’espace
75
Dépendance temporelle de la turbulence En un point r donné, la température T (r, t) est une fonction aléatoire du temps, dont on peut, en régime stationnaire, définir la densité spectrale temporelle (cf. Appendice II), qui caractérise le contenu en fréquences temporelles du phénomène. Une hypothèse simple consiste à considérer la turbulence comme « gelée » (hypothèse de Taylor ) avec le spectre spatial E(κ) ci-dessus, et à supposer qu’un vent uniforme translate la masse d’air à la vitesse V (Fig. 2.16). Le spectre temporel se déduit alors simplement en faisant : ρ = V κ.
Fig. 2.16 – Effet d’une turbulence « gelée » sur le front d’onde. Cette séquence d’images représente l’évolution temporelle de la fonction d’intercorrélation (en contours) de la phase de l’onde émise par une étoile (source quasi ponctuelle) et atteignant la pupille circulaire d’un télescope (diamètre D = 3.6 m) après traversée de l’atmosphère. L’intercorrélation est faite entre l’instant 0 et des instants successifs distants de 40 ms. On identifie clairement le déplacement uniforme du pic d’intercorrélation (cf. Appendice II), « poussé » par un vent dont on détermine ainsi la direction et la vitesse (14 m s−1 ). Télescope de 3.6 m de l’eso, La Silla, Chili. (Document dû à E. Gendron, 1994.)
La fréquence de coupure temporelle est alors V /l0 , soit avec l0 = 10 mm et V = 10 m/s, fc = 103 Hz. Cette valeur de fc correspond bien à l’ordre de grandeur des fréquences les plus élevées présentes dans la déformation des images. Dans un site donné, la turbulence, se produisant dans chacune des couches atmosphériques s’il y en a plusieurs, est généralement une superposition de
76
L’observation en astrophysique
turbulence « gelée » et de turbulence plus locale, au sens où cette dernière n’est pas translatée par un vent horizontal, mais résulte plutôt d’une convection verticale, par exemple au voisinage du tube ou du dôme du télescope (bouillonnement ou, en anglais, boiling). L’origine physique de l’hypothèse de Taylor est simple : les temps d’évolution propre de turbulence sont significativement supérieurs au temps que met un élément turbulent, déplacé par le vent, à défiler devant la pupille d’entrée d’un télescope.
2.6.2
Turbulence ionosphérique
Dans le plasma faiblement ionisé qu’est l’ionosphère, la densité électronique Ne fluctue. L’expression de l’indice de réfraction n(ν) conduit à :
n(ν) =
νp2 1− 2 ν
1/2 ·
L’observation montre que l’écart-type des fluctuations relatives de la densité électronique Ne reste faible11 : 1/2 ΔNe2 ≈ 10−3 Ne . La fonction de corrélation de l’indice est bien représentée par une distribution gaussienne : ρ2
n(r)n(r + ρ ≈ exp − 2 ,
n(r)2 2a (ν) dans laquelle a(ν) est une longueur typique de corrélation. Pour Ne = 105 cm−3 (νp = 45 MHz), on observe a = 0.1 à 1 km. La densité spectrale, transformée de Fourier de l’autocorrélation, est alors également gaussienne.
2.7 2.7.1
L’atmosphère, convertisseur de rayonnement L’astronomie γ au sol
Avec la détection de photons de plusieurs centaines de Ge, nous entrons ici dans le domaine de l’astronomie γ à très haute énergie. Ici une émission, en apparence parasite, de l’atmosphère terrestre est utilisée pour détecter le rayonnement γ de sources d’intérêt astronomique. On 11 On trouvera dans Methods of Experimental Physics, vol. 12a, une discussion détaillée des fluctuations d’indice ionosphérique par T. Hagfon.
2. L’atmosphère terrestre et l’espace
77
peut considérer que l’atmosphère est ici un vaste détecteur (calorimètre électromagnétique), indirect, du rayonnement γ. Ce qui suit aurait donc pu être également traité au chapitre 7. En pénétrant dans l’atmosphère, les photons γ de haute énergie, d’origine astronomique, produisent des paires e+ e− qui, en ralentissant, émettent d’autres photons de haute énergie. Ces photons produisent à leur tour des paires électroniques et le processus se répète. Dans la haute atmosphère, les particules mises en jeu dans ces cascades sont relativistes, elles possèdent une vitesse plus grande que celle de la lumière dans ce milieu et émettent donc ˇ du rayonnement Cerenkov (cf. § 7.6). Cette bouffée très courte (quelques nanosecondes) de lumière bleue peut être détectée. Le signal est cependant très faible et doit être concentré par de grands miroirs pour être enregistré par des tubes photomultiplicateurs, placés en leur plan focal. Les conditions d’observation sont celles des observatoires dans le domaine visible : ciel très pur et ˇ absence de lumière parasite. La brièveté du signal Cerenkov est utilisée pour s’affranchir du bruit de photons dû à l’émission du ciel nocturne, si bien que la source principale de bruit est due au rayonnement cosmique. Les particules chargées de celui-ci, de haute énergie, produisent en effet des gerbes atmosphériques, analogues à celles initiées par des photons γ. Seule une analyse fine des événements permet de distinguer entre les unes et les autres.
2.7.2
Gerbes atmosphériques et rayons cosmiques
Lorsqu’un proton ou un noyau lourd chargé, d’origine cosmique, atteignent la Terre, ils entrent en collision avec un noyau dans la haute atmosphère et produisent un grand nombre de particules secondaires. Ces particules secondaires, qui se sont partagées l’énergie de la particule incidente, entrent à leur tour en collision avec d’autres noyaux atmosphériques créant un nombre encore plus grand de particules de haute énergie. Ce processus se répète ainsi jusqu’au niveau du sol, où on observe des milliards de particules, d’une diversité considérable, dans une grande gerbe atmosphérique, couvrant une surface de plusieurs dizaines de kilomètres carrés. Les premiers observatoires du rayonnement cosmique, situés sur Terre ou sur un ballon, recherchaient l’altitude pour se trouver plus proches de la source primaire de la gerbe (laboratoire des Cosmiques entre 1940 et 1950 à l’Aiguille du Midi, dans le massif du MontBlanc, France). Nous voyons au chapitre 7 de nombreuses utilisations de ce phénomène.
2.8
Les sites terrestres d’observation
L’importance de l’investissement que représente un observatoire moderne conduit à sélectionner, à la surface de la Terre, le meilleur site possible pour l’y installer, quelles que soient, le cas échéant, les difficultés logistiques associées à
78
L’observation en astrophysique
ce choix. Il est vraisemblable qu’il n’existe qu’un nombre très limité de sites12 de classe exceptionnelle, en égard aux critères retenus ci-dessous, s’agissant respectivement des domaines du visible, de l’infrarouge au millimétrique d’une part, et des ondes radioélectriques (centimétriques et au-delà) d’autre part.
2.8.1
Visible, infrarouge (λ 30 μm) et millimétrique (λ 0.5 mm)
Les critères communs à ces sites sont les suivants : absence de nébulosité, qualité photométrique, transparence infrarouge et millimétrique, enfin qualité d’image. Nébulosité Les régions tropicales et désertiques sont évidemment recherchées de ce point de vue. Dans ces régions, la convection diurne peut conduire, à cause de l’échauffement important du sol, à la formation de nuages, en particulier au-dessus des sommets. La configuration la plus favorable existe lorsqu’une inversion de température (Fig. 2.17) stabilise les couches les plus voisines du sol et empêche la pénétration de la couche nuageuse au-dessus de l’inversion. Les sommets volcaniques de Teide ou de La Palma (îles Canaries), d’Hawaii (Mauna Kea), la chaîne côtière du Chili ou de la Namibie sont des sites qui bénéficient d’un tel régime. La surveillance satellitaire de la Terre fournit une information précise à une résolution de la dizaine de mètres (satellites Spot). Les régions de moindre nébulosité sont concentrées dans deux bandes de part et d’autre de l’équateur (10◦ à 35◦ N et 0–10◦ S à 35–40◦ S), avec certaines fluctuations selon la longitude13 . Qualité photométrique La qualité photométrique d’un site se réfère à la stabilité de la transparence atmosphérique dans le visible. On considère la qualité photométrique comme atteinte dans le visible lorsque six heures consécutives de ciel clair sont obtenues, ce qui permet d’appliquer les corrections d’extinction (cf. § 2.2). Les fluctuations de transmission sont alors de l’ordre de 2 %, soit 0.02 magnitude. Ce critère est insuffisant dans l’infrarouge où d’importantes variations de transmission, dues au passage d’invisibles « nuages » de vapeur d’eau, peuvent coexister avec un ciel dont l’apparence demeure claire. 12 Un excellent résumé des problèmes liés au choix d’un site pour l’astronomie optique se trouve dans Site Testing for Future Large Telescopes, European Southern Astronomy Workshop, J.P. Swings, Ed. Garching, 1983. Voir aussi la bibliographie en fin d’ouvrage. 13 Voir Miller D.B., Global of Cloud Cover, U.S. Dept. of Commerce, 1971.
2. L’atmosphère terrestre et l’espace
79
Fig. 2.17 – Couche d’inversion au-dessus de l’océan Pacifique, au voisinage de l’île d’Hawaii (latitude 30◦ N). Il s’agit d’une inversion de subsidence, due au réchauffement des couches d’air froid animées d’un mouvement descendant provoqué par la circulation générale de l’atmosphère observée dans les cellules de Hadley. (Mesures en ballon-sonde, aimablement communiquées par P. Bely et le Hilo Weather Bureau, Hawaii, États-Unis.)
Transparence infrarouge et millimétrique Il a été montré plus haut qu’absorption atmosphérique, émission thermique, fluctuations spatiales (granularité) et temporelles (bruit de ciel) de cette dernière sont des phénomènes parasites, tous causés par la présence de vapeur d’eau dans l’atmosphère. Aussi la minimisation de la hauteur d’eau précipitable est-elle un critère essentiel dans le choix d’un site. Ce critère favorise à nouveau les sites polaires et les sites tropicaux secs, possédant des régimes anticycloniques saisonniers et à altitude élevée puisque l’échelle de hauteur de la vapeur d’eau est de l’ordre de 2 à 3 km dans la basse troposphère (Tab. 2.5). Ainsi le site andin de Cerro Chajnantor, à la frontière du Chili, de l’Argentine et de la Bolivie, a été choisi à la fin de la décennie 1990 pour y installer le réseau international millimétrique et sub-millimétrique alma (Atacama Large Millimeter Array, cf. § 6.5.1).
Qualité d’image Les fluctuations de température et donc d’indice de l’air perturbent la phase des fronts d’onde électromagnétique (cf. § 6.2), ce qui affecte la qualité des images et des mesures aux longueurs d’onde du visible comme aux longueurs d’onde millimétriques. Plusieurs paramètres caractérisent, au premier ordre, ces effets sur les images astronomiques :
80
L’observation en astrophysique
Tab. 2.5 – Eau précipitable dans divers sites. Site
Altitude (m)
Antarctique (dôme) Jungfraujoch (Suisse) Kardung La (Inde) Kitt Peak (Arizona) La Silla (Chili) Mauna Kea (Hawaii) Mont Lemmon (Arizona) Mont Palomar (Californie) Cerro Paranal (Chili) Chajnantor (Chili) Ténérife (Canaries) Zelenchukskaya (Caucase)
3 000 3 570 5 200 2 130 2 440 4 200 2 600 1 706 2 660 5 100 3 600 2 070
Hauteur d’eau précipitable moyenne (mm) <1.0 (été) 2.8 1.5 7.1 3.9 2.2 4.9 6.0 2.3 <0.5 3.8 5.7
(D’après Chandrasekhar T., Sahu K.C., Desai J.N., Infrared Physics, 23, 119, 1983. Les valeurs de h sont des moyennes et peuvent présenter d’importantes fluctuations saisonnières.)
– l’intégrale de la turbulence sur la ligne de visée : ∞ CT2 (z)dz ≈ CT2i Δhi , z0
i
où la sommation est faite sur i couches turbulentes distinctes d’épaisseur Δhi ; – le temps d’évolution de la turbulence, directement lié à la vitesse du vent Vi dans les différentes couches considérées ; – l’échelle externe de turbulence Li dans chacune de ces couches. Une analyse plus fine de l’effet de la turbulence sur les images montrera qu’une même turbulence, située à des altitudes différentes, possède des effets différents sur l’image. Enfin, la turbulence n’est évidemment pas stationnaire sur les échelles de temps considérées (jours, mois, années), aussi l’histogramme temporel de son intensité est-il également à considérer : un site de qualité moyenne présentant des périodes de qualité exceptionnelle, tel que le Pic du Midi dans les Pyrénées françaises pourra être préféré à un site de qualité plus uniforme. Les effets locaux de relief, illustrés par la figure 2.14, sont souvent dominants dans la production de la turbulence, aussi n’est-il pas possible de donner des règles générales : chaque site astronomique potentiel doit faire l’objet d’une étude approfondie.
2.8.2
La radioastronomie centimétrique et métrique
Les parasites radioélectriques sont la cause principale des perturbations dans ce domaine et leur élimination a guidé le choix des sites, tel celui du
2. L’atmosphère terrestre et l’espace
81
radiotélescope centimétrique de Nançay (France), celui du Very Large Array au Nouveau-Mexique (États-Unis) ou celui du Giant Meterwave Radio Telescope (Pune, Inde). D’autres critères interviennent évidemment dans le choix d’un site : la latitude, afin d’obtenir une couverture maximale des deux hémisphères célestes ; la surface horizontale disponible pour l’installation d’interféromètres : le Very Large Array occupe une plaine de 35 km de diamètre ; l’accessibilité. Ce dernier critère s’effacera sans doute progressivement dans l’avenir, compte tenu des possibilités de télécommande quasi intégrale d’un observatoire et de télétransmission des données d’observation. Les observatoires spatiaux, entièrement automatiques, ont amplement démontré la faisabilité d’un tel fonctionnement qui caractérisera sans doute les observatoires au sol du xxie siècle.
2.8.3
L’astronomie γ de très haute énergie
ˇ La nécessité de détecter un rayonnement bleu Cerenkov très faible en provenance de la haute atmosphère impose les mêmes contraintes que celles affectant les observatoires dédiés à l’observation dans le domaine du rayonnement visible et proche infrarouge : pureté du ciel, quasi absence de précipitations et absence de lumières parasites. Ces contraintes, ajoutées à la requête d’observer le Centre galactique, observable seulement depuis l’hémisphère Sud, ont conduit la collaboration hess à choisir en Namibie, au début des années 2000, le site où installer ses quatre miroirs de 12 mètres de diamètre (cf. § 7.6).
2.8.4
Le rayonnement cosmique de très haute énergie
L’altitude optimale pour la détection directe des particules formant les grandes gerbes atmosphériques, elles-mêmes créées par les rayons cosmiques de très haute énergie, se situe entre 1 000 et 1 500 m. Les sites doivent être plats sur plusieurs milliers de kilomètres carrés pour éviter que les liaisons hertziennes entre détecteurs ne se heurtent au relief. Par ailleurs, la détection du rayonnement du proche ultraviolet (≈ 300 nm) de fluorescence de l’azote atmosphérique, excité par le passage des particules, conduit à des contraintes semblables à celles affectant les observatoires dans le domaine visible. L’observatoire international Pierre Auger14 , situé dans la Pampa Amarilla (ouest de l’Argentine), plate et désertique, met ainsi en œuvre deux techniques ˇ de détection : l’observation d’un rayonnement Cerenkov, produit localement dans des récipients contenant de l’eau (1 600 au total), et l’observation de la fluorescence de l’azote atmosphérique. 14 Pierre Auger (1889-1993), physicien français, observa les rayons cosmiques à l’observatoire de la Jugfraujoch (Suisse).
82
L’observation en astrophysique
2.8.5
Pollutions et parasites anthropogéniques
L’activité humaine engendre de nombreuses difficultés pour le fonctionnement d’un observatoire moderne, dont les récepteurs sont extrêmement sensibles. Citons la pollution lumineuse dans le visible, la pollution radioélectrique, les sources de chaleur telles que les centrales nucléaires qui modifient les microclimats, les vibrations, les aérosols produits par l’industrialisation, enfin les risques d’une utilisation abusive de l’espace extraterrestre15. La pollution lumineuse résulte principalement de la diffusion de l’éclairage public par les aérosols et molécules atmosphériques. L’expression empirique suivante permet d’estimer la pollution lumineuse : log I = 3 − 2.5 log R + log P, où P est la population d’une ville en unité de 105 habitants, R sa distance en km, I le rapport d’intensité artificielle à l’intensité naturelle du fond de ciel (cf. § 2.3) à une distance zénithale de 45◦ . Une ville de 100 000 habitants à 40 km augmente ainsi de 10 % la brillance du ciel nocturne. L’expression s’écrit encore, pour une source de luminosité L (lumens) à la distance R : log I = −4.7 − 2.5 log R + log L. Les avions perturbent également les clichés par leur signalisation lumineuse, ainsi que les satellites artificiels par leur diffusion de la lumière solaire. On retrouve souvent les traces des uns et des autres sur les images astronomiques !
La pollution radioélectrique résulte des émetteurs divers : émetteurs fixes ou mobiles, radiotéléphonie cellulaire, radars, lignes à haute tension, fours industriels, etc. Outre la protection de bandes spectrales spécifiques et essentielles pour la radioastronomie, qui relève du problème général d’allocation des fréquences, un seuil de base de 2 × 10−6 W m−2 a été établi par l’Union Astronomique Internationale. La question des vibrations anthropogéniques est devenue importante avec l’avènement des méthodes d’interférométrie optique ou de détection d’ondes gravitationnelles, qui requièrent une extrême stabilité des instruments, de l’ordre de 10 nm rms ou meilleure. Jusqu’ici, les tests faits dans les bons sites ont montré que la microsismicité naturelle dominait toujours sur les perturbations lointaines. Néanmoins, des précautions s’imposent pour réguler les sources proches, trafic automobile notamment. Le contrôle des aérosols et plus généralement de l’injection de polluants d’origine industrielle dans l’atmosphère est une préoccupation générale du 15 Ces préoccupations sont clairement analysées dans Guidelines for Minimizing Urban Sky Glow near Astronomical Observatories, R. Cayrel et al. (eds.), IAU, 1980 et dans le Rapport sur la protection des observatoires astronomiques et géophysiques, Académie des Sciences, Paris, 1984, ainsi que dans les publications de International Dark Sky Association, noao, Tucson, Arizona.
2. L’atmosphère terrestre et l’espace
83
contrôle de l’environnement. Néanmoins l’activité industrielle, notamment minière, qui peut se développer auprès des sites astronomiques, doit être surveillée avec attention. On a craint pendant un temps qu’une exploitation de l’espace à des fins commerciales conduise à une prolifération de mise en orbite basse de sources de lumière (publicité, éclairage de régions terrestres par miroirs solaires de grande taille), d’écrans radioréflecteurs, de stations productrices d’énergie transportée par faisceaux micro-ondes. Toutes ces éventualités, qui représenteraient une menace pour l’observation astronomique depuis la Terre, ont fait l’objet de réglementations, auxquelles veille l’Union astronomique internationale (uai).
2.8.6
L’Antarctique
La calotte glaciaire qui recouvre le continent antarctique offre des possibilités astronomiques encore peu explorées. L’altitude du plateau, qui est en moyenne de 3 000 m avec un sommet culminant à 5 140 m, offre des sites variés, déjà équipés pour une activité géophysique intense en collaboration internationale (pôle Sud, dôme A, dôme C). La température est très basse sur ce plateau puisque la tropopause tangente pratiquement la surface du sol. L’atmosphère y est extrêmement sèche avec une quantité d’eau précipitable pouvant être inférieure à 0.1 mm. La transmission infrarouge, submillimétrique et millimétrique y est certainement unique sur le sol de la planète et corrélativement l’émissivité y est très faible, conduisant à une amélioration de la sensibilité des observations. La turbulence est très réduite par l’absence de convection à basse altitude et l’absence de jetstream à haute altitude, l’atmosphère étant stratifiée avec un faible gradient vertical de température, ce qui devrait entraîner des qualités exceptionnelles d’images. De fait, les premières mesures systématiques16 de qualité d’image, désormais conduites été comme hiver, ont conclu à une couche turbulente très peu intense et confinée dans une trentaine de mètres au voisinage du sol (Fig. 2.18). En outre, les objets astronomiques demeurent observables à une distance zénithale constante pendant de longues périodes de temps : ceci est précieux pour l’obtention de séries temporelles ininterrompues lors de l’étude d’oscillations solaires ou stellaires, la détermination de périodes d’oscillation stellaire ou l’étude de micro-variabilités temporelles, avec des sensibilités dépassant le millième de magnitude. Les sites antarctiques présentent donc certaines analogies avec l’espace ou le sol lunaire, et font une transition avec les sites terrestres plus traditionnels . L’installation d’observatoires astronomiques permanents de grande capacité est une éventualité vraisemblable au cours du xxie siècle. Des instruments particuliers (antenne millimétrique de 16 Il est possible de suivre les développements rapides et nombreux des études de la qualité des sites antarctiques sur http ://arena.unice.fr.
84
L’observation en astrophysique
Fig. 2.18 – Qualité d’image au Dôme C (plateau antarctique). La dimension moyenne de la tache image d’une étoile (seeing), due à la turbulence, est mesurée à différentes époques de l’année et à trois niveaux d’altitude au-dessus du sol (3.5 m, 8.5 m et 20 m), à l’aide d’un instrument appelé Differential Image Motion Monitor, dimm), utilisé dans les campagnes de recherche de site. Ces moyennes ne rendent pas compte d’une variabilité au cours de la journée, qui conduit par moments à des qualités d’image exceptionnelles. (Document dû à l’obligeance du Laboratoire universitaire d’astrophysique de l’université de Nice et à Eric Fossat.)
1.7 m de diamètre) sont déjà en station au pôle Sud (1995), mis en œuvre par les États-Unis, tandis que de multiples projets sont étudiés pour la station franco-italienne Concordia au Dôme C, notamment à l’occasion de l’Année polaire internationale (2007-2008).
2.9
L’observation dans l’espace
L’accès à l’espace, à partir de 1959, a totalement révolutionné l’observation astronomique. La taille et la complexité des stations d’observation, principalement automatiques, qui ont été placées en orbite n’ont cessé de croître. Leur durée de vie en orbite autour du Soleil, de la Terre ou d’autres planètes a augmenté également, atteignant parfois plus d’une décennie dans le cas des sondes Voyager ou du satellite iue (International Ultraviolet Explorer ). Nous avons fait le choix de mettre de côté dans cet ouvrage l’ensemble des observations et
2. L’atmosphère terrestre et l’espace
85
mesures faites in situ au sein du système solaire, dans les missions nombreuses d’exploration, autour des planètes, à leur surface ou à celle de leurs satellites : ces missions méritent un ouvrage à elles-seules, comme nous l’avons déjà souligné au chapitre 1. Nous nous limitons aux observatoires spatiaux, destinés à l’observation de l’univers lointain. Un observatoire spatial, pratiquement toujours automatique et ne requérant donc pas d’intervention humaine, sinon par télécommande ou par des formes plus raffinées, telles que l’intelligence artificielle ou la téléprésence utilisant les ressources de la réalité virtuelle, n’est pas fondamentalement différent, dans son architecture de base, d’un observatoire au sol. Il contient également télescopes, spectromètres, récepteurs, dispositifs de traitement de données, etc., dont les principes sont traités dans les chapitres suivants. Il n’est évidemment pas possible d’aborder dans ce livre les spécificités des technologies spatiales, formidable sujet qui couvre les lanceurs déterminant orbites et masse des instruments, l’alimentation en énergie déterminant la capacité de manœuvre et de celle de transmission de données, les protections diverses contre les particules, les micrométéorites, etc., et la cryogénie qui assure la durée de vie de la mission, tout comme le contrôle de qualité et les études de fiabilité de l’ensemble des composants du système spatial. Quelques-uns de ces points sont abordés dans les chapitres qui suivent, de façon sommaire, en particulier au § 9.2 à propos de la modélisation d’un observatoire spatial. Traditionnellement, les observations depuis des plates-formes atmosphériques, telles qu’avions (10–20 km), ballons stratosphériques (20–40 km) ou fusées (jusque 300 km) font partie de ce qu’il est convenu d’appeler l’observation spatiale. La figure 2.4 met bien en évidence les domaines spectraux où chacun de ces porteurs à son utilité propre.
2.9.1
Les bénéfices de l’observation spatiale
Les paragraphes précédents ont mis en évidence trois sources principales de perturbation de l’observation astronomique : l’absorption du rayonnement, la turbulence et les émissions parasites. La première limite considérablement le domaine spectral accessible, la seconde la qualité des images (résolution) et les dernières ont un double effet : elles créent d’une part un fond uniforme, duquel il faut distinguer les sources faibles ; d’autre part, leurs fluctuations spatiales (granularité) ou temporelles (bruit de ciel) introduisent des bruits qui réduisent la sensibilité des observations. Si l’absorption et la turbulence disparaissent pratiquement dès qu’un observatoire est placé en orbite basse (z 500 km), les émissions parasites subsistent partiellement. Il y a en effet continuité entre la haute atmosphère terrestre, le vent solaire avec lequel elle interagit (magnétosphère) et le nuage zodiacal, constitué de grains de poussière qui diffusent la lumière solaire et émettent leur propre rayonnement thermique. Enfin, les flux de particules
86
L’observation en astrophysique
issus du Soleil ou diffus dans la Galaxie (rayons cosmiques) sont également susceptibles d’interférer avec les systèmes de détection placés à bord d’un observatoire spatial, voire avec ses matériaux eux-mêmes. À l’image du signal atmosphérique qui, utile pour l’étude de l’atmosphère terrestre, perturbe les observations astronomiques, de même les signaux astronomiques liés aux sources proches : nuage zodiacal, Soleil, ou même Galaxie – évidemment intéressants pour l’étude de ces objets – peuvent perturber par leur émission propre l’observation d’objets plus lointains et souvent plus faibles. Certaines de ces contraintes peuvent être contournées par le choix d’orbites appropriées : ainsi l’effet des particules piégées dans la magnétosphère terrestre est largement évité par des orbites basses (moins de 500 km) et équatoriales ou très lointaines (60 000 km et au-delà). D’autres, telle l’émission zodiacale, sont incontournables, tout au moins lorsque l’observatoire reste sur une orbite proche de celle de la Terre.
2.9.2
Les sources de perturbation
Bien que les conditions d’observation dans l’espace libèrent de tous les phénomènes perturbateurs proprement atmosphériques que nous venons d’examiner, d’autres perturbations subsistent lorsqu’un observatoire est placé dans l’espace. Nous les examinons ici. Le nuage zodiacal Cette distribution de grains de poussière est en orbite autour du Soleil au voisinage d’un plan de symétrie très proche du plan de l’écliptique (inclinaison ∼3◦ ). L’émission thermique du nuage zodiacal est importante, à cause de la température de ses poussières chauffées par le Soleil (300 K à 1 u.a.). L’étude de la lumière solaire diffusée (Fig. 2.19) a permis d’y déterminer la distribution spatiale et la répartition de taille des grains. Le nombre de grains de rayon entre a et a + da, à une distance r du Soleil mesurée en unités astronomiques et à la latitude écliptique β est donné par l’expression17 : n(r, β, a) = N0 (a)
a−k exp −2.6 |sin β|1.3 , r(u.a.)
où interviennent trois populations de grains précisées dans le tableau 2.6. L’intensité monochromatique reçue à la Terre peut se mettre sous la forme : I(λ, ε, β) = ID (λ, ε, β) + IE (λ, ε, β), 17 Frazier E.N., « Infrared Radiation of the Zodiacal Light », S.P.I.E., 124, 139, 1977. L’albedo des grains (rapport de l’énergie diffusée à l’énergie reçue) est sans doute en réalité inférieur à celui du modèle de Frazier (Mauser M.G., Ap. J., 278, L19, 1984).
2. L’atmosphère terrestre et l’espace
87
Fig. 2.19 – Lumière zodiacale diffusée, mesurée depuis la Terre. Isophotes de l’intensité diffusée, mesurée dans la direction Δ caractérisée par son azimut ε (le Soleil étant l’origine) et sa latitude écliptique β. P est le pôle Nord de l’écliptique. Les contours d’iso-intensité sont en unités S 10 , c’est-à-dire en nombre d’étoiles de magnitude mv = 10 degré−2 (voir AQ § 73). Pour S10 = 1, la brillance à λ = 540 nm est de 1.26 × 10−8 Wm−2 μm−1 sr−1 , soit 4.3 10−16 B , où B est la brillance moyenne du Soleil à cette longueur d’onde (Levasseur-Regourd A.C., Dumont R., Astr. Ap., 84, 277, 1980). Tab. 2.6 – Taille des grains interplanétaires. a (μm)
k
N0 (cm−3 )
0.008 à 0.16 0.16 à 0.29 0.29 à 340
2.7 2.0 4.33
10−12 1.1 × 10−14 1.9 × 10−17
où ε et β désignent les coordonnées écliptiques de la direction visée (élongation solaire ε et latitude β), ID et IT les contributions dues au rayonnement solaire diffusé et à l’émission thermique propre. L’intensité diffusée ID présente exactement la couleur du rayonnement photosphérique solaire dont l’indice de couleur est (B − V ) = 0.65 : (B − V )D = 0.64. La répartition spatiale de ID est donnée par la figure 2.19 (voir aussi AQ, § 84) et son spectre est donné par la figure 2.20.
La figure 2.20 donne l’intensité rayonnée dans tout l’infrarouge par le nuage zodiacal. Celle-ci dépend évidemment très fortement de la position d’observation : la figure correspond au choix d’une orbite proche de la Terre, ainsi qu’à une direction de visée à 90◦ du Soleil et dans le plan de l’écliptique.
88
L’observation en astrophysique
Fig. 2.20 – Spectre du nuage zodiacal dans le visible et tout l’infrarouge. En ordonnée, la luminance réduite λI(λ). (L’intérêt d’utiliser la luminance réduite est explicité § 3.1). L’encart indique la direction de visée Δ. Les points de mesure de ID sont dus au satellite iras. (D’après Hauser M.G. et al., Ap. J., 278, L19, 1984.) L’émission est ajustée à des points de mesure obtenus par le satellite iras (Infra Red Astronomical Satellite, 1983). Elle peut être représentée en utilisant des grains d’émissivité grise 3.8 × 10−7 et de température moyenne T = 235 K, ou mieux par des grains dont l’émissivité dépend de λ (en λ−1 , cf. § 2.4) et de température 164 K. On note entre les composantes diffusées et thermiques, au voisinage de 3.5 μm, une profonde dépression : ce minimum de l’émission de fond due à cette « atmosphère interplanétaire », parfois dénommé fenêtre cosmologique, facilite à cette longueur d’onde l’observation des objets lointains, donc souvent faibles. Aux longueurs d’onde supérieures à 100 μm, la contribution du fond zodiacal impose de très grandes précautions pour la mesure des rayonnements faibles du fond cosmologique : les missions wmap et planck (lancement 2008) auront ainsi raffiné la connaissance de cette émission (cf. § 7.4). L’accès à l’observation à travers cette « fenêtre » peut s’envisager depuis le sol ou à plus haute altitude. L’émission zodiacale de fond, décroissante lorsque la longueur d’onde augmente entre 1 et 3 μm, laisse alors la place à l’émission de l’atmosphère ou à celle de l’optique de l’instrument si celui-ci n’est pas refroidi. Ainsi, le point d’émission minimale se déplace depuis λ = 1.6 μm (télescope spatial Hubble non refroidi, d’émissivité 0.2) à λ = 2 μm (télescope sol de 8 m optimisé pour l’infrarouge et
2. L’atmosphère terrestre et l’espace
89
d’émissivité 0.03) pour atteindre sa valeur la plus basse à 2.5 μm (cas d’un projet de télescope de 6 m de diamètre à la température de 200 K, d’émissivité 0.03, qui a été envisagé pour être placé sur un dirigeable stratosphérique, à 12 km d’altitude au-dessus du continent antarctique).
L’environnement en particules et photons énergétiques Fond diffus cosmique. Dans les domaines X et γ, cette émission de fond (Fig. 2.21) est principalement due à la superposition des émissions des noyaux actifs de galaxies (quasars, galaxies de Seyfert) émettant à différents décalages spectraux. Elle gêne la visibilité d’une source particulière du champ car les fluctuations de ce fond cosmique agissent comme un bruit sur la mesure du flux d’une source donnée. Entre 10 keV et 1 MeV, ce spectre suit approximativement une loi de puissance : I = 87.4 × 10−2.3 cm−2 s−1 sr−1 keV−1 . Cette source de bruit, dominante dans le domaine X (E < 50 keV) devient négligeable à plus haute énergie (E > 500 keV) car elle est dominée par un autre signal de fond : celui que produisent les interactions des particules chargées avec le détecteur et son environnement. Pour limiter cette source de bruit de fond, on utilise des collimateurs qui la restreignent au champ de vue de l’instrument. Vent solaire. Le vent solaire est un plasma d’hydrogène éjecté par le Soleil et qui se déplace à grande vitesse, en suivant les lignes de champ de l’héliosphère. Il varie avec l’activité solaire et son intensité détermine la taille
Fig. 2.21 – Spectre observé du fond diffus électromagnétique cosmique entre 3 keV et 10 MeV (rayonnements X et γ). La droite est une loi de puissance en E −2.3 qui s’ajuste bien aux observations. (D’après Gruber D.E. et al., 1999, Ap. J., 520, 124.)
90
L’observation en astrophysique
de l’héliosphère. En période d’activité solaire, les éruptions solaires envoient d’énormes bouffées de particules dans le milieu interplanétaire (Fig. 6.37, cahier couleur). Le flux de particules peut alors être multiplié par 1 000 pendant près d’une journée. De tels événements perturbent fortement le fonctionnement des observatoires placés en orbite. Leurs mesures deviennent le plus souvent inutilisables et les instruments, voire même le véhicule qui en est porteur, peuvent être détériorés (pannes électroniques). Il est donc important d’estimer la dose d’irradiation reçue par toutes les parties d’une expérience pendant la durée de la mission afin de sélectionner des composants de qualité appropriée (résistance à l’irradiation). Ceintures de radiation. Les particules chargées du vent solaire, électrons et protons, voient leurs trajectoires modifiées par les lignes de force du champ terrestre. Elles restent piégées dans ce qu’on appelle les ceintures de radiation (ceintures de van Allen 18 ). La ceinture de protons s’étend approximativement entre 1 000 et 15 000 km d’altitude. Les ceintures d’électrons s’étendent jusqu’à 50 000 km et présentent des « cornes » à hautes latitudes géomagnétiques qui descendent à très basse altitude. Il y a deux ceintures ou deux maxima dans la distribution des électrons, le principal vers 20 000 km et un maximum secondaire vers 3 000 km (Fig. 2.22). De plus, le déplacement et l’inclinaison de l’axe géomagnétique par rapport à l’axe de rotation terrestre rapproche les ceintures de la partie australe de l’océan Atlantique, créant ce qu’on appelle l’anomalie sud-atlantique (Fig. 2.23). Rayonnement cosmique. Les protons, électrons et noyaux qui constituent le rayonnement cosmique pénètrent le système solaire et interagissent avec l’héliosphère qui s’oppose à cette pénétration. L’héliosphère est façonnée par le vent solaire et s’étend d’autant plus loin que le Soleil est actif. Elle règle donc la pénétration du rayonnement cosmique en fonction de l’activité solaire : le flux de rayonnement cosmique au voisinage de la Terre est maximum au minimum d’activité solaire et réciproquement (Fig. 2.24). C’est ce qu’on appelle la modulation solaire. La magnétosphère terrestre s’oppose elle aussi à la pénétration du rayonnement cosmique. Fond dû à l’activation de la matière environnante. Les observatoires en orbite subissent l’effet de toutes ces particules et leurs mesures en sont affectées. Les protons du Soleil ou du rayonnement cosmique induisent des réactions de spallation dans toute la matière constituant ou environnant les expériences. Celle-ci devient alors radioactive, elle émet des neutrons et du rayonnement γ soit immédiatement (désexcitation prompte) soit de façon différée suivant le temps de vie des isotopes radioactifs créés. Ainsi, non seulement les particules chargées parasitent directement les détecteurs de rayonnement γ en simulant la détection de photons de haute énergie, mais les 18 James van Allen (1914-2006, États-Unis), physicien et astronome, qui découvrit lors des premiers vols spatiaux (mission Explorer, 1958) les ceintures de radiation – en fait de particules – qui portent son nom.
2. L’atmosphère terrestre et l’espace
91
Fig. 2.22 – Les ceintures de radiation de la Terre. Les courbes d’iso-intensité représentent le flux moyen, intégré sur toutes les directions, d’électrons (à droite) et de protons (à gauche). z est l’axe des pôles magnétiques terrestres, x est dans le plan perpendiculaire, unités en rayon terrestre RT . Unités : nombre de particules cm−3 s−1 au-dessus d’un seuil d’énergie indiqué en MeV. (D’après Daly E.J., 1988,« Evaluation of the space radiation environment for esa projects », esa Journal, 88 (12), 229.)
Fig. 2.23 – Répartition du flux d’électrons (E > 5 MeV) à une altitude de 1 000 km. Les contours sont donnés en nombre d’électrons cm−2 s−1 (le flux est quasi directionnel le long des lignes de force du champ terrestre). Noter l’anomalie sud-atlantique et la concentration sur les zones aurorales. Les données indiquées ne sont quantitativement valables que pour l’époque 1968–1970. (D’après Stassinopoulos, NASA SP-3054, 1970. Avec l’aimable autorisation de M. Stassinopoulos.)
92
L’observation en astrophysique
Fig. 2.24 – Flux de particules du rayonnement cosmique, hors de la cavité terrestre, pour différents nucléons. En ordonnée, Φ est une distribution différentielle d’énergie (nombre de nucléons considérés m−2 sr−1 s−1 MeV−1 ), l’énergie du nucléon est en abcisse. La modulation due à l’activité solaire est visible à basse énergie : (- - -) minimum du cycle solaire en bas, maximum en haut. (—) activité solaire moyenne. (D’après Webber W.R., Lezniak J.A., Astrophys. Sp. Sci., 30, 361, 1974.)
détecteurs sont également aveuglés par l’émission γ de désexcitation de la matière environnante. Le spectre de cette émission est très complexe, comprenant de nombreuses raies de désexcitation, superposées à une émission continue. Cette émission contribue au fond et limite la sensibilité de l’expérience. Comme son spectre a une pente inférieure à celle du spectre de l’émission diffuse, la première dépasse largement la seconde dans le domaine γ. Cette contribution au fond varie avec l’environnement en particules du satellite, dû aux ceintures et au rayonnement cosmique ; elle dépend donc de l’orbite, de la position du satellite sur cette orbite et de l’activité solaire.
2. L’atmosphère terrestre et l’espace
2.9.3
93
Le choix des orbites
L’accès à l’espace permet d’y lancer soit des sondes destinées à la mesure et à l’exploration in situ ou à proximité d’objets du système solaire d’une part, soit des observatoires destinés à la mesure de rayonnement électromagnétique principalement, mais éventuellement gravitationnel dans l’avenir, issus d’objets lointains, hors système solaire, en complétant dans ce cas le rôle des observatoires terrestres. Le choix de l’orbite des sondes est conditionné par l’objet visé : Lune, Mars, Saturne, noyau cométaire, etc. : il s’agit d’organiser un rendez-vous spatial, à l’aide de calculs de mécanique céleste. Les objectifs de l’observation dictent le choix de la position des observatoires. Il faut néanmoins tenir compte d’autres facteurs : puissance et disponibilité de lanceurs ; coût de la mission ; position des stations de réception sur Terre ou des satellites-relais en vue directe d’un observatoire spatial, car les débits de données sont souvent tels qu’il est nécessaire de les transmettre continûment sans stockage intermédiaire à bord. Des compromis sont souvent nécessaires entre la position idéale et la position adoptée. En orbite basse équatoriale (300 à 500 km), desservie par la navette spatiale et la station orbitale internationale (iss), les communications sont faciles et les réparations possibles, la durée de vie est courte à cause des frottements atmosphériques résiduels, la Terre obstrue 2π sr du champ de vue, la nuit et le jour se succèdent rapidement, entraînant des interruptions de visibilité de la source étudiée toutes les heures environ. Une telle orbite a été choisie pour le télescope spatial Hubble à cause de son accessibilité par la navette spatiale. En orbite circulaire haute (6 000 à 100 000 km), le pointage est plus aisé, les durées d’observation longues, l’obstruction par la Terre et l’effet parasite de sa diffusion ou de ses émissions radioélectriques et thermiques plus faibles, mais l’énergie de lancement et la puissance de communication requises, donc les coûts, sont plus élevés. Une telle orbite avait été choisie pour le satellite Hipparcos (1989), mais n’avait pu être atteinte en raison d’une défaillance du moteur de périgée. Un compromis peut être trouvé dans le choix d’une orbite très elliptique, requérant moins de puissance de lancement, s’approchant de la Terre pour y délivrer ses données, ce qui impose un stockage de celles-ci à bord. Mais l’essentiel du temps est néanmoins passé loin de la Terre et de ses émissions parasites. Le satellite iso (Infrared Space Observatory, 1995), placé sur une orbite elliptique, se trouvait ainsi distant de 2 000 à 70 000 km de la Terre. Les meilleures orbites pour les expériences d’astronomie γ sont soit des orbites lointaines, évitant les ceintures de radiation, soit des orbites proches circulaires équatoriales, évitant l’anomalie sud-atlantique et protégées du rayonnement cosmique par la magnétosphère. Ces dernières offrent de loin les meilleures conditions d’observation, mais sont malheureusement difficilement accessibles depuis les plus importants
94
L’observation en astrophysique sites de lancement (cap Canaveral en Floride, Baïkonour en Asie centrale, Kourou en Guyane) et ne présentent aucun intérêt ni économique (télécommunications, télédétection) ni militaire (observation du sol de la Terre) ; elles ne sont donc pas exploitées par les agences spatiales. Elles présentent en outre un certain nombre de problèmes. L’occultation terrestre limite le temps d’observation d’une source ou complique les manœuvres. La liaison radio avec le satellite est en général très courte à moins de disposer d’un grand nombre de stations d’écoute (système de satellites-relais dit tdrss (Transmission Data Relay Satellites System). En général, il est nécessaire de disposer d’une mémoire de masse à bord du satellite. Pour toutes ces raisons et bien que plus « bruyantes », les orbites circulaires lointaines (>60 000 km) ou excentriques (apogée ≈200 000 km) offrent un assez bon compromis avec des conditions d’observation ou d’écoute du satellite moins contraignantes. Il convient de citer enfin des positions très particulières dans l’espace où se combinent, favorablement pour la stabilité d’une orbite, les champs gravitationnels de la Terre et du Soleil : les points de Lagrange 19 . Considérant ces deux corps, il existe cinq points où un objet peut rester en équilibre, stable ou non, tout en co-orbitant avec la Terre (T) autour du Soleil : trois sont situés sur la ligne ST, L1 (entre S et T) et L2 à 1.5 × 106 km symétriquement par rapport à T, L3 opposé à T ; L4 et L5 occupent les sommets des deux triangles équilatéraux symétriques de base ST. Placer un satellite en ces points permet de garder une position fixe par rapport à la Terre comme au Soleil, facilitant notamment communications et conditions thermiques. L’observatoire solaire européen soho (1995) occupe ainsi le point L1 , tandis que L2 accueille ou accueillera les missions européennes Planck (2008), Herschel (2008) et Gaia (2011), puis le jwst (2013) de la nasa, successeur du télescope Hubble.
Aucun projet d’observatoire fonctionnant aux limites du système solaire, donc hors des émissions parasites du Soleil et du nuage zodiacal, n’a encore été sérieusement envisagé pour des raisons de coût et de transmissions rapides vers la Terre.
2.10
La Lune, site astronomique ?
Pratiquement dépourvue d’atmosphère puisque la densité de l’atmosphère lunaire est de 10−14 fois celle de l’atmosphère de la Terre à sa surface, explorée pour la dernière fois par les astronautes de la mission Apollo xvii (1972) et cartographiée complètement par la sonde automatique Clementine (1994), la Lune offre des conditions d’observation très semblables à celles rencontrées 19 Joseph-Louis Lagrange (1736-1813), mathématicien français d’origine piémontaise, auteur d’un fondamental Traité de mécanique analytique utilisant le calcul différentiel. Il a démontré l’existence de points particuliers de stabilité dans le système solaire, points qui portent son nom.
2. L’atmosphère terrestre et l’espace
95
dans l’espace interplanétaire, conditions qui ouvrent l’accès à la totalité du spectre électromagnétique. Nous donnons ici les principales spécificités du sol lunaire, qui plaideraient pour l’installation d’observatoires sur celui-ci. – Le jour lunaire dure 27.321 jours terrestres. La longue nuit autorise de longues durées d’intégration sur une source. Dans les cratères polaires, et tout particulièrement le profond cratère découvert au pôle Sud, le Soleil affleure l’horizon et offre à la fois une source d’énergie et une quasi-nuit permanente. – La surface lunaire est stable. Son activité sismique est inférieure à celle de la Terre d’un facteur 108 . Elle peut fournir aux télescopes une assise d’inertie pratiquement infinie. Cette stabilité est particulièrement précieuse pour l’interférométrie à longue base, qui pourrait s’y étendre sur des bases hecto- ou kilométriques, sur les mers ou les fonds de cratères, aux longueurs d’onde allant de l’ultraviolet au millimétrique. – La position absolue instantanée de la Lune par rapport aux référentiels stellaires (cf. Chap. 4) est connue avec une très grande précision, bien supérieure à la détermination de position d’un observatoire placé en orbite. La position de la Lune, en absolu et par rapport à la Terre, est connue de façon remarquablement précise, puisque les déterminations de distance se font à quelques millimètres près. – La température du sol varie très fortement, sauf peut-être aux latitudes élevées, entre le jour et la nuit : de 90 à 400 K. Ceci est un inconvénient majeur pour la protection thermique des instruments, mais les basses températures atteintes par le sol en feraient une source cryogénique précieuse pour le refroidissement des télescopes dans les domaines infrarouge et submillimétrique, et des détecteurs. – La faible gravité lunaire (0.16 g) facilite la construction de grandes structures à la fois rigides et légères. Elle est néanmoins suffisante pour assurer une retombée rapide aux poussières qui couvrent le sol, contrairement à ce qui se passe dans l’espace où tout débris coorbite avec sa source. Néanmoins, une incertitude demeure quant à l’influence du champ électrique de surface sur les poussières, car la surface est chargée par effet photoélectrique du rayonnement ultraviolet solaire et par la charge d’espace associée. – La face de la Lune qui demeure cachée à la Terre est entièrement dépourvue de parasites radioélectriques d’origine anthropogénique, une situation extrêmement favorable à l’installation de radiotélescopes. Par ailleurs, l’absence d’ionosphère autorise la radioastronomie à très basse fréquence, de 30 MHz à 100 kHz, soit une longueur d’onde λ comprise entre 10 m et 30 km, impossible à recevoir sur Terre sauf dans des conditions exceptionnelles. La
96
L’observation en astrophysique combinaison avec un radiotélescope sur satellite autoriserait alors des observations à très longue base, même à ces fréquences. Ce domaine spectral est pratiquement inexploré jusqu’ici. – Les inconvénients, outre le coût d’installation d’une base lunaire robotisée ou servie par des hommes, tiennent au bombardement permanent de la surface lunaire par le vent solaire et le rayonnement cosmique, à son intense irradiation solaire en EUV et X et aux impacts micrométéoritiques permanents (100 microcratères supérieurs à 0.05 mm formés par mètre carré et par an).
Bien que les perspectives de l’installation d’une base astronomique lunaire soient peut-être encore lointaines, il importait de les mentionner, car sous certains aspects, le site lunaire peut apparaître comme supérieur aux sites orbitaux.
Exercices Exercice 2.1. À partir du rapport de mélange de la vapeur d’eau dans l’air (Fig. 2.3), calculer la quantité totale d’eau précipitable au-dessus des altitudes 4 km (montagne type Hawaii) et 12 km (observatoire aéroporté). Exercice 2.2. La section efficace d’absorption de l’oxygène moléculaire est de l’ordre de κ = 10−1 cm2 g−1 . Calculer l’épaisseur optique horizontale de l’atmosphère sur une longueur l = 1 km à l’altitude z = 4 km, dans la raie de l’oxygène moléculaire, de longueur d’onde λ = 4.8 mm (ν = 62.5 GHz). Comparer aux valeurs données à la figure 2.6. Calculer l’épaisseur optique verticale intégrée sur toute l’atmosphère. Réponse La masse de O2 rencontrée sur une distance horizontale par unité de surface : l · ρ0 (z)/M0 /5 · M (O2 ), où ρ0 (z)/M0 est la densité moléculaire à l’altitude z, M (O2 ) est la masse moléculaire de O2 . Az = 4 km, M0 = 29 g et ρ0 (z) = exp(−z/H)M0 · P0 /(RT0 ) = 774 g m−3 , soit τ = 103 · 774/29/5 · 32 · (10−1 10−4 ) = 1.7 (à comparer à ce qu’indique la figure 2.6) : τ = (A/1 dB km−1 ) × 0.23 = 5 × 0.23 = 1.15). Verticalement, la masse de O2 rencontrée par unité de surface est : M(O2 )/M0 ρ0 (z)dz, 5 soit à partir du sol : τ = 22.6 et à partir de z = 4 km : τ = 13.6. Donc l’atmosphère est optiquement épaisse dans cette raie.
2. L’atmosphère terrestre et l’espace
97
Exercice 2.3. Déterminer le coefficient γ d’amortissement de la molécule H2 O pour la transition de rotation pure λ = 2.1 mm, à partir du profil de la raie supposé lorentzien (Fig. 2.6). Comparer la valeur obtenue à la fréquence de relaxation collisionnelle à la pression considérée. Exercice 2.4. À partir de la variation de l’atténuation horizontale d’une raie de O2 en fonction de l’altitude (Fig. 2.6), calculer l’échelle de hauteur de ce constituant dans la troposphère. Calculer l’échelle de hauteur de H2 O pour les concentrations utilisées à la figure 2.6. Réponse La variation d’atténuation horizontale est : A(O2 )αρo2 (z)α exp(−z/H) d’où H = (z2 − z1 )/ log(A1 /A2 ). On déduit de la figure 2.6 les ordres de grandeur : H = 8 km pour O2 H = 4.5 km pour H2 O. Exercice 2.5. Quelle est la limite en longueur d’onde des observations possibles dans le proche ultraviolet à partir d’un site d’altitude (observatoire du Pic du Midi : z = 2.86 km ; observatoire de Mauna Kea à Hawaii, z = 4.2 km) ? Exercice 2.6. Calculer la fréquence de collision des constituants atmosphériques à l’altitude z = 100 km et la comparer à la probabilité de désexcitation radiative spontanée de l’oxygène neutre OI, dans la transition 1 S−1 D, λ = 557.7 nm, avec A = 1.34 s−1 . Réponse Pour z = 100 km, T = 210 K et P = 10−3 mb, la vitesse typique d’une molécule est : 3/2kT = 1/2M0/N v 2 d’où v = (3kT N/M0). Avec une densité moléculaire typique : n = P N/RT . On déduit le temps typique entre deux collisions : t = (RT /P N )1/3 · (M0 /3RT )1/2 = 7 × 10−10 s. Soit Ac = 1.5 × 109 s−1 Arad . La désexcitation collisionnelle est bien plus probable que la désexcitation radiative spontanée.
98
L’observation en astrophysique
Exercice 2.7. Dans un site astronomique de qualité moyenne, la tache image d’une étoile a une dimension de 2 . Dans un site exceptionnel, et par instants, un télescope particulièrement optimisé peut donner une image dix fois plus petite. Quel est alors le gain en contraste obtenu pour la détection d’un quasar (dimension angulaire 1 ) ? pour la détection d’une galaxie (dimension >1 ) ? Réponse L’énergie d’un objet non résolu (un quasar ici) est diluée dans la tache qu’il produit dans le plan image. Le gain sur la résolution spatiale se transmet donc directement sur le contraste. En revanche, il n’a aucune influence sur un objet résolu (le flux reçu par pixel reste identique). Outre l’amélioration de la résolution des images, l’emploi de techniques d’optique adaptative permet donc d’augmenter le pouvoir de détection d’objets faibles non résolus. Exercice 2.8. Observations submillimétriques à Hawaii. On mesure la fluctuation spatio-temporelle de l’émission atmosphérique Iσ (θ, t) où θ est l’azimut de la direction visée, et t le temps. L’observation est faite à Mauna Kea (Hawaii), z = 4.2 km, σ = 11 cm−1 . L’émission est supposée Rayleigh-Jeans, de température de brillance T = 100 K. En ordonnée est portée la fluctuation ΔT (mK) de cette température de brillance (Fig. 2.25).
Fig. 2.25 – Fluctuations spatio-temporelles de l’atmosphère aux longueurs d’onde submillimétriques (Mauna Kea, Hawaii, 4 200 m).
2. L’atmosphère terrestre et l’espace
99
Estimer d’après la figure l’émissivité moyenne ε de l’atmosphère, ainsi que l’écart-type des fluctuations spatiales σθ et temporelles σt de la puissance reçue. Sachant que la vitesse moyenne du vent est de v = 35 km hr−1 pendant les mesures, calculer la taille moyenne des inhomogénéités atmosphériques responsables des fluctuations observées. (D’après F. Pajot, Thèse, 1983.)
This page intentionally left blank
Chapitre 3 Rayonnement et photométrie Ce chapitre traite de quelques propriétés essentielles du rayonnement électromagnétique. Nous définissons d’abord les notions de photométrie énergétique. Il s’agit des grandeurs physiques reliées à la puissance transportée par un rayonnement électromagnétique. Les grandeurs et unités photométriques particulières liées aux techniques de l’éclairage, de la photographie, etc. sont adaptées à la sensibilité de l’œil humain qui se cantonne aux longueurs d’onde du visible : elles ne conviennent donc pas à l’observation astronomique qui couvre tout le spectre électromagnétique et se doivent d’être indépendantes des propriétés de l’œil. Nous considérons ensuite les propriétés de cohérence du rayonnement liées à la répartition dans l’espace et dans le temps de l’énergie qu’il transporte. Ces propriétés sont particulièrement importantes pour l’étude de la formation des images (cf. Chap. 6) et celle des spectres (cf. Chap. 8). Le rayonnement du corps noir joue un rôle central, quoique non exclusif, tant dans l’émission des objets de l’astrophysique que dans les limitations de l’observation, et nous en présentons quelques propriétés utiles pour ce qui suit. Bien entendu, on ne cherchera pas ici un traitement appronfondi du transfert de rayonnement dans les objets de l’astrophysique, ni une présentation de l’ensemble des mécanismes physiques de production des divers rayonnements. Les étalonnages absolus permettent, à partir d’une mesure, de remonter aux valeurs absolues des énergies émises à telle ou telle longueur d’onde par les objets étudiés : étoiles, nuages interstellaires, grains ou molécules, pulsars, noyaux galactiques, sources X en accrétion, fond cosmologique, etc. Ces valeurs déterminent les grands bilans de masse ou d’énergie dans l’Univers, les temps d’évolution, et permettent même parfois de mettre en évidence la présence de phénomènes physiques jusque-là inconnus. C’est dire toute leur importance pour l’astrophysique et la cosmologie physique. La difficulté de réaliser, en laboratoire, des sources étalons correctes dans des domaines très divers de longueur d’onde ne saurait être sous-estimée. La comparaison de ces sources aux sources astronomiques est également difficile,
102
L’observation en astrophysique
compte tenu de la présence de l’atmosphère terrestre ou des conditions d’observation des télescopes automatiques lancés dans l’espace. Il n’est pas rare, dans ces conditions, de voir révisées certaines grandeurs de façon significative, avec les conséquences faciles à imaginer sur les modèles élaborés antérieurement. Ce fait vaut parfois à l’astrophysique la réputation imméritée d’être une science d’ordres de grandeur plutôt que de valeurs précises. Il traduit plutôt la grande difficulté expérimentale des observations.
3.1
La photométrie
Au sens classique que lui donnent les opticiens, la photométrie a pour objet la mesure des différentes quantités énergétiques associées à une sensation lumineuse visuelle. Elle est donc étroitement liée aux propriétés spectrales de ce récepteur particulier qu’est l’œil humain. La radiométrie ou photométrie énergétique, selon la même acception classique, traite plus généralement de l’énergie transportée par un rayonnement électromagnétique, quelle que soit sa longueur d’onde. L’astronomie, marquée successivement au fil des décennies par l’observation visuelle, photographique, puis photoélectrique, a développé, plus ou moins en accord avec les définitions officielles précédentes, sa propre terminologie. Enfin l’astrophysique, traitant du transfert de rayonnement d’un point de vue théorique, a également adopté des notations qui ne sont pas toujours cohérentes avec les précédentes. Nous allons tenter de clarifier ces points. Le terme photométrie, consacré par l’usage en astronomie, recouvre évidemment l’acception très générale de radiométrie. Nous le conservons donc, en notant que la plupart des grandeurs qui vont être définies se réfèrent à une longueur d’onde (ou fréquence) précise : c’est donc en toute rigueur le terme de spectrophotométrie qui conviendrait et qui est d’ailleurs souvent employé. La photométrie s’associe étroitement aux notions générales de spectroscopie examinées au chapitre 8. Définition des grandeurs Étendue de faisceau. Cette notion géométrique définit la délimitation d’un faisceau de rayons lumineux transportant de l’énergie (Fig. 3.1). Considérant un pinceau émis par l’élément de surface dS1 , et reçu par l’élément dS2 , distant de r , on appelle étendue de faisceau la quantité : 1 dS1 cos θ1 dS2 cos θ2 = dσ1 dΩ, r2 (dσ1 projection de dS1 normalement à k). dΩ apparaît comme l’angle solide du pinceau en dS1 . On démontre que la conservation de l’énergie lors de la propagation implique la conservation du
3. Rayonnement et photométrie
103
Fig. 3.1 – Étendue de faisceau. produit de l’étendue de faisceau par le carré de l’indice de réfraction. Dans le vide (n = 1), l’étendue géométrique de faisceau dσdΩ se conserve donc. Puissance transportée. La puissance transportée par un rayonnement de vecteur d’onde k, de fréquence comprise entre ν et ν +dν, dans un angle solide défini dΩ, au travers une surface dσ normale à k en un point M , est : dPν = Iν (k, M ) dσ dΩ dν,
Iν en W m−2 sr−1 Hz−1 .
Iν est l’intensité spécifique monochromatique du rayonnement (ce terme est utilisé dans la théorie du transfert de rayonnement ) en M , dans la direction k. Utilisée en astronomie de façon courante, cette terminologie diffère de celle adoptée internationalement en radiométrie standard, où le terme intensité désigne la puissance totale émise (watt) intégrée sur la surface de la source. Nous montrons au chapitre 7 qu’il est nécessaire de distinguer, d’une part, les récepteurs sensibles à l’intensité et, d’autre part, les récepteurs sensibles au champ électrique E ν . Les quantités Iν et E ν sont reliées par le vecteur de Poynting, dont la valeur moyenne du flux au travers d’une surface est égale à la puissance qui traverse cette surface ; on a donc : ε0 c Eν2 Iν = · 2 Lorsque la quantité Iν caractérise la puissance émise par une surface, elle porte le nom de luminance ou brillance monochromatique. La radiance monochromatique (Wm−2 Hz−1 ) correspond à l’intégrale de la luminance sur toutes les directions de l’espace. Éclairement monochromatique. La puissance reçue par unité de surface normale à la direction de propagation est : dPν = εν dν, dS2 cos θ2
εν en W m−2 Hz−1 .
Cette quantité εν est appelée éclairement monochromatique, produit par les sources situées en amont de la surface recevant l’énergie (lieu d’observation). En radiométrie, on le désigne également par irradiance monochromatique. On peut écrire : εν =
Iν cos θ1 dΩ, source
104
L’observation en astrophysique
et noter que l’éclairement monochromatique total ne dépend pas des dimensions angulaires de la source. En astronomie, l’éclairement monochromatique, tout comme la radiance qui a la même unité, est souvent et improprement appelé flux. La dimension de cette quantité, en accord avec l’emploi qui en est fait en théorie du transfert de rayonnement, ne l’est pas avec la définition officielle en radiométrie, où le terme flux désigne la puissance totale transportée par un rayonnement et se mesure donc en watt. L’unité de flux (flux unit en anglais ou FU), rencontrée dans la littérature astrophysique, est en réalité une unité d’éclairement monochromatique, appelée aussi jansky (Jy), du nom de l’auteur des premières observations radioastronomiques : 1 jansky = 10−26 W m−2 Hz−1 . Les magnitudes sont des unités relatives logarithmiques d’éclairement, leur usage commun en astronomie justifie une présentation détaillée (cf. § 3.3). Le terme qui devrait se généraliser est celui d’éclairement monochromatique. Autres unités. Les dérivations par rapport à la fréquence peuvent être remplacées par une dérivation par rapport à l’énergie (hν), ou par rapport à la longueur d’onde (λ), ou encore au nombre d’onde (σ = λ−1 , mesuré en cm−1 ), d’où découlent des unités alternatives. De même, les puissances peuvent être mesurées en watt, mais aussi en nombre de photons par unité de temps, la fréquence des photons étant alors fixée. Le tableau 3.1 résume ces différentes unités et terminologies rencontrées dans la littérature astrophysique. Tab. 3.1 – Unités de mesure du rayonnement (astronomie).
j
La correspondance entre la dénomination des grandeurs utilisées en astronomie et les termes officiels de la radiométrie n’est pas toujours satisfaisante. Cette dernière dénomme flux (watt) une puissance, émittance (ou exitance, W m−2 ) une radiance, intensité (W sr−1 ), radiance (ou stérance W m−2 sr−1 ) une luminance (ou brillance) et irradiance (ou
3. Rayonnement et photométrie
105
incidance W m−2 ) ce que nous appelons ici éclairement. Le terme monochromatique et/ou spectral, ainsi que la dimension (Hz−1 ) associée, s’ajoutent naturellement quels que soient les termes utilisés. Luminance réduite. Considérons la quantité : (W m−2 sr−1 ).
λIλ = νIν
Cette quantité est indépendante des unités de longueur d’onde ou de fréquence utilisées. La figure 3.2 illustre son intérêt dans le cas de spectres étendus sur un vaste domaine de longueur d’onde. Il est évident que sur un graphe donnant la quantité λIλ (resp. νIν ) en fonction de log λ (resp. log ν), les aires sous différents morceaux du graphe permettent une comparaison directe des puissances émises dans différents intervalles spectraux, en vertu de l’équation : νI(ν) d ln ν = I(ν)dν. Δν
Δν
Une autre illustration en est donnée par la figure 2.20.
Luminosité. La puissance totale (watt) émise par une source astrophysique dont le volume est borné par une surface est appelée sa luminosité. C’est l’intégrale : L=
dPν = Surface
4π
ν
Lν dν. ν −1
où Lν est la luminosité monochromatique (W Hz
).
Polarisation du rayonnement. Ce paramètre joue un rôle important, soit parce qu’il traduit une propriété de la source (champ magnétique, grains orientés, diffusion anisotrope, etc.), soit parce que le récepteur ne mesure qu’une composante de la polarisation (radiofréquences), soit parce que le télescope (optique, guides d’onde...) la modifie. Soit une onde plane décrite par : Ex = a1 cos(2πνt − k · r + ϕ1 ), Ey = a2 cos(2πνt − k · r + ϕ2 ), où a1 et a2 sont les amplitudes suivant les axes x et y, ν la fréquence, k le vecteur d’onde, ϕ1 et ϕ2 des phases telles que ϕ = ϕ2 − ϕ1 . Comprenant quatre grandeurs à déterminer (a1 , a2 , ϕ1 , ϕ2 ), la polarisation d’une onde quelconque est commodément représentée à l’aide des paramètres de Stokes : I = a21 + a22 , Q = a21 − a22 = I cos 2χ cos 2ψ, U = 2a1 a2 cos ϕ = I cos 2χ sin 2ψ, V = 2a1 a2 sin ϕ = I sin 2χ, I 2 = Q2 + U 2 + V 2 .
106
L’observation en astrophysique
Fig. 3.2 – En haut : Le rayonnement observé du fond du ciel, tracé en luminance réduite νIν en fonction de la longueur d’onde (échelle inférieure) ou de l’énergie des photons (échelle supérieure). On distingue, de gauche à droite, les contributions extragalactiques γ, X, ultraviolet, visible, infrarouge, celle du corps noir cosmologique, enfin le rayonnement de radiofréquences qui baigne la Galaxie. La composante interplanétaire (émission zodiacale) a été soustraite. En bas : extrait du spectre cidessus, lissé pour les domaines optique (Cosmic Optical Background ou cob), infrarouge (Cosmic Infrared Background ou cib) et millimétrique (Cosmic Microwave Background ou cmb). La valeur encadrée donne la brillance totale de chaque composante, en nW m−2 sr−1 . On note que le fond infrarouge (processus de formation et d’évolution des galaxies) est comparable au fond optique (étoiles), et que ce dernier est une petite fraction du fond millimétrique (cosmologique). (Figures dues à l’amabilité d’Hervé Dole, communication privée, 2007.)
Le degré de polarisation Π d’une onde quelconque est donné par la quantité : 1/2 2 Q + U2 + V 2 , Π= I où les grandeurs I, Q, U , V sont des moyennes temporelles. Pour l’onde plane, on a évidemment Π = 1.
3. Rayonnement et photométrie
3.2 3.2.1
107
Notions liées au rayonnement Le rayonnement de corps noir
Bien qu’aucune source astronomique n’émette rigoureusement un rayonnement de corps noir, nombre d’entre elles approchent suffisamment ce cas pour qu’il soit possible de spécifier approximativement par une seule température le rayonnement émis : c’est le cas des spectres stellaires ou du rayonnement cosmologique fossile. En outre, les télescopes n’étant pas à température nulle, ils rayonnent de même que leur entourage. Enfin, les récepteurs sont immergés dans ce rayonnement qui conditionne partiellement leurs performances. La brillance monochromatique du corps noir est donnée par la loi de Planck : −1 2hν 3 hν Bν (T ) = 2 exp −1 , c kT l’unité étant le W m−2 sr−1 Hz−1 . La loi de Planck est approchée aux fréquences élevées par la loi de Stefan : 2hv 3 hν , hν kT, Bν (T ) ∼ 2 exp − c kT et aux basses fréquences par la loi de Rayleigh-Jeans : 2ν 2 2kT kT = 2 , hν kT. c2 λ La puissance totale rayonnée par l’unité de surface d’un corps noir est : Bν (T )dν dΩ = σT 4 Watt m−2 , Bν (T ) ∼
Ω −8
ν −2
(σ = 5.670 × 10 W m K−4 , constante de Stefan). Le rayonnement d’un corps noir obéit à la loi de Lambert : dPν = Bν dS cos θ dΩ dν = Bν dσ dΩ dν, qui énonce que la brillance est indépendante de la direction d’observation θ. Le fait que la brillance du Soleil ou d’une étoile varie du centre au bord du disque prouve qu’ils ne rayonnent pas rigoureusement comme un corps noir. La brillance monochromatique est maximale, à une température donnée, lorsque : c T = 5.0996 × 10−3 m K pour νm
dBν = 0, dν dBλ = 0. λm T = 2.898 × 10−3 m K pour dλ L’intensité donnée par l’expression de Planck n’est qu’une intensité moyenne. Nous voyons plus loin (§ 7.2), à propos de l’étude de phénomènes de bruit, que cette moyenne est affectée de fluctuations d’origine thermodynamique.
108
3.2.2
L’observation en astrophysique
La cohérence du rayonnement
La notion intuitive de cohérence est fournie par la considération de deux types extrêmes de rayonnement. D’une part, l’onde monochromatique (fréquence ν) unidirectionnelle (vecteur d’onde k) représente une cohérence totale : il est en effet possible de définir la phase relative de cette onde en deux points arbitrairement éloignés dans l’espace et à deux instants arbitrairement distants dans le temps. D’autre part, le rayonnement de corps noir représente une cohérence minimale : en deux points distants dans l’espace ou à deux instants distincts, la relation de phase entre champs est quelconque, et de plus varie aléatoirement dans le temps, sauf si les distances temporelle ou spatiale entre ces deux points sont assez petites. Des cas intermédiaires sont concevables : rayonnement plus ou moins pur spectralement et rayonnement non thermique. La notion de cohérence peut s’expliciter soit en utilisant le modèle de propagation ondulatoire électromagnétique classique, soit le point de vue des photons. La notion de cohérence spatiale est essentielle pour traiter de la formation des images (cf. Chap. 6), la notion de cohérence temporelle pour traiter d’analyse spectrale (cf. Chap. 8). Cohérence du champ, degré mutuel de cohérence Nous raisonnons sur un champ complexe V(t), considéré dans le cas le plus général comme un processus aléatoire ergodique et stationnaire, de densité spectrale de puissance S(ν). Nous admettons que V(t) = 0, ce qui rend identiques l’autocorrélation et l’autocovariance du champ (cf. Appendice II pour les définitions et les propriétés). Nous considérons une polarisation définie du champ. Soient V(r1 , t) et V(r2 , t), notés V1 (t) et V2 (t) pour alléger, les champs mesurés en deux points quelconques de l’espace. On appelle degré complexe de cohérence mutuelle de ces champs la quantité : γ12 (τ ) =
Γ12 (τ ) 1/2
,
[Γ11 (0)Γ22 (0)]
où : Γ12 (τ ) = V1 (t)V2∗ (t + τ ) , est la fonction d’intercorrélation de V1 et V2 . La grandeur Γ11 (0) =
V1 (t)V1∗ (t) représente l’intensité moyenne du champ au point 1. Les moyennes d’ensemble peuvent être prises sur le temps, compte tenu de l’ergodicité (cf. Appendice II). La quantité γ12 (τ ) décrit à la fois une cohérence spatiale, puisqu’elle corrèle les champs en deux points distincts de l’espace, et une cohérence temporelle, puisqu’elle les compare à des instants distants de τ .
3. Rayonnement et photométrie
109
Rayonnement quasi monochromatique Nous appellerons rayonnement quasi monochromatique un rayonnement dont la densité spectrale est confinée au voisinage d’une fréquence ν0 , soit par exemple avec Δν ν0 : S(ν) = exp −
(ν − ν0 )2 · Δν 2
L’autocorrélation du champ V(t) est alors donnée par : 2 τ R(τ ) = exp − 2 , τc avec l’importante relation entre la largeur spectrale et la largeur temporelle (Fig. 3.3) : τc Δν ≈ 1.
Fig. 3.3 – Rayonnement quasi monochromatique : largeur spectrale et cohérence temporelle.
La longueur de cohérence, mesurée le long du vecteur d’onde k, est cτc . C’est la longueur sur laquelle le champ garde la mémoire de sa phase. On a encore : Δλ λ2 Δν lc = cτc = 0 , = , Δλ λ0 ν0 et la longueur de cohérence est la distance au bout de laquelle les ondes λ et λ + Δλ présentent une différence de marche de λ. Lorsque la distance l entre les deux points est telle que l cτc , on a : γ12 (τ ) ∼ γ12 (0)e
−2iπν0 τ
,
et la cohérence est déterminée par γ12 (0). Par extension, γ12 (0) est souvent appelé degré de cohérence, lorsqu’il s’agit d’un rayonnement quasi monochromatique.
110
L’observation en astrophysique
Mesure de la cohérence par interférences Soit une simple expérience de trous d’Young (Fig. 3.4) faisant interférer deux faisceaux diffractés. On appelle visibilité des franges d’interférence observées la quantité : Imax − Imin V= , Imax + Imin où Imin et Imax sont les minima et maxima d’intensité observés.
Fig. 3.4 – Mesure de la cohérence spatio-temporelle par interférence. On démontre facilement que |γ12 (τ )| = V. De même, un interféromètre de Michelson (Fig. 3.5) mesure la cohérence temporelle.
Fig. 3.5 – Mesure de la cohérence temporelle par interférence. a) Interféromètre de Michelson schématique. b) Mesure de l’intensité en sortie.
Cohérence du rayonnement de corps noir Le rayonnement quasi monochromatique est un cas particulier de processus gaussien, où R(τ ) elle-même est gaussienne : on se souvient à cette occasion qu’il existe une infinité de processus stationnaires gaussiens, définis par leur moyenne et par leur autocorrélation R(τ ) (cf. Appendice II).
3. Rayonnement et photométrie
111
Le rayonnement de corps noir étant un processus stationnaire gaussien, sa cohérence est complètement définie par la quantité R(τ ). Sa cohérence temporelle se déduit simplement, par transformation de Fourier, du spectre de Planck du corps noir S(ν). Moments d’ordre supérieur Dans le cas général d’un processus stationnaire quelconque, il est nécessaire de spécifier les moments d’ordre supérieur du champ : Γ(x1 , x2 , . . . , x2n ) = V(x1 )V(x2 )...V∗ (xn+1 )...V∗ (x2n ) , où xn désigne un point (r n , t) et on définit le degré complexe de cohérence d’ordre n par : Γ(x1 , ..., x2n ) γ(x1 , ..., x2n ) = 1/2 · Π Γ(xi , xi ) i
On vérifie aisément qu’une onde strictement monochromatique satisfait à γn = 1 quel que soit n. Cohérence et statistique des photons Nous avons présenté, du point de vue ondulatoire, la cohérence comme la quantité :
V(t)V∗ (t + τ ) · Qu’apporte le point de vue particulaire ? • Un rayonnement strictement monochromatique exp(2πjν0 t) a un temps de cohérence infini. Le point de vue ondulatoire n’apprend rien sur les fluctuations. En revanche, les photons peuvent être décrits comme des particules classiques et le nombre de photons reçus pendant un temps τ , quel que soit τ , obéit à une statistique de Poisson. n étant le nombre moyen de photons reçus par unité de temps, la variance de n est : σn2 = nτ. • Un rayonnement quasi monochromatique (par exemple une raie spectrale optiquement épaisse, formée à l’équilibre thermodynamique local ou etl, de profil gaussien), présente un temps de cohérence fini τc ∼ 1/Δν. Si τ τc , les fluctuations du nombre de photons reçus pendant le temps τ sont données par l’expression résultant de la statistique de Bose-Einstein : σn2 = nτ (1 + δ),
δ = (ehν/kT − 1)−1 .
Elles comprennent le terme « onde » et le terme « particule ».
112
L’observation en astrophysique
• En revanche, dans un rayonnement thermique (gaussien), pour τ < τc , la statistique des photons n’est plus poissonnienne stationnaire ; on observe une tendance des photons à se grouper (en anglais bunching). L’effet est significatif dès que δ ∼ 1 (Fig. 3.6).
Fig. 3.6 – Représentation schématique du modèle semi-classique du rayonnement : a) intensité classique constante conduisant à des événements photoélectriques dont la distribution temporelle est poissonnienne. b) Intensité classique d’une source thermique, avec ses fluctuations conduisant à un processus de Poisson composé avec une distribution de Bose-Einstein et l’apparent groupement des photons. (Extrait de Dainty J. C., in Image science.)
• Enfin, pour un rayonnement non thermique, ce phénomène est d’autant plus marqué que la quantité δ, appelée facteur de dégénérescence, est importante. L’étude de la cohérence, c’est-à-dire de la corrélation des photons sur des intervalles très courts (<τc ) permet de déceler, dans une raie spectrale, les
3. Rayonnement et photométrie
113
écarts à l’etl (équilibre thermodynamique local). Les progrès des récepteurs quantiques permettent d’envisager l’application de ces concepts à l’astrophysique1,2 .
3.3
Les systèmes de magnitudes
Les systèmes de magnitudes3 sont un héritage de la classification des étoiles selon leur brillance apparente à l’œil, qu’utilisaient les astronomes grecs. Au xixe siècle (Pogson 1856), cette classification fut quantifiée par une loi logarithmique, correspondant approximativement à la sensation visuelle. La magnitude est une mesure relative de l’éclairement produit par une source. S’agissant d’étoiles, pratiquement ponctuelles pour les instruments considérés, la délimitation spatiale de la source ne prête pas à confusion. S’agissant d’objets plus étendus (galaxies, fond du ciel...), cette délimitation devra être précisée. On introduit alors une nouvelle unité, la magnitude par seconde d’angle carrée, l’angle solide d’observation étant alors égal à 1 seconde d’angle × 1 seconde d’angle. Soit e(λ) l’éclairement monochromatique dû à la source mesuré hors de l’atmosphère terrestre, la magnitude correspondante à la longueur d’onde λ0 est : e(λ0 ) = −2.5 log e(λ0 ) + qλ0 , (3.1) e0 où la constante qλ0 définit la magnitude zéro. Dans la pratique, la mesure fait intervenir une bande spectrale finie, éventuellement caractérisée par un filtre de transmission t0 (λ) : ceci explique que, suivant le choix de ces bandes, il existe plusieurs systèmes de magnitudes. La magnitude mλ0 d’une source produisant l’éclairement e(λ) est alors : ∞ ∞ t0 (λ)e(λ)dλ + 2.5 log t0 (λ)dλ + qλ0 mλ0 = −2.5 log mλ0 = −2.5 log
0
0
Le tableau 3.2 donne les éclairements de référence qλ0 et les longueurs d’onde centrales λ0 du système de magnitudes photométriques, utilisant au mieux les fenêtres de transmission atmosphérique dans le proche UV, le visible, l’infrarouge proche et moyen4 . L’usage du système de magnitudes pour mesurer des 1 Pour une approche générale des effets de cohérence du rayonnement, voir Harvey A., Coherent Light. Voir aussi l’intéressante discussion de Dravins D. et al., Appl. Opt., 1995. 2 On trouvera une analyse détaillée des fluctuations thermodynamiques dans Landau L. et Lifchitz E., Physique statistique. Voir aussi Harvey A., Coherent Light, chapitre 1. 3 Une discussion approfondie de ces questions classiques se trouve par exemple dans Stars and Stellar systems, vol. II, Astronomical Techniques. Une référence plus récente et très complète se trouve sur le site de l’Université de Virginie (États-Unis) : www.astro.virginia.edu/class/oconnell/astr511/lec14-f03.pdf. 4 On trouvera les fonctions t (λ), centrées sur λ , dans AQ. Les magnitudes visuelles 0 0 photographiques diffèrent de celles du tableau : les fonctions t0 (λ) qui y sont associées représentent au mieux la sensibilité de l’œil ou celle des plaques photographiques.
114
L’observation en astrophysique
éclairements est en effet, par héritage historique, limité à ces trois domaines spectraux. Utilisées tantôt pour l’observation au sol, la photométrie d’une source, tantôt faite au travers de l’atmosphère terrestre, tantôt depuis l’espace, utilise des filtres optimisés pour ces différentes conditions (sensibilité chromatique du récepteur utilisé, bandes d’absorption atmosphérique à éliminer, etc.) : les différents systèmes de magnitudes ont cherché à optimiser le choix des bandes, et de nouvelles conditions d’observation (espace par exemple) peuvent conduire à de nouveaux systèmes, qu’il faut alors raccorder aux précédents à l’aide d’un étalonnage absolu – l’étoile Vega comme standard primaire, à laquelle on associait ensuite toute une série de standards secondaires. La multiplication des systèmes de magnitude, jusque vers l’année 2000, peut ainsi être la source d’une certaine confusion, et de difficultés en passant d’un système à l’autre. En 2007, on adopte donc progressivement une définition plus intrinsèque des magnitudes, à partir de l’Équ. 3.1 : – Magnitude stmag. Si l’unité d’éclairement est eλ , donc donnée par intervalle de longueur d’onde (W m−2 μm−1 ), la magnitude stmag (Space Telescope Magnitude, utilisée pour les observations du télescope spatial Hubble) est donnée par : mλ = −2.5log10 eλ − 18.6. – Magnitude AB. Si l’unité d’éclairement est eν , donc donnée par intervalle de fréquence (W m−2 Hz−1 ), la magnitude AB est donnée par : mν = −2.5log10 eν − 56.1. Ce système de magnitude est celui qu’utilise par exemple le Sloan Digital Sky Survey (cf. § 10.2). L’avantage de ces systèmes est de permettre une conversion immédiate, quelle que soit la longueur d’onde ou la fréquence, de la magnitude en un éclairement monochromatique hors atmosphère, qui est une quantité physique parfaitement définie. Magnitude bolométrique. La magnitude bolométrique apparente mesure l’intégrale de l’éclairement sur toutes les longueurs d’onde
∞
e(λ)dλ mb = −2.5 log
0
eb
eb = 2.52 × 10−8 Wm−2 .
3. Rayonnement et photométrie
115
Tab. 3.2 – Photométrie standard.
1 Jy = 10−26 Wm−2 Hz−1 . Il est commode de noter que la magnitude mv = 0 correspond à un éclairement monochromatique de 1011 photons m−2 s−1 μm−1 .
Elle mesure donc la luminosité si la source rayonne de façon isotrope, si sa distance D est connue et s’il n’y a pas d’absorption entre la source et l’observateur : L mbol = −0.25 + 5 log D − 2.5 log , L où L = 3.827 × 1026 W désigne la luminosité du Soleil. Magnitude absolue. La magnitude apparente est liée à l’éclairement mesuré à la Terre. Les comparaisons sont possibles entre sources par l’introduction de la magnitude absolue, la source étant amenée à une distance de 10 pc (1 pc = 3.086 ×1016 m = 3.261 années-lumière), et l’absorption interstellaire éventuelle A (rougissement) étant corrigée. On a donc entre magnitude apparente m et absolue M la relation : M = m + 5 − 5 Log D − A. Indices de couleur . On appelle indice de couleur la différence mλ2 − mλ1 : par exemple, les quantités U -B, V -K. C’est donc une mesure du rapport des éclairements à deux longueurs d’onde différentes. Les quantités qλ0 ont été choisies de façon qu’une étoile de type spectral A0 (naine) ait, au-delà de la bande V, tous ses indices de couleur nuls. Plus précisément, un corps noir de température très élevée, dont le spectre est Rayleigh-Jeans (Bλ ∝ λ−4 ) dans l’uv, le visible et l’ir, a pour indices de couleur : B-V = −0.46
U -B = −1.33
V -R, V -I, ..., V -N = 0.0.
La comparaison des indices de couleur permet donc de comparer, par rapport à ce spectre de référence, les éclairements à deux longueurs d’onde, donc la pente
116
L’observation en astrophysique
du spectre ou la couleur du rayonnement émis (Fig. 3.7). L’indice de couleur est d’une grande utilité pour classer, selon des types d’objets différents, un grand nombre d’objets ou d’étoiles mesurés lors d’une cartographie ou relevé du ciel (en anglais, survey), tels que présentés au chapitre 10. Dans le diagramme de Hertzsprung-Russell, l’indice B-V , qui définit donc une température de couleur pour l’étoile, est porté en fonction de la magnitude absolue MV , elle-même directement reliée à la luminosité L.
Fig. 3.7 – Indices de couleur. On a représenté l’éclairement eλ dû à trois sources : une source dont le spectre a même pente qu’un corps noir de température T infinie ; un corps noir de température T , une source de température T à émissivité variable ε(λ). On a représenté également les deux indices de couleur : U -B et K-L.
3.4
Photométrie au travers de l’atmosphère
Aux longueurs d’onde où l’atmosphère terrestre est presque transparente (cf. § 2.2), l’intensité du rayonnement mesuré au sol est néanmoins modifiée. Une correction d’extinction est à appliquer. Celle-ci est simple si l’on peut caractériser l’atmosphère par un modèle de couches absorbantes planparallèles, possédant un coefficient d’absorption κν (z). Si la visée se fait à la distance zénithale angulaire α, l’intensité incidente étant Iν0 , l’intensité transmise s’écrit : ∞ 1 , kν (z)dz , sec α = Iν (α) = Iν0 exp − sec α cos α 0 où la quantité sec α est appelée masse d’air. Si l’atmosphère est stable dans le temps, des mesures faites à différentes élévations s’alignent sur une droite dans
3. Rayonnement et photométrie
117
un diagramme log Iν (α) porté en fonction de sec α. L’extrapolation de cette droite (droite de Bouguer) à masse d’air nulle permet de déterminer l’intensité hors atmosphère. Les hypothèses de stabilité temporelle ou de stratification horizontale sont souvent en défaut, et la photométrie de précision au sol est un exercice difficile, tout particulièrement dans l’infrarouge, à cause des grandes inhomogénéités de répartition spatio-temporelle de la vapeur d’eau, principal absorbant. La précision photométrique est évidemment sans comparaison lors de mesures faites dans l’espace. En outre, ces mesures sont les seules possibles aux longueurs d’onde auxquelles l’atmosphère terrestre est totalement absorbante. Avec des précautions extrêmes, au sol, une photométrie relative au millième de magnitude, soit une précision de 10−3 , est possible. L’espace offre des conditions de mesure extrêmement favorables, puisqu’il n’y a plus de variations d’extinction atmosphérique, d’une part, et qu’il permet un suivi de longue durée des objets, d’autre part. Les missions spatiales, qui observent les étoiles, leur variabilité et surtout leurs oscillations (astérosismologie), telle la mission corot du cnes français (2006, cf. § 9.4) ou la mission Kepler de la nasa, peuvent atteindre une précision photométrique de 2 × 10−7 sur une étoile de magnitude mV = 8, ou de 5 × 10−6 pour mν = 15, en utilisant un télescope de diamètre 1 m et des temps d’intégration de l’ordre du mois.
La connaissance de l’intensité émise nécessite également une correction de l’extinction interstellaire. Il s’agit là d’une correction très importante, qui requiert une interprétation astrophysique des mesures (direction de visée par rapport au plan galactique...) et qui ne relève pas de la présente discussion.
3.5
Étalonnages et standards d’intensité
La détermination de la valeur absolue des grandeurs astrophysiques, en terme d’unités fondamentales de puissance, de temps, de fréquence... est un problème à la fois fondamental et difficile de l’observation astronomique. Fondamental, car les modèles physiques et leur cohérence reposent sur ces valeurs. Difficile, car les instruments astronomiques sont des machines complexes, observant dans des conditions souvent difficiles à reproduire, alors que les grandeurs de référence sont accessibles en permanence et de façon contrôlable en laboratoire. On distingue : – Les étalonnages énergétiques, où il s’agit typiquement de mesurer une brillance monochromatique Bν (θ), en fonction de la position angulaire θ de la source et à une fréquence ν définie. Les techniques et les procédures d’étalonnage énergétique diffèrent profondément selon la longueur d’onde, et nous les passons en revue par grand domaine spectral.
118
L’observation en astrophysique
– Les étalonnages spectraux où l’on positionne de façon absolue la fréquence des raies spectrales observées. Nous les exposons brièvement à propos de chaque domaine spectral, les techniques étant très variables selon ceux-ci. – Les étalonnages angulaires, où l’on détermine les positions angulaires absolues d’un ensemble de sources de référence, puis d’une source quelconque par rapport à elles. C’est l’astrométrie, qui est traitée en détail au chapitre 4. – Les étalonnages temporels, ou chronométrage, qui repèrent l’évolution temporelle d’une source (par exemple : chronométrage des pulsars).
3.5.1
Radiofréquences (λ 0.5 mm)
Le standard d’étalonnage est le corps noir, dont la brillance est donnée dans l’approximation de Rayleigh-Jeans, habituellement valable pour les températures considérées, par l’expression : Bν ≈
2ν 2 kT. c2
Nous verrons plus loin (cf. § 7.5) que les récepteurs de radiofréquences sont généralement limités à une étendue de cohérence SΩ = λ2 et ne détectent qu’une polarisation du champ. Méthode 1. Si une antenne de réception est totalement immergée dans un rayonnement de corps noir à la température T , la puissance reçue par le récepteur dans un intervalle ν de fréquence Δν, sa réponse étant supposée être une fonction créneau Π Δν , s’écrit 1 P = 2
∞
Bν (θ)dνdω = kT Δν. 4π
0
La mesure de Δν et de T permet l’étalonnage à partir de la tension délivrée par le récepteur. Dans cette méthode, le sol terrestre peut jouer le rôle du corps noir (T ∼ 300 K, émissivité ∼1) : le radiotélescope est alors orienté vers le sol pour en effectuer l’étalonnage. Méthode 2. Le récepteur est déconnecté de l’antenne et relié à une source de bruit. Une résistance R à la température T est un générateur de tension aléatoire. La puissance électrique P disponible se déduit de la valeur quadratique moyenne de la tension instantanée de bruit thermique aux bornes de R (cf. § 7.2) : 2
V 4kT RΔν P = = = 4 kT Δν. R R Si la résistance est adaptée à l’impédance d’entrée Z du récepteur (R = Z), la puissance reçue est 2kT Δν. Une mesure annexe de la transmission
3. Rayonnement et photométrie
119
de l’antenne, prenant en compte la réflectivité imparfaite de la surface du télescope et les pertes du guide d’onde éventuel entre foyer et récepteur, est nécessaire pour parachever l’étalonnage du système. Une mesure différentielle qui utilise deux sources à des températures différentes, l’une d’entre elles étant cryogénique, permet de réduire l’erreur systématique. Méthode 3. La tension V (t) aux bornes d’une résistance présente un caractère aléatoire, de densité spectrale blanche si hν < kT (cf. § 7.2). Toute autre tension de même caractère peut être utilisée pour l’étalonnage, celui-ci étant d’autant plus précis que le signal sera élevé. On utilise donc un générateur de bruit, fournissant une tension aléatoire V (t), telle que V (t) = 0 et que la densité spectrale de V (t) soit approximativement constante aux fréquences utilisées. Ce générateur peut être une diode à bruit, dans laquelle le passage du courant produit une tension aléatoire, ou un tube à décharge, où une décharge dans un gaz produit une température électronique élevée et donc un champ électrique aléatoire. Ces sources n’ont pas une température thermodynamique bien définie, mais, pour autant qu’elles soient stables dans le temps, elles fournissent des étalons secondaires maniables, une fois étalonnées par rapport à un corps noir de référence. Étalonnage spectral. La disponibilité du signal sous forme d’une oscillation électrique dans des guides d’onde ou cavités ou circuits permet de le comparer directement à des horloges ou oscillateurs fournissant une fréquence standard directement reliée à la mesure du temps (cf. Chap. 4) et donc à l’unité de fréquence, le hertz. Ces étalonnages en fréquence sont donc extrêmement précis.
3.5.2
Submillimétrique, infrarouge et visible
Étalonnages photométriques absolus Le rayonnement de corps noir est la principale référence dans ce domaine. La température des sources utilisées doit être d’autant plus élevée que la longueur d’onde est courte, car la dépendance exponentielle décroissante de la brillance aux longueurs d’onde inférieures à celle du maximum de la fonction de Planck rendrait la source trop faible et les mesures imprécises. Le maximum de BT (λ) est obtenu pour λm : λm T = 2 898 μm K. Dans un montage d’étalonnage, la puissance reçue par le récepteur s’écrit : P = ε(λ)B(λ, T )t(θ, r, λ)dλdθ, où ε(λ) est l’émissivité de la source de référence, t(θ, r, λ) la transparence et/ou la transmission spectrale de l’instrument, définie par ses diaphragmes, son optique, ses filtres, la réflectivité spectrale des miroirs, r la variable définissant un point de la surface S de la pupille et θ la direction du rayonnement.
120
L’observation en astrophysique
Chacune de ces grandeurs doit être déterminée avec précision en utilisant les techniques de spectroscopie (Chap. 8). Température. Sa détermination précise se fait par les méthodes standard de pyrométrie : thermocouples, pyromètre optique... On utilise des étalons relais (lampes à filament ruban). Émissivité. La quantité ε(λ) dépend de la géométrie de la source, et de la nature du matériau constituant le filament ou la cavité émissive. La détermination exacte de ε(λ) reste la principale source d’incertitude dans les étalonnages absolus infrarouges, tandis que l’incertitude sur la température domine dans les étalonnages aux longueurs d’onde du visible. Géométrie du faisceau. Elle apparaît dans le terme t(θ, r, λ). Aux courtes longueurs d’onde (λ 5 μm), auxquelles les dimensions des éléments optiques sont grandes devant λ, la diffraction n’intervient pratiquement pas dans la définition de t, qui peut être considérée comme résultant purement de considérations géométriques : dimension des diaphragmes, distances... Ceci n’est plus vrai dans l’infrarouge moyen et submillimétrique où la diffraction produit des lobes latéraux : le récepteur reçoit de la puissance issue d’autres directions que de la direction visée (Fig. 3.8). Le diagramme de rayonnement est la représentation polaire de la sensibilité relative du récepteur en fonction de θ. Ce phénomène est particulièrement gênant avec des récepteurs à très basse température, lorsque la source étudiée émet une puissance faible, alors que l’environnement du récepteur, par exemple le miroir du télescope, émet une puissance importante liée à sa température plus élevée, d’où résulte une contribution non négligeable au signal. Les méthodes d’étalonnage absolu de télescopes submillimétriques dans l’espace (par exemple les missions wmap ou Planck, cf. § 7.4.7) ont beaucoup progressé depuis 1990, stimulées par la difficile mesure du rayonnement de corps noir cosmologique. Certaines méthodes d’apodisation 5 permettent de réduire les lobes de diffraction et de rapprocher de l’étendue géométrique l’étendue effectivement reçue par le récepteur. La généralisation des sources de rayonnement synchrotron permet d’envisager leur utilisation dans le domaine allant du submillimétrique au visible, au lieu de corps noir. Leur utilisation comme source d’étalonnage est en outre devenu classique à des énergies plus élevées, comme décrit au paragraphe 3.5.3. Étalonnages relatifs L’étalonnage absolu implique une source étalon, dont l’accès pendant l’observation est souvent difficile. On utilise alors des standards secondaires, étoiles ou sources de référence, précédemment étalonnés, supposés 5 Voir par exemple Born et Wolf, Principles of Optics, ainsi que la discussion sur la diffraction des pupilles (cf. § 6.6) et l’exercice 6.14.
3. Rayonnement et photométrie
121
Fig. 3.8 – Lobe latéral d’un radiotélescope. La source est dans la direction θ, une puissance non nulle est néanmoins reçue de la direction θ − θ 2 (émission thermique du sol). invariables dans le temps et plus facilement accessibles lors d’une séquence observationnelle. Visible (0.3 ≤ λ ≤ 0.7 μm). L’objet de référence est l’étoile Véga (α Lyrae), dont la figure 3.9 donne le spectre absolu. On y remarque des fluctuations non négligeables liées aux incertitudes de mesure. À l’aide des fonctions t0 (λ) intervenant dans la définition des magnitudes, ce spectre permet de déterminer les magnitudes de Vega et, donc par comparaison (rapports de flux), la détermination des magnitudes d’autres étoiles. On notera que le Soleil est rarement utilisé comme étalon secondaire : son éclat demanderait en effet une très importante dynamique de linéarité des récepteurs. La précision de la photométrie stellaire absolue peut atteindre 0.001 magnitude dans le visible. Infrarouge proche et moyen (λ 30 μm, observable du sol). Une série d’étoiles, formant les standards secondaires, a été choisie. La détermination de leur éclairement se fait de la façon suivante : – On suppose que le flux absolu solaire est mesuré de façon précise dans l’intervalle 1–25 μm. Par exemple, la figure 3.10 donne la détermination de la luminance monochromatique du Soleil6 . Cette mesure résulte d’une comparaison du flux solaire avec les sources étalons discutées plus haut. Ayant fixé les constantes qλ0 de l’échelle des magnitudes, on calcule alors les indices de couleur du Soleil. – On choisit une série d’étoiles de référence ayant même type spectral que le Soleil (GO à G4), étoiles dont on suppose le spectre infrarouge rigoureusement proportionnel à celui du Soleil. 6 Le Soleil est considéré comme un standard dans le visible, mais sa luminance spectrale fluctue, en particulier aux longueurs d’onde radio et X. Même aux longueurs d’onde du visible, des mesures de plus en plus fines, en 2007, sont requises pour analyser l’impact éventuel de fluctuations solaires sur le changement climatique.
122
L’observation en astrophysique
Fig. 3.9 – Flux absolu de l’étoile Vega dans les domaines visible et proche IR, d’après différents auteurs. (Tüg et al., Oke et Schild, Kharitonov, Glushneva.)
Cette hypothèse suppose que ces étoiles n’ont pas d’enveloppe de grains de poussière, dont l’émission thermique pourrait, dans le proche IR, s’ajouter à celle de la photosphère de l’étoile. La présence d’un nuage zodiacal de poussières autour d’étoiles jusque-là supposées « nues » a été mise en évidence sur Vega (α Lyr) et un certain nombre d’autres étoiles (β Pictoris, Polaris, Fomalhaut, etc.).
On mesure la magnitude V de ces étoiles, par exemple par référence à αLyr, d’où leurs magnitudes R, ..., Q. – Cette série intermédiaire est alors comparée à des étoiles brillantes de façon à disposer d’étalons secondaires fournissant un bon rapport signal à bruit. Ces étalons doivent être bien situés dans le ciel afin d’en disposer à toute heure et à une distance zénithale faible. Leur type spectral est alors quelconque. On en détermine les magnitudes R, ..., Q par comparaison aux précédentes. Infrarouge lointain (30 μm λ 0.5 mm). Les observations se font audessus de l’atmosphère. Il n’existe pas de bandes spectrales standard permettant une normalisation des mesures, aussi la littérature donne-t-elle des valeurs de brillance monochromatique B(λ) des sources, ou encore des éclairements (jansky) lorsqu’il s’agit de sources bien délimitées spatialement ou non résolues par l’observation considérée. Les observations faites en avion ou en ballon utilisent le rayonnement propre des planètes comme étalon secondaire. Le rayonnement planétaire est supposé identique à celui d’un corps noir ayant une température de brillance T (λ) dans le domaine spectral considéré. La température T (λ) est
3. Rayonnement et photométrie
123
Fig. 3.10 – Détermination observationnelle : (a) de la brillance solaire (exprimée en température de brillance TB ) dans l’infrarouge lointain ; (b) de l’éclairement monochromatique dû au centre du disque (région calme) dans l’ultraviolet. Le trait continu indique la prédiction des modèles de l’atmosphère solaire. Noter la dispersion des mesures, même pour un objet aussi intense que le Soleil. (D’après Vernazza J. et al., Ap. J., 184, 605, 1973. Avec l’aimable autorisation de l’Astrophysical Journal.)
déterminée par une mesure indépendante de comparaison à un corps noir étalon. La température de brillance des planètes est fonction de la longueur d’onde. Les valeurs approchées du tableau 3.3 sont valables (à 10 % près) dans l’infrarouge lointain ; elles s’améliorent au fil du déroulement des missions spatiales d’exploration.
124
L’observation en astrophysique
Tab. 3.3 – Température de brillance des planètes. Vénus Mars Jupiter Saturne ∗
TB (λ)* 255 K 235 K 145 K 85 K
50 μ λ 500 μm.
Dans l’espace, la sensibilité d’un télescope infrarouge est très supérieure et les planètes trop brillantes et trop étendues spatialement pour servir de standards. L’étalonnage procédera donc en plusieurs étapes : un corps noir à bord, d’émissivité calibrée avant lancement, de température maintenue et connue avec précision, fournit un étalonnage interne absolu : ceci fut le cas pour les instruments du satellite iso (1995) et l’est également pour l’observatoire Spitzer (2004), nommé d’après l’astrophysicien Lyman Spitzer et dédié à l’infrarouge proche et lointain avec un télescope refroidi de 0.85 m de diamètre (cf. § 5.2.3). On passe ensuite à l’observation d’astéroïdes proches. Ces objets sont en effet de dimension connue, comme le sont leur température de brillance et leur émissivité. En effet, ces quantités sont relativement aisées à modéliser en fonction de la composition minéralogique des astéroïdes et de leur distance au Soleil : on peut donc en déduire leur magnitude ou éclairement à toute longueur d’onde. Enfin, il est également nécessaire, pendant la mission et pour asseoir en permanence l’étalonnage, d’utiliser des étoiles standard observables simultanément depuis le sol, donc bien étalonnées, et depuis l’espace. L’étoile α Tau avait ainsi servi de « relais photométrique » à λ = 12 μm pour l’étalonnage du satellite Iras (1983). La mission Spitzer (2004) utilise ainsi, dans le domaine allant de 2 à 42 μm, un ensemble d’étoiles standards, dont des spectres synthétiques (à une résolution de 1 200) ont été calculés à partir de l’ensemble des connaissances acquises sur ces étoiles. Étalonnage spectral Dans le visible, cet étalonnage est réalisé par l’emploi de lampes spectrales (lampe au thorium par exemple) émettant des raies dont les longueurs d’onde sont bien connues. Certaines techniques de spectroscopie (cf. Chap. 8) fournissent une mesure absolue des longueurs d’onde, soit par référence à un laser (spectromètre de Fourier), soit par rapport à une raie atomique émise par un gaz (cellule à résonance, cf. § 8.5). Dans le proche infrarouge, l’émission atmosphérique de raies du radical OH fournit un bon étalon pour les observations faites depuis le sol. Au-delà, l’instrument doit être pré-étalonné en utilisant par exemple un laser de référence, abondant en raies (cf. Chap. 8).
3. Rayonnement et photométrie
125
Un cas particulièrement intéressant d’étalonnage spectral de haute précision se trouve dans la recherche des exoplanètes, par la méthode spectroscopique de mesure des vitesses radiales. On cherche ici à déterminer de très faibles variations de vitesse relative entre la Terre et une étoile. En 2006, la sensibilité atteinte est meilleure que le mètre/seconde, soit une résolution spectrale relative de 3 × 108 . Ceci est obtenu en comparant le spectre stellaire, observé à un instant donné, soit au même spectre obtenu à un instant différent (par intercorrélation), soit à un spectre de référence fourni par une lampe spectrale (par exemple une lampe à iode) riche en raies. L’instrument suisse harps, installé sur le télescope de 3.6 m de La Silla (Chili) depuis 2004, utilise la première méthode et multiplie les découvertes d’exoplanètes (cf. § 8.3).
3.5.3
Ultraviolet et X (0.1 λ ≤ 300 nm)
L’utilisation de corps noirs se heurte ici à la nécessité de les faire fonctionner à des températures très élevées, afin d’en obtenir une brillance acceptable. La précision insuffisante de mesure de la température limite donc l’intérêt des sources thermiques pour réaliser des étalonnages absolus dans ces domaines spectraux. En revanche, la disponibilité de sources de rayonnement synchrotron, non thermiques donc, offre une méthode précise et sûre d’étalonnage absolu des instruments UV et X. Dans tous les cas, l’étalonnage est facilité par l’absence de rayonnements parasites thermiques dus à l’environnement, rayonnements si gênants dans l’infrarouge. Sources thermiques Domaine 100–300 nm. Il est possible de produire un plasma très chaud (T ∼ 14 000 K), dont la température est néanmoins connue avec précision (∼2 %). Sur des longueurs expérimentalement accessibles l (1 à 10 cm dans l’argon), ce plasma n’est optiquement épais que dans les raies de résonance des atomes du gaz : raie Lyman α (121.5 nm) de l’hydrogène, raies de N II (108.5 nm), C I, Kr I... Dans ces raies, l’intensité émise : Iλ = Bλ (T ) [1 − exp(−κλ l)] , est très proche de la brillance du corps noir Bλ (T ) si la profondeur optique κλ (l) dépasse l’unité. Néanmoins, avec ΔT /T ∼ 2×10−2 , on a encore ΔB/B = 0.2, ce qui n’est pas excellent. Domaine 0.3–100 nm. Il n’est plus possible de fabriquer une source optiquement épaisse et il faut renoncer à disposer d’un rayonnement de corps noir pour étalonner les instruments. On peut utiliser le rayonnement thermique libre-libre (en anglais free-free) d’un plasma chaud et optiquement mince.
126
L’observation en astrophysique
La puissance rayonnée par unité de volume du plasma (émissivité volumique) s’écrit : εν = 6.36 × 10−47 Ni Ne Z 2 g(ν, T )
exp(−hν/kT ) Wm−2 sr−1 Hz−1 , (kT )1/2
où Ni et Ne (cm−3 ) sont les densités respectives des ions et des électrons, Z le nombre de charge des ions, g(ν, T ) le facteur de Gaunt7 . La création de ce plasma se fait dans un tube à décharge pulsée dans lequel la température atteint T = 1.5 × 106 K et la densité électronique Ne = 2 × 1017 cm−3 . L’ionisation initiale résulte de l’application d’un champ de radiofréquences produisant le préchauffage d’une décharge, puis le chauffage résulte d’une compression de la matière par application d’un champ magnétique intense (0.5 T). L’émission électromagnétique ne dure que quelques microsecondes. Rayonnement synchrotron (non thermique) Le rayonnement synchrotron émis par des électrons accélérés dans un champ magnétique est une source d’étalonnage intéressante par son caractère quantitatif et bien reproductible. Le rayonnement, émis par un électron d’énergie ε orbitant dans une induction magnétique B, est concentré autour d’une fréquence νm donnée par8 : νm =
eB 2πme
ε m e c2
2 ,
me masse de l’électron.
Le spectre émis (Fig. 3.11) est réparti autour de νm . La puissance rayonnée est donnée par : 16e3 Bc dP (ν) = p(ν/νm )dν. 4πε0 me c2 Le rayonnement est directif, dans un cône étroit, axé sur la tangente à la trajectoire, d’angle au sommet 2θ, avec : θ (rd) ≈
m e c2 0.511 = · ε ε (MeV)
Bien que particulièrement adéquat aux domaines UV et X, le rayonnement synchrotron fournit également une excellente source d’étalonnage dans le visible ou le proche infrarouge, notamment grâce à sa délimitation spatiale précise. 7 Le rayonnement d’un plasma chaud est donné dans Astrophysical Formulae, § 1.30, ainsi que dans Astrophysical Quantities, § 43, où on trouvera tabulé le facteur de Gaunt. 8 Le rayonnement synchrotron est décrit dans Astrophysical Formulae, § 1.25.
3. Rayonnement et photométrie
127
Fig. 3.11 – Répartition spectrale du rayonnement synchrotron d’un électron en mouvement dans une induction magnétique. (Lang K. R., Astrophysical Formulae.)
Depuis les années 1990, les sources de rayonnement synchrotron sont nombreuses. Citons l’European Synchrotron Research Facility ou esrf (Grenoble, France), doris (Hambourg, Allemagne), Brookhaven (New York), Tsukuba (Japon), Daresbury (Grande-Bretagne), Argonne (Chicago). À titre d’exemple, l’esrf fournit un faisceau où θ = 0.1 mrd, avec une luminance atteignant 1014 à 1018 photons s−1 mm−2 mrd−2 intervalle spectral−1 . L’intervalle spectral ΔE à une énergie E est de l’ordre de ΔE/E ≈ 10−3 . Il est également possible de produire du rayonnement γ à partir des électrons du synchrotron, en utilisant l’effet Compton inverse sur un faisceau laser. On obtient ainsi un rayonnement γ, de propriétés spectrales bien définies, dans le domaine 1 à 1.5 GeV.
3.5.4
Rayonnement γ
Ici, les récepteurs fonctionnent toujours en mode comptage et on distingue deux objectifs : l’étalonnage en énergie de chaque photon (spectrométrie) et la mesure de l’efficacité de détection (photométrie). À basse énergie (< 2 MeV), les sources de référence sont des échantillons radioactifs d’émission connue (par exemple le cobalt 60 Co, qui émet des raies à 1.17 et 1.33 MeV) et dont l’activité est étalonnée. S’agissant de la photométrie, deux difficultés sont à noter concernant les sources radioactives d’étalonnage. Tout d’abord, l’activité de ces sources radiaoctives n’est généralement pas connue à mieux que quelques pour-cents. En outre, pour les sources à demi-vie courte, inférieure à 10 ans, il faut réactualiser régulièrement l’activité de la source, voire, dans le cas de demi-vie très courte, inférieure à la semaine, prendre en compte la décroissance de la source pendant son utilisation. À haute énergie, on utilise des accélérateurs de
128
L’observation en astrophysique
particules. Là encore la précision atteinte en photométrie n’est guère meilleure que quelques pour-cents. L’étalonnage des instruments est également effectué en vol (ballons ou espace), car la réponse de l’instrument peut évoluer au cours du temps et particulièrement après le lancement. L’étalonnage photométrique peut être obtenu par l’observation d’une source de référence, stable et de spectre connu (par exemple la nébuleuse du Crabe), et l’étalonnage spectral peut résulter de l’observation de raies de décroissance radioactive, dues à des sources placées intentionnellement à bord, ou encore à l’activation du matériau de l’instrument par les rayonnements reçus en orbite.
3.5.5
Quelques illustrations de spectrophotométrie
La détermination de l’intensité spécifique d’une source, spatialement délimitée, dans différents domaines de longueurs d’onde fait appel à des techniques instrumentales très diverses. La précision des étalonnages est elle-même variable avec la longueur d’onde. La juxtaposition de l’ensemble des observations fournit, in fine, un spectre global de l’objet qui seul permet d’en saisir l’unité physique. Donnons en quelques exemples. Soleil On pourrait supposer que la spectrophotométrie absolue de cet objet si proche et si lumineux est parfaitement établie sur l’ensemble du spectre électromagnétique. Ce n’est pas le cas, comme l’illustrent les figures 3.10 et 3.12. Outre la difficulté d’obtenir des mesures couvrant dix-huit décades en éclairement réduit λEλ , la variabilité du Soleil dans certains domaines spectraux ne permet pas de définir un éclairement uniforme dans le temps. C’est d’ailleurs une observation applicable à la plupart des étoiles et autres objets de l’astrophysique : il est bien rare qu’une amélioration de la précision photométrique ne conduise pas à découvrir une variabilité là où l’objet était a priori supposé de luminosité stable. Sources extragalactiques aux radiofréquences La détermination du spectre d’un objet sur un large domaine de fréquence est indispensable pour déterminer l’origine physique du rayonnement qu’il émet, par exemple thermique ou non thermique. La difficulté réside ici dans la photométrie des sources lointaines et faibles, car des temps d’intégration importants sont requis, donnant lieu à toutes sortes d’effets parasites dus à l’atmosphère, aux fluctuations internes à l’instrument et qui modifient l’étalonnage initial. La figure 3.13 donne différents exemples de photométrie absolue d’objets extragalactiques, conduisant à leur attribuer des spectres thermiques ou non thermiques.
3. Rayonnement et photométrie
Fig. 3.12 – Vue d’ensemble du rayonnement intégré du disque solaire. L’éclairement monochromatique à l’extérieur de l’atmosphère terrestre est porté en fonction de la longueur d’onde. La température de divers corps noirs est indiquée. Le symbole désigne le Soleil. (D’après White O.R., The physical Output of the Sun, Boulder, 1976. Avec l’aimable autorisation de Boulder Press.)
129
130
L’observation en astrophysique
Fig. 3.13 – Photométrie dans le domaine des radiofréquences : la radiosource Cassiopée A (rayonnement synchrotron), la source thermique (rayonnement de freinage) de la nébuleuse d’Orion (région H II), le noyau galactique NGC 1275 présentant un spectre en partie thermique et en partie synchrotron à basse fréquence. (D’après Lang K.R., Astrophysical Formulae. Cette figure rassemble les résultats de différents auteurs.) Noter le modèle indiqué en trait plein, les points de mesure et les barres d’erreur. (Avec l’aimable autorisation de l’éditeur.)
Rayonnement de fond cosmologique. La difficile mesure de ce rayonnement fournit une remarquable illustration des précisions que peut atteindre la spectrophotométrie absolue et des conséquences astrophysiques fondamentales qui en découlent. Le satellite Cosmic Background Explorer (cobe, 1989, nasa) emportait un spectrophotomètre absolu, l’instrument firas, composé d’un interféromètre de Michelson suivi de détecteurs bolométriques, afin de déterminer le spectre du fond cosmologique dans le domaine spectral λ = 0.1−10 mm. L’étalonnage absolu était fait à l’aide d’une source interne de rayonnement thermique, s’approchant d’un corps noir dans ce domaine spectral par une émissivité meilleure que 0.9999. Après soustraction de l’émission propre de la Galaxie, également détectée par l’instrument et convenablement modélisée, le spectre du fond de ciel a été établi : il est ajusté au mieux pour 0.5 < λ < 5 mm par celui d’un corps noir de température T = 2.726 ± 0.010 K. Sur tout ce domaine, la déviation maximale au spectre de Planck est de 0.03 %, une précision absolument exceptionnelle atteinte dans des conditions technologiques de mesure extrêmement difficiles9 . En 2007, non seulement la précision de ces mesures a été améliorée, mais 9 Une série complète de références concernant l’extraordinaire mission cobe est donnée par Mather J.C., « Infrared Measurements from the Cosmic Background Explorer », Infrared Phys. Technol., 35, 331-336, 1994.
3. Rayonnement et photométrie
131
une cartographie détaillée des fluctuations spatiales de ce rayonnement a été établie (mission wmap, de la nasa, 2000), qu’améliorera encore la mission européenne Planck (2008), comme présenté au § 7.4.7.
3.6
L’étalonnage des dimensions angulaires
L’avènement de la très haute résolution angulaire, qui peut couvrir un domaine allant de la milliseconde d’angle à la microseconde (5 × 10−12 rd grâce aux interféromètres optiques et radio (cf. § 6.4), fait apparaître un nouveau besoin : celui de pouvoir définir une source non résolue à cette échelle de taille – nous l’appelons alors ponctuelle (sous-entendu : pour l’instrument considéré). En effet, lorsque tel instrument mesure la visibilité de la source, à une fréquence spatiale donnée, l’observation mélange des effets instrumentaux, qui sont discutés en détail au chapitre 6, et les propriétés spatiales de l’objet – par exemple, s’il s’agit d’une étoile, son diamètre angulaire et son assombrissement centre-bord. Distinguer les deux paramètres impose de pouvoir observer, avec le même instrument et dans des conditions semblables, une source que l’on puisse considérer comme spatialement connue, c’est-à-dire en pratique comme non résolue, i.e. ponctuelle (dimension très petite devant la résolution de l’instrument). L’utilisation du disque d’une étoile lointaine, observée aux longueurs d’onde du visible (rayonnement de la photosphère), serait parfaite, mais sa magnitude est généralement trop faible pour être observable : si par exemple le choix était fait d’une étoile de type solaire, et que l’on veuille que son diamètre angulaire soit inférieur à 100 μarcsec, elle devrait se trouver à 10 kpc, et sa magnitude (V) serait alors d’environ 19, bien trop faible pour la sensibilité de l’interféromètre. Illegal variable name. La solution à ce problème, en 2007, consiste à utiliser des étoiles plus proches, donc résolues partiellement, dont on considère néanmoins l’assombrissement centre-bord, et plus généralement la répartition de brillance photosphérique, comme correctement modélisés et permettant d’étalonner l’interféromètre. Dans le proche infrarouge, le problème se complique du fait de la présence éventuelle, mais non nécessairement connue, de matériau circumstellaire qui émet du rayonnement, et modifie la structure spatiale observée.
Exercices Exercice 3.1. Indices de couleur. Les indices de couleur des étoiles de la séquence principale sont donnés par le tableau ci-dessous. Déterminer la température de couleur des différents types spectraux (c’est-à-dire la température du corps noir ayant, dans un intervalle de longueur d’onde donné, la même répartition spectrale). On pourra, pour simplifier, assigner à chaque bande sa longueur d’onde centrale.
132
L’observation en astrophysique Type spectral AO FO GO KO MO M5
V-R 0.00 0.30 0.52 0.74 1.10
V-I 0.00 0.47 0.93 1.40 2.20 2.80
Indice de V-J 0.00 0.55 1.02 1.50 2.30
couleur V-K 0.00 0.74 1.35 2.0 3.5
V-L 0.00 0.80 1.50 2.50 4.30 6.40
V-N 0.00 0.00 1.40
Réponse Un corps noir de température T a pour indice de couleur : V-L (T ) = constanteVL − 2.5 log(B(λV , T )/B(λL , T )), où λV et λL sont les longueurs d’ondes représentative des bandes correspondantes (pour simplifier). La constante est fixée par l’hypothèse que, pour le corps noir de température infinie, on a V-L = 0. Son flux varie comme λ−2 donc : constanteVL = 2.5 · 2 · log(λL /λV ) = 3.96. D’après le tableau précédent, la température de couleur TM0 d’une étoile M0 vérifie : 3.96 − 2.5 log(B(λV , TM0 )/B(λL , TM0 )) = 4.30. ce qui mène pour ce cas particulier à : TM0 = 4 100 K. Exercice 3.2. Un télescope refroidi à très basse température est utilisé pour déterminer le rayonnement cosmologique à la longueur d’onde λ = 1 mm. Calculer la puissance reçue par étendue de cohérence λ2 et par intervalle de fréquence Δν. Calculer également la puissance reçue de la Terre, supposée à T = 300 K et observée à 90◦ de la direction principale de visée (le télescope est dans l’espace et vise le zénith local). Comparer et en déduire le taux de réjection angulaire nécessaire pour faire une mesure à 1 % près du fond cosmologique. (On trouvera au chapitre 6 la configuration des lobes de diffraction d’une pupille.) Adopter D = 10 cm pour le diamètre du télescope. Exercice 3.3. Une source thermique (région H II d’hydrogène ionisé) est optiquement épaisse à toutes longueurs d’onde : son rayonnement thermique (Bremsstrahlung) est tel que Iν = Cte (Astrophysical Formulae, § 1.30). Sachant qu’elle rayonne 10 mJy aux fréquences radio, calculer sa magnitude mV aux longueurs d’onde du visible. Réponse D’une part, le rayonnement de la source vérifie pour toute longueur d’onde, et en particulier dans le visible : Iν = 10 mJy = 10−28 Wm−2 Hz−1 .
3. Rayonnement et photométrie
133
Par ailleurs, dans le visible : mν = −2.5 log(Iλ /3.92 × 10−8 Wm−2 mm−1 ). Le lien entre ces deux relations est obtenu par : Iν Δν = Iλ Δλ où Δν = c/λ2 Δλ. Ainsi, Iλ = 9.92 × 10−14 W m−2 μm−1 , et donc la magnitude visible de la source est : mV = 14.
This page intentionally left blank
Chapitre 4 Les repères d’espace et de temps
La mesure de la position des objets astronomiques et la datation des événements forment une partie capitale de l’observation en astrophysique et de l’analyse des données. Il ne suffit pas d’obtenir des grandeurs photométriques sur le rayonnement émis, il faut encore identifier la source dans des catalogues ou des bases de données, la positionner avec un degré de précision extrême, puisque les résolutions spatiales sur les images peuvent atteindre quelques dixièmes de millisecondes d’angle et iront encore en s’améliorant. Quant aux précisions absolues de positionnement d’objets célestes, elles sont passées en une vingtaine d’années de quelques centièmes de seconde de degré avant le lancement du satellite Hipparcos à une dizaine de microsecondes de degré avec la mission gaia. De son côté, la sensibilité des récepteurs permet de mesurer des phénomènes dont le temps de variabilité est inférieur à la milliseconde de temps. Enfin, la navigation spatiale et les rendez-vous dans le système solaire demandent des bases de temps extrêmement précises compatibles avec la relativité générale. Ce chapitre aborde donc les progrès récents et importants dans le repérage astronomique de l’espace, puis du temps, même si la source primaire de temps est désormais liée à un phénomène distinct du mouvement de la Terre. Ces notions ont également d’importantes applications dans la vie quotidienne des terriens que nous sommes, par exemple avec le gps ou la synchronisation des horloges dans les transports et les télécomunications. L’objectif est de fournir les bases sur les repérages d’espace et de temps nécessaires pour des calculs pratiques qui ne visent pas une exactitude meilleure que quelques 0 . 01 pour des positions absolues. Pour situer cette exigence par rapport aux performances passées et actuelles de l’astrométrie, il suffit d’examiner l’évolution de la précision en fonction du temps sur les mesures de positions ou
136
L’observation en astrophysique
de parallaxes sur la figure 4.1. Le catalogue d’Hipparque1 -Ptolémée2 ayant été transmis dans l’Almageste, il est possible de faire le calcul des positions vraies rapportées à l’équateur ou à l’écliptique de l’époque pour déterminer la qualité statistique des mesures et parvenir à cette précision de l’ordre de 0.3-0.5 degrés. On peut voir sur la figure la très lente amélioration de la précision dans les pointages astronomiques avec une très faible inflexion lors de l’arrivée des instruments optiques vers la fin du xviie siècle : la lunette est devenue disponible avec Galilée en 16103, mais son usage comme instrument de visée a été plus tardif et date de la fondation des observatoires de Paris et de Greenwich. Les lunettes ont permis avant tout d’observer des objets plus faibles, mais pas spécialement mieux en ce qui concerne la mesure des directions. Par la suite les progrès en construction mécanique et horlogerie se sont révélés tout aussi importants que ceux provenant directement de l’optique. 0
1400
Hipparque
1600
1700
1800
1900
2000
2100
Ulugh Beg
1000" 100
1500
Wilhelm IV
10
1000" Tycho Brahe Hevelius Flamsteed
100 10
Bradley-Bessel
1"
1" GC
100 10
VSDWLDO
Hipparcos
1 mas
100
FK5
W«OHVFRSHV
ĕLOQX
100
DIVA
10 1 μas
Gaia
ICRF
1400
1500
1600
1700
1800
1900
2000
1 mas 100
FAME
0
10
SIM
10 1 μas
2100
date
Fig. 4.1 – Évolution de la précision astrométrique dans l’observation des étoiles et des planètes en fonction de l’époque. En revanche la partie récente de la courbe est très instructive et illustre l’apport considérable des techniques spatiales dans le progrès de l’astrométrie (mesure des positions, mouvements propres et parallaxes des astres). Si il a fallu environ 20 siècles pour améliorer la précision astrométrique de 1 Hipparque : le plus grand astronome de l’antiquité grecque qui vécut au iie siècle av. J.C. On lui doit la découverte de la précession des équinoxes et le premier catalogue stellaire. 2 Ptolémée : astronome et mathématicien alexandrin du iie siècle de notre ère. Il exposa la synthèse des connaissances astronomiques de son époque dans l’Almageste, ouvrage de référence pendant 15 siècles pour les théories géocentriques des mouvements planétaires. 3 G. Galilée (1564-1642), physicien et astronome italien, fondateur (avec Newton) de la mécanique moderne et le premier à utiliser une lunette pour l’observation scientifique du ciel. Il s’est montré un défenseur talentueux et opiniâtre des conceptions coperniciennes.
4. Les repères d’espace et de temps
137
4 à 5 ordres de grandeurs, il n’aura ensuite fallu qu’un peu plus de 20 ans (Hipparcos-Gaia-sim) pour assister à un progrès comparable. Les projets diva (Allemagne) et fame (États-Unis) proposés peu après le succès de la mission Hipparcos n’ont finalement pas été financés. Ils sont maintenus dans le diagramme pour indiquer les ambitions et les possibilités techniques autour des années 2000-2005. Les exigences de la modélisation dépendent fortement de la précision recherchée et la difficulté croît très rapidement avec cette précision. Il est donc nécessaire de prendre les outils adaptés à chaque situation. Il est inutile de prendre en compte la formulation relativiste de l’aberration pour une astrométrie à la seconde de degré alors que cela est indispensable à la milliseconde. Les valeurs angulaires typiques de l’astronomie de position sont données dans le tableau 4.1 avec une idée de l’époque où cette précision a été (ou sera) atteinte. Tab. 4.1 – Unités angulaires de l’astronomie de position avec une illustration en terme de diamètre apparent. La dernière colonne donne une indication de l’époque où cette précision a été atteinte. angle
radians
une pièce de 1 euro à :
Époque
1 degré
∼ 10−2
1m
Hipparque
1
∼ 2 × 10−4
100 m
Tycho Brahe
∼ 10−5
4 km
1900
1 mas
∼ 10−8
4 000 km
Hipparcos
10 μas
∼ 10−10
4 × 105 km (sur la Lune)
Gaia
1 μas
∼ 10−11
1 cheveu à 4 000 km
sim
1
4.1 4.1.1
Le repérage spatial Définitions des repères d’espace
Le repérage des événements astronomiques est étroitement lié à la collecte de l’information transportée par les photons. Le repérage de la position des objets célestes, planètes, étoiles, galaxies, quasars, etc., est nécessaire à leur identification et à leur recensement, afin de pouvoir les retrouver lors d’observations ultérieures et de conduire des études statistiques sur la distribution de la matière dans l’Univers. Mais plus qu’une simple liste, la position des objets et leurs éventuels mouvements constituent une information scientifique aussi importante que leurs propriétés physiques particulières. Dans tout ce chapitre, on rapportera l’espace à une origine O et à trois directions fondamentales Ox1 , Ox2 , Ox3 définies par les vecteurs unitaires orthogonaux e1 , e2 , e3 . On supposera que le trièdre est direct, c’est-à-dire que e3 = e1 ×e2 (produit vectoriel). Un point M est repéré soit par ses coordonnées
138
L’observation en astrophysique
cartésiennes (x1 , x2 , x3 ) avec OM = x1 e1 + x2 e2 + x3 e3 , ou ses coordonnées sphériques (r, θ, φ) avec : x1 = r cos φ cos θ, x2 = r sin φ cos θ, x3 = r sin θ, où r > 0, 0 ≤ φ < 2π, −π/2 ≤ θ ≤ π/2 avec la terminologie générale d’angle de longitude pour φ et d’angle de latitude pour θ (Fig. 4.2). Il faut noter que la définition de la latitude à partir de l’équateur est d’un usage habituel en astronomie alors que les physiciens utilisent de préférence la colatitude mesurée à partir du pôle. Il faut avoir ce point à l’esprit lorsque l’on utilise les repères tangents qui ne sont pas orientés de la même manière.
x3 M r O
θ x2
φ x1 Fig. 4.2 – Trièdre de référence et définition des coordonnées sphériques avec les conventions des astronomes. La définition et la réalisation pratique d’un tel repère nécessitent le choix d’un plan fondamental normal à e3 , d’une origine des longitudes dans la direction e1 et la matérialisation de ces directions dans le ciel. Les formules ci-dessus assurent le passage des coordonnées sphériques (r, θ, φ) du point M vers les coordonnées cartésiennes (x1 , x2 , x3 ). La transformation inverse doit être effectuée avec soin. En effet, la détermination d’un angle sur [0, 2π] nécessite la connaissance simultanée de son sinus et de son cosinus où au minimum d’une des lignes trigonométriques et du signe de l’autre. L’oubli de cette règle élémentaire est source de bien des désagréments et d’erreurs dans les calculs automatiques. Avec cette précaution, le passage des composantes cartésiennes de OM aux coordonnées sphériques s’obtient
4. Les repères d’espace et de temps
139
par les formules suivantes : θ = arcsin(x3 ), φ = angle(x1 , x2 ) = arctan 2(x2 , x1 ), où la fonction α = angle(x, y) ⇐⇒ x = cos(α) et y = sin(α). Pour éviter les tests dans les programmes et n’utiliser que la fonction arctan(x) directement disponible dans tous les langages de programmation, on peut, de façon plus expéditive, déterminer la longitude par : tan
φ sin φ x2 = = , 2 1 + cos φ r cos θ + x1
et : φ = 2 arctan
x2 , r cos θ + x1
qui donne directement l’angle φ entre −π et +π sans ambiguïté de quadrant. L’angle θ est compris entre −π/2 et +π/2 et donc complètement déterminé par son sinus. Les formules s’adaptent aisément lorsque le vecteur position n’est pas unitaire.
4.1.2
Les repères astronomiques
Caractéristiques des repères L’étude des mouvements et des positions des astres (planètes, satellites, étoiles, galaxies, etc.) nécessite la définition et la construction pratique de systèmes de repérage dans l’espace. Une grande part de l’activité astronomique dans l’histoire a été consacrée à ces constructions et ce n’est que depuis 150 ans que l’étude physique des astres a pris une place majeure dans la recherche astronomique. Les trièdres en usage en astronomie se distinguent les uns des autres par les caractéristiques suivantes : Tab. 4.2 – Les repères usuels en astronomie de position. L’origine des coordonnées Le lieu d’observation Le centre de la Terre Le centre du Soleil Un centre des masses
Repère Repère Repère Repère
topocentrique géocentrique héliocentrique barycentrique
Le choix des directions fondamentales La verticale locale Le pôle céleste La normale à l’écliptique Un pôle conventionnel
Système horizontal Système équatorial Système écliptique Système galactique, système héliographique
140
L’observation en astrophysique
La verticale et le pôle céleste correspondent à des définitions physiques idéales que l’on s’efforcera de matérialiser au mieux à partir d’observations, alors que les pôles conventionnels ne sont définis que par un jeu de nombres qui permet de les rattacher aux systèmes physiques. Par exemple, le plan de l’équateur solaire utilisé dans le repérage des taches solaires est incliné par définition de 7.2 degrés sur l’écliptique de 1850. L’origine dans le plan équatorial se réfère au nœud ascendant de l’équateur solaire sur l’écliptique le 1/1/1854 à 12 h. Le méridien origine effectue par définition une rotation sidérale en 25.38 jours solaires moyens. Comme le plan de l’écliptique à la date de 1850 peut être rattaché par la théorie du mouvement de la Terre au repère équatorial à n’importe quelle date, on peut donc définir à tout instant le repère héliographique par quelques constantes numériques. La précision de la définition est compatible avec celle de l’accès au système par les observations : il n’y pas lieu de chercher à localiser une tache solaire, objet aux contours incertains, avec une précision meilleure que quelques secondes de degré. Le repère horizontal Il s’agit du repère le plus naturel auquel on rapporte la position des astres et leur mouvement apparent au cours du cycle diurne. On considère un trièdre dont l’origine coïncide avec l’observateur. Il existe en chaque lieu et à tout instant, une direction privilégiée aisément matérialisable : la verticale locale, qui représente la direction de la pesanteur (résultante de l’attraction gravitationnelle et de la force centrifuge due à la rotation de la Terre). Le plan normal à la verticale est l’horizon, ou plan horizontal. Le point associé sur la sphère céleste à la verticale ascendante est le zénith et le point opposé, le nadir. Le plan contenant la verticale locale et la direction du pôle céleste (ce plan n’a aucune raison de contenir l’axe de rotation de la Terre, mais nous négligerons dans la suite cette petite différence) est le plan méridien du lieu et son intersection avec l’horizon définit l’origine des longitudes du repère horizontal. La trace du méridien du lieu sur la sphère céleste est appelée méridien astronomique. Il s’agit bien là d’une notion astronomique et non géographique, qui serait relative à des lieux terrestres de longitude donnée sur la Terre. La forme exacte de la Terre ou la complexité de son champ de gravitation n’interviennent pas directement dans la définition. Seule la notion de verticale locale est importante et elle peut être réalisée au moyen d’un fil à plomb ou par la surface d’un liquide au repos (plan dont la normale est la verticale). Les deux angles sphériques repérant une direction par rapport à ce trièdre sont l’azimut A et la hauteur h. L’azimut est compté dans le plan horizontal, suivant une convention d’orientation différente selon que l’on a à faire aux astronomes, aux géodésiens, aux marins ou aux spécialistes de la géodésie spatiale. Il y a quatre conventions possibles, selon l’origine (Nord ou Sud) et l’orientation (directe ou rétrograde). Pour être en accord avec les usages des astronomes, nous prendrons comme origine le Sud. Les astronomes ont eu pour habitude d’orienter les azimuts dans le sens rétrograde (de telle sorte
4. Les repères d’espace et de temps
141
que les azimuts soient croissants dans le mouvement diurne pour un astre culminant suel et pour un habitant de l’hémisphère Nord). Aujourd’hui avec les calculs automatiques et les formulaires matriciels, une orientation directe du trièdre est nettement préférable et permet d’employer les opérateurs de rotation sans se poser trop de questions sur le sens des angles. Ainsi, dans les formules qui suivent, l’azimut croît de 0◦ à 90◦ vers l’Est. Les formulaires peuvent être donc légèrement différents de ce que l’on trouve dans les ouvrages d’astronomie sphérique, surtout s’ils sont un peu anciens.
Zénith
verticale
M r O
K
Est
$ Sud Fig. 4.3 – Définition du système horizontal. Dans le système horizontal (Fig. 4.3), le vecteur unitaire dans la direction OM a la forme suivante : ⎤ ⎡ ⎤ ⎡ cos A cos h x1 U (A, h) = ⎣ x2 ⎦ = ⎣ sin A cos h ⎦ . sin h x3 Remarque : La direction fondamentale du système horizontal est la verticale du lieu. C’est la direction du fil à plomb, c’est-à-dire la direction résultant de la force d’attraction newtonienne de la Terre, de la force d’inertie d’entraînement au lieu d’observation due à la rotation de la Terre par rapport à un système inertiel, des attractions différentielles de la Lune et du Soleil (forces de marées) et, dans une moindre mesure, de l’attraction des planètes. Les forces de marées étant variables dans le temps en intensité et en direction, il en est de même pour la verticale locale par rapport à des repères locaux intangibles (murs, poteaux, rochers, constructions...). Le trièdre astronomique local est donc légèrement variable par rapport à un référentiel terrestre avec des amplitudes de l’ordre de 0 . 015 et des périodes mensuelles et annuelles.
142
L’observation en astrophysique
Le repère horaire En raison du mouvement diurne, les coordonnées horizontales d’un astre sont variables et suivent l’une et l’autre une loi assez compliquée, ce qui rend ce système impropre pour dresser un catalogue des objets célestes. Le système est juste adapté à la description instantanée des positions des astres sur le ciel pour un observateur à la surface de la Terre. On améliore la situation en choisissant l’équateur céleste comme plan fondamental et, donc, la direction du pôle céleste pour le vecteur e3 . L’origine des longitudes dans ce plan est donnée par l’intersection de l’équateur céleste et du méridien céleste local (Fig. 4.4) : il y a deux telles intersections et l’habitude a été de choisir la direction de la culmination du Soleil, c’est-à-dire le Sud pour les habitants du bassin méditerranéen ou de la Chine. Les coordonnées sphériques associées sont respectivement : Pôle céleste
M
équateur céleste
O
δ +
Sud
Fig. 4.4 – Système de coordonnées horaires.
– La déclinaison δ pour l’angle de latitude, c’est-à-dire la hauteur de l’astre au-dessus de l’équateur céleste. Elle est mesurée entre −π/2 et +π/2 et, pour une étoile donnée, dépend du temps en raison de la précession de l’équateur céleste et du mouvement propre. La précession, c’est-à-dire le mouvement systématique du pôle céleste autour du pôle de l’écliptique, produit une variation annuelle de la déclinaison des étoiles valant au maximum 20 par an, alors que les mouvement vrais de l’étoile dans l’espace se traduisent par des mouvements propres de l’ordre de 10 mas/an, sauf quelques cas exceptionnels. La précession est un mouvement du repère par rapport aux sources et non un mouvement réel des sources.
4. Les repères d’espace et de temps
143
– L’angle horaire H est l’angle dièdre entre le méridien local et le plan contenant la direction de l’étoile et celle du pôle céleste. Pour des raisons historiques liées aux techniques de détermination du temps, la convention choisie pour orienter H est telle que dH/dt > 0, H est donc orienté dans le sens rétrograde. Il convient alors d’être très prudent lors de l’application des matrices de rotation dans le système horaire. Contrairement à l’orientation de l’azimut, la convention d’orientation pour l’angle horaire ne souffre pas d’exception et nous nous y tiendrons, en dépit de l’inconvénient qui en résulte sur le plan mathématique. L’angle horaire est traditionnellement exprimé en unités de temps (heure, minute, seconde), bien qu’il soit plus approprié d’utiliser les unités d’angles (degrés décimaux, radians) pour conduire les calculs : ⎡ ⎤ ⎡ ⎤ x1 cos H cos δ U (H, δ) = ⎣ x2 ⎦ = ⎣ − sin H cos δ ⎦ . sin h x3 Le repère équatorial Le système horaire n’est pas encore parfaitement adapté à une description du ciel indépendante de l’observateur, puisqu’il fait référence au méridien de ce dernier. On s’affranchit de cette contrainte en éliminant la composante rapide du mouvement de rotation de la Terre (période de 24 heures pour ce mouvement rapide par opposition aux mouvements lents de nutation, 18 ans, et de précession, 26 000 ans). Le pôle céleste définit toujours la direction e3 . On conserve donc les déclinaisons comme angle de latitude (Fig. 4.5). Dans le plan équatorial, on choisit un point non tournant (plus exactement à rotation très lente de ≈ 50 par an) comme origine des longitudes : l’intersection du plan moyen de l’orbite de la Terre avec l’équateur céleste instantané. Ce point est traditionnellement appelé point vernal et noté γ. La longitude dans ce système porte le nom d’ascension droite et est comptée dans le sens direct, si bien que le vecteur unitaire de la direction OM devient : ⎡ ⎤ ⎡ ⎤ x1 cos α cos δ U (α, δ) = ⎣ x2 ⎦ = ⎣ sin α cos δ ⎦ . sin δ x3 Les catalogues d’étoiles, de galaxies ou de radiosources se rapportent à ce système en donnant précisément la date correspondant au choix de l’équateur et l’époque à laquelle sont données les positions des astres du catalogue. Il y a en effet deux sources principales de variations des coordonnées équatoriales des étoiles : – Le changement du système de référence, d’une part, qui, en raison du mouvement de précession et de nutation, modifie la position de l’équa-
144
L’observation en astrophysique
Pôle céleste
M r O
δ
α γ Fig. 4.5 – Le système de référence équatorial. teur céleste parmi les étoiles et entraîne une variation de leur coordonnées, même si elles ne sont l’objet d’aucun mouvement réel par rapport à un système de référence inertiel. Les changements annuels des valeurs des coordonnées du fait de la précession sont de l’ordre de 50 . – D’autre part, les étoiles ne sont pas fixes dans l’espace mais participent au mouvement de rotation de la Galaxie et possèdent un déplacement propre au cours du temps se traduisant par un changement des coordonnées équatoriales, même dans un repère fixe. Dans le ciel, cela se traduit par un déplacement relatif des étoiles les unes par rapport aux autres et par une lente évolution de la forme des constellations. Les mouvements propres sont généralement très faibles : seulement 100 étoiles ont un déplacement annuel plus important que 0 . 1 et la plus rapide d’entre elles, l’étoile de Barnard4, a un mouvement propre de 10 par an. Un catalogue stellaire rapporté au système équatorial est fourni avec une équinoxe, date correspondant à l’orientation du système équatorial choisi, et une époque, date à laquelle se rapportent les positions des étoiles. En général l’équinoxe est une date ronde conventionnelle (cf. § 4.3.6) alors que l’époque du catalogue est proche de la date médiane des observations qui ont été utilisées pour sa construction. Depuis l’introduction du système de référence icrs, 4 E.E. Barnard (1857–1923), astronome américain qui est avant tout un observateur de talent, de façon visuelle ou au moyen de plaques photographiques. Il a découvert Amalthée, le premier satellite de Jupiter détecté depuis Galilée et remarqué le mouvement propre exceptionnel de l’étoile qui depuis porte son nom.
4. Les repères d’espace et de temps
145
le système équatorial n’est plus formellement attaché à l’équateur céleste (tout en étant par construction très voisin de l’équateur céleste du 1e janvier 2000 à 12 h) et doit être considéré comme fixe dans le futur. Son lien avec l’équateur de la date est très complexe pour des observations de hautes précisions (typiquement meilleures que la milliseconde de degré) alors que pour les précisions discutées dans cette introduction, les transformations classiques de précession et nutation suffisent. Le repère écliptique Le plan fondamental est constitué par le plan moyen de l’orbite de la Terre autour du Soleil et l’origine demeure le point vernal (Fig. 4.6). Tout le problème réside dans la définition précise de l’écliptique et sa relation avec le système équatorial. Si le système solaire ne comprenait que la Terre et le Soleil, le mouvement orbital de la Terre aurait lieu dans un plan fixe qui pourrait servir de définition et serait accessible à l’observation. Le plan instantané de l’orbite, qui contient le vecteur Soleil-Terre (Soleil-barycentre du système Terre-Lune est une meilleure définition) ainsi que le vecteur vitesse, n’est pas fixe à cause des perturbations planétaires. Il oscille avec une amplitude de 1 autour d’un plan moyen avec une échelle de temps de quelques années. Autrement dit la latitude écliptique du Soleil n’est pas nulle, mais peut atteindre 1 . À ce mouvement périodique se superpose une évolution très lente de ±1.3 degré d’amplitude sur une échelle de temps de 100 000 ans, qui est un des facteurs déclenchant des oscillations climatiques. Sur des durées courtes, l’écliptique est défini par le plan moyen débarrassé des oscillations rapides, dont l’orientation par rapport à un référentiel inertiel change de 47 par siècle. L’inclinaison de l’écliptique moyen à la date T par rapport à l’écliptique de référence à l’époque J2000 (cf. § 4.3.6) est : π = 47 . 0029 T − 0 . 033 T 2 où T est mesuré en siècles juliens de 36 525 jours. L’inclinaison ε0 de l’écliptique sur l’équateur céleste (appelée obliquité de l’écliptique) à l’époque J2000 est une constante du système des constantes astronomiques. Elle est donnée par : ε0 = 23◦ 26 21 . 406 23.439279 degrés, et pour la valeur à une autre époque : ε(T ) = ε0 + aT = 23 ◦. 439279 − 46 . 815 T + O(T 2 ), avec T mesuré en siècles juliens à partir de J2000 (attention, le taux de variation est donné en seconde de degré et non en degré). Cette inclinaison présente une diminution séculaire en raison du mouvement de l’écliptique, mis en évidence à partir des mesures d’obliquité faites depuis Hipparque au deuxième
146
L’observation en astrophysique Pôle céleste
Pôle écliptique
z
Soleil
ε
Ecliptique
y
γ
ε
Equateur
x
Fig. 4.6 – Position de l’écliptique par rapport à l’équateur céleste. siècle avant notre ère. On sait qu’Ératosthène obtint au iie siècle avant notre ère = 23◦ 50 soit une différence de 7 par rapport à la valeur calculée par la formule ci-dessus. À cette variation régulière de l’obliquité se superposent de nombreuses oscillations périodiques, dont la plus importante est due à la nutation de l’axe terrestre avec une période de 18.6 ans et une amplitude de 9 . 20. Cependant il s’agit ici d’un mouvement de l’équateur céleste par rapport à l’écliptique et non d’un mouvement vrai de l’écliptique par rapport aux étoiles.
Le repère galactique Un système de coordonnées galactiques est aussi nécessaire pour des études dans lesquelles le plan galactique intervient comme plan naturel de symétrie, par exemple pour étudier la distribution spatiale des étoiles de différentes populations ou pour les études cinématiques ou dynamiques de la Galaxie. On se sert donc du plan galactique comme plan fondamental de référence. Comme ce dernier ne possède pas une définition physique précise, on utilise une définition conventionnelle, proche du plan perpendiculaire au vecteur rotation de la Galaxie, déterminée en particulier par l’observation de la raie de 21 cm de l’hydrogène. Si dans ce repère l’adéquation à une définition physique n’est pas essentielle (il n’y a pas d’accès précis au système), il est de première importance que les astronomes s’accordent sur une définition commune. Pour définir l’orientation du trièdre galactique par rapport au trièdre équatorial (cf. § 4.1.2), il faut se donner trois paramètres correspondant aux trois degrés
4. Les repères d’espace et de temps
147
de liberté de rotation d’un solide autour d’un point fixe, par exemple les trois angles d’Euler représentés sur la figure 4.7. Pôle céleste
z1 y2
Pôle galactique
z2 Plan galactique
x2 ψ γ
Equateur céleste
φ θ
y1
x1
Fig. 4.7 – Système de coordonnées galactiques. Avec une précision suffisante pour tous les calculs, on a : ψ = 282.86 deg, θ = 62.87 deg, φ = 327.06 deg, ce qui correspond aux coordonnées équatoriales du pôle galactique (direction de z2 ) et du centre galactique (direction de x2 ) pour J2000 : αp = 12 h 51 m 26 s 192.859 deg, δp = 27 ◦ 07 41 27.128 deg, αc = 17 h 45 m 37 s 266.405 deg, δc = −28 ◦ 56 10 −28.936 deg. On notera que la définition usuelle par les coordonnées du pôle et du centre fait intervenir quatre paramètres au lieu des trois nécessaires. Les quatre coordonnées ne sont en fait pas indépendantes car le centre galactique est dans le plan normal à la direction définie par le pôle galactique.
4.1.3
Les changements de repères
De façon tout à fait générale, le passage d’un repère céleste à un autre consiste à trouver la matrice de rotation permettant la transformation des vecteurs de base d’un des repères vers l’autre. Cette approche vectorielle est beaucoup mieux adaptée aux méthodes de calcul modernes que la technique
148
L’observation en astrophysique
plus traditionnelle fondée sur les relations trigonométriques dans les triangles sphériques et conduit, bien entendu, exactement aux mêmes formules analytiques. Cependant pour le calcul numérique, les transformations linéaires sont beaucoup plus efficaces, en matière de temps de calcul, que l’évaluation des lignes trigonométriques présentes dans les formules complètes, tout en étant également d’une programmation plus aisée. Il ne faut pas oublier cependant que les calculs trigonométriques sont reportés dans les opérateurs de rotation, mais que ces derniers deviennent des outils et que leur calcul peut être optimisé une fois pour toutes. Soit le vecteur OM de composantes cartésiennes x1 , x2 , x3 dans le repère R et x1 , x2 , x3 dans le repère R . On passe du repère R vers R par une rotation du trièdre d’angle φ autour d’une direction I. La transformation peut être paramétrée par une matrice 3 × 3 orthogonale R. Alors : ⎡ ⎤ ⎡ ⎤ x1 x1 ⎣ x2 ⎦ = [R] ⎣ x2 ⎦ . x3 x3 x'3
x3
x'3
x'2
α
O
O
x2 x1
R1
x3
x'3
β
x'2 O
x3
x2
R2
x1 x'1
x1
x2
γ
R3 x'1
Fig. 4.8 – Rotations élémentaires autour des axes de coordonnées. Dans les cas élémentaires, les plus importants en pratique, des rotations autour des axes de coordonnées (Fig. 4.8), les matrices R ont la forme suivante : ⎤ ⎤ ⎡ ⎡ 0 0 1 cos β 0 − sin β ⎦, R1 (α) = ⎣ 0 cos α sin α ⎦, R2 (β) = ⎣ 0 1 0 0 − sin α cos α sin β 0 cos β ⎤ ⎡ cos γ sin γ 0 R3 (γ) = ⎣ − sin γ cos γ 0 ⎦ . 0 1 0 Remarque : Les matrices de rotation ci-dessus correspondent à des rotations passives. C’est le système d’axes qui tourne et non la source. L’application à un vecteur permet de passer des composantes de ce vecteur dans
4. Les repères d’espace et de temps
149
le système initial aux composantes dans le système final, après rotation du système. Passage du système horizontal à l’horaire (A, h) ⇐⇒ (H, δ) Les deux trièdres ont en commun l’axe e2 ; la transformation se réduit à une rotation autour de l’axe Ox2 . L’angle entre les axes e3 de chacun des systèmes est égal à la colatitude du lieu, c’est-à-dire π/2 − φ, où φ est la latitude de l’observateur. La transformation entre les vecteurs unitaires est alors : U(A, h) = R2 (π/2 − φ) U(H, δ), et, en appliquant la matrice de rotation aux composantes cartésiennes, on obtient directement la transformation des coordonnées sphériques : cosh cos A = − cos φ sin δ + sin φ cos δ cos H, cosh sin A = − cos δ sin H, sinh = sin φ sin δ + cos φ cos δ cos H. La dernière équation de ce groupe donnant la hauteur d’un astre en fonction du temps (au travers de H) est l’équation fondamentale du mouvement diurne, permettant de calculer les levers et couchers, la hauteur lors de la culmination, la durée du coucher du Soleil, etc. Pour la transformation inverse, on obtient : U(H, δ) = R2 (−π/2 + φ) U(A, h), ce qui donne : cos δ cos H = cos φ sinh + sin φ cosh cos A, cos δ sin H = − cosh sin A, sin δ = sin φ sinh − cos φ cosh cos A. Remarque : Les formules trigonométriques sont données ici pour mémoire. Il est toujours préférable de travailler avec les composantes cartésiennes et les opérateurs de rotation pour les calculs numérique et d’utiliser les angles uniquement comme quantités intermédiaires en entrée et en sortie. En revanche, les études qualitatives et analytiques se traitent plus aisément avec les expressions angulaires. Passage du système horaire à l’équatorial (H, δ) ⇐⇒ (a, δ) Ces deux systèmes décrits au paragraphe 4.1.2 ont en commun l’axe e3 et ne diffèrent que par la rotation autour de cet axe, ce qui correspond à
150
L’observation en astrophysique
l’orientation de la Terre dans l’espace. Cette rotation positionne le méridien céleste de l’observateur par rapport au point vernal. Appelons αz l’angle dièdre entre ce méridien et le plan α = 0 passant par le point vernal ; c’est aussi l’ascension droite du zénith de l’observateur à l’instant de l’observation. Cet angle varie au cours du temps et augmente de 360 degrés lorsque la Terre a effectué une rotation sidérale, soit en 86 164.10 secondes. À l’aide de la figure 4.9, on voit que cet angle a la même mesure que l’angle horaire du point vernal, plus connu sous le nom de temps sidéral local. Cette terminologie, qui trouve ses racines dans les observations méridiennes pratiquées dans tous les observatoires depuis le xviie siècle, est à éviter. Il s’agit d’un angle et non d’un temps et sa définition attachée à un angle horaire conduit à l’orienter dans le sens rétrograde. De plus, la métrologie du temps n’a aujourd’hui plus de lien avec la rotation de la Terre. L’utilisation de l’ascension droite du zénith en lieu et place du temps sidéral confirme cette séparation et évite les confusions en rendant à la géométrie ce qui lui appartient. Avec l’état de la rotation de la Terre défini par l’angle horaire du point vernal, c’est-à-dire par le temps sidéral, on se trouve dans une conception où les cieux sont en mouvement autour de la Terre puisque l’angle horaire croît avec le temps : c’est donc une description du mouvement apparent tel qu’il est perçu par un observateur fixe sur la Terre. En utilisant l’ascension droite du zénith du lieu, c’est la Terre qui tourne par rapport aux étoiles et cet angle sidéral est aussi une fonction croissante du temps, et son interprétation est plus conforme aux mouvements réels.
Pôle céleste
Source
H
Méridien du lieu zénith
γ
δ
φ
α
Equateur céleste
H
αz
s
Fig. 4.9 – Lien entre le système horaire et le système équatorial.
4. Les repères d’espace et de temps
151
Finalement, les transformations entre les coordonnées horaires et équatoriales sont d’une grande simplicité et se réduisent à : U(H, δ) = R3 (αz ) U(α, δ), ce qui donne pour les coordonnées sphériques : H = αz − α, δ = δ. Pour réaliser effectivement la transformation, il reste à connaître αz . Cet angle traduisant la rotation de la Terre par rapport à la sphère céleste, il faut posséder soit une théorie de la rotation de la Terre d’une précision suffisante pour les besoins, soit recourir à l’observation. Dans cet ouvrage qui se veut introductif, on se contentera de considérer que la Terre tourne uniformément sur elle-même en un jour sidéral, à la vitesse angulaire : ω = 360/86 164.10 × 3 600 ∼ 15.041 07 deg .h−1 . Les écarts à l’uniformité sur des temps de quelques années apparaissent au niveau de 0 . 03 et, sur des périodes de plusieurs siècles, il faut tenir compte du ralentissement séculaire de la rotation de la Terre. Ce dernier effet, très faible sur la vitesse de rotation, est cependant cumulatif sur la phase et croît comme le carré du temps. En pratique l’orientation précise de la Terre dans l’espace à très haute précision ne peut s’obtenir que par l’observation régulière avec les techniques de la géodésie spatiale et de l’interférométrie à très longue base. Les paramètres mesurés de l’orientation et de la vitesse de rotation sont disponibles en ligne, pratiquement en temps réel, et toujours accompagnés des valeurs prédites pour les mois suivants. L’ascension droite du méridien céleste de Greenwich est donnée sous forme de table tous les jours à 0 h dans les éphémérides et, de là, on calcule αz au même instant pour un lieu de longitude λ (> 0 vers l’Est) par : αz (0h) = αG (0h)+λ, et, à un instant quelconque de la journée par : αz (t) = αz (0h) + ωt. Avec une précision de l’ordre de 0.005 degré, on peut calculer directement αG (0 h) sans le recours aux éphémérides par la formule : αG (0h) = 100.460 6 + 0.985 6473 d, où d est le nombre de jours écoulés entre J2000 (JD 2451545, JD défini plus loin) et le jour considéré à 0 h TU. Puisque l’époque de référence J2000 débute
152
L’observation en astrophysique
à 12 h, dans l’expression ci-dessus, d prend des valeurs ±0.5, ±1.5, · · · et non des valeurs continues ou entières. Il s’agit d’une expression stroboscopique dans laquelle on a supprimé les multiples de 360 degrés correspondant à des nombres entiers de rotation de la Terre sur elle-même. Le TU étant très voisin du temps solaire moyen, le coefficient numérique dans la formule donnant αG (0 h) n’est autre que le mouvement moyen du Soleil (tropique) en ascension droite par jour, soit 360/365.242 2 = 0.985 647 deg. Par exemple, pour l’angle sidéral de Greenwich au 01/01/2007 à 0 h TU, on a successivement, JD = 2 454 101.5, d= 255 6.5, αG = 100 ◦. 267 9. La valeur prise dans une éphéméride de haute précision donne 6h41m4.55s = 100 ◦. 26896. La différence provient de l’effet de nutation en longitude de l’ordre de 0.001 deg, soit 0.2 s. Passage du système équatorial à l’écliptique (α, δ) ⇐⇒ (l, b) Ce cas est extrêmement simple puisqu’il se limite à une rotation d’angle ε autour de l’axe e1 , commun aux deux systèmes : U(λ, β) = R1 (ε) U(α, δ), cos b cos l = cos α cos δ, cos b sin l = sin ε sin δ + cos ε cos δ sin α, sin b = cos ε sin δ − sin ε cos δ sin α, et pour la transformation inverse : U(α, δ) = R1 (−ε) U(λ, β), cos δ cos α = cos l cos b, cos δ sin α = − sin ε sin b + cos ε cos b sin l, sin δ = cos ε sin b + sin ε cos b sin l, Il est intéressant de spécialiser le deuxième groupe pour le Soleil, c’est-à-dire lorsque b = 0 : cos δ cos α = cos l, cos δ sin α = sin l cos ε, sin δ = sin l sin ε, ce qui donne les coordonnées équatoriales du Soleil en fonction de sa longitude écliptique. Le mouvement en longitude étant très facile à calculer à partir de la solution képlérienne avec une précision de ∼ 10 il est alors aisé d’avoir un petit programme autonome de quelques lignes donnant une éphéméride du Soleil de basse précision. En éliminant la déclinaison entre les deux premières équations on obtient : tan α = cos ε tan l,
4. Les repères d’espace et de temps
153
qui permet d’exprimer l’ascension droite en fonction de la longitude à partir d’un développement rapidement convergent :
α = l − tan2
ε ε ε 1 1 sin 2l + tan4 sin 4l − tan6 sin 6l + · · · , 2 2 2 3 2
ou encore numériquement en degrés, α = l − 2.4658 sin 2l + 0.0531 sin 4l − 0.0015 sin 6l + · · · La quantité α−l est généralement appelée réduction à l’équateur et intervient dans la définition du temps solaire moyen ou la lecture des cadrans solaires. Passage du système équatorial au galactique (α, δ) ⇐⇒ (λ, β) Ce dernier cas est le plus général car il fait intervenir une matrice de rotation complète, composée des trois rotations élémentaires définies par les trois angles d’Euler ψ, θ, φ dont les valeurs numériques ont été données plus haut (cf. § 4.1.2). U(λ, β) = R3 (φ) R1 (θ) R3 (ψ) U(α, δ). Les formules trigonométriques développées ne présentent pas d’intérêt et s’obtiendraient facilement à partir du produit des trois matrices de rotations cidessus. Numériquement, les coordonnées cartésiennes [x 1 , x 2 , x 3 ] des composantes de OM dans le repère galactique se calculent à partir de ses coordonnées cartésiennes [x1 , x2 , x3 ] dans le repère équatorial par : ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ x1 x1 −0.05488 −0.87344 −0.48384 ⎣ x2 ⎦ = ⎣ 0.49411 −0.44483 0.74698 ⎦ ⎣ x2 ⎦ −0.86767 −0.19808 0.45598 x3 x3 Par exemple, la nébuleuse du Crabe a pour coordonnées équatoriales α = 5h 31m 82.75 deg, δ = 21◦ 59 21.98 deg. Le vecteur OM en coordonnées cartésiennes est alors [0.11702, 0.91990, 0.37428] et, donc, dans le repère galactique par application de la matrice ci-dessus [−0.99100, −0.07173, −0.11303], ce qui donne les coordonnées angulaires λ = 184.14 deg, β = –6.49 deg, soit une position très voisine du plan galactique.
4.2 4.2.1
La matérialisation des repères spatiaux Les systèmes de références célestes
Dès l’instant où les astronomes ont voulu consigner leurs observations pour en conserver la mémoire et pouvoir décrire le ciel, au moyen de catalogues ou
154
L’observation en astrophysique
de cartes, ils ont dû choisir un système de référence en définissant le plan fondamental et l’origine des longitudes, puis un repère, c’est-à-dire un système de coordonnées, et enfin le matérialiser dans l’espace afin d’avoir accès à ces coordonnées au travers des mesures. Lors d’une observation élémentaire d’un nouvel astre dans le ciel ou lors du suivi du mouvement d’un astéroïde, il n’est pas aisé de fixer les coordonnées de l’objet perdu au milieu des étoiles. La première réponse qui vient à l’esprit est de mesurer sa position par rapport à des objets voisins connus et de déterminer de proche en proche ses coordonnées en fonction de celles des étoiles voisines, soit par mesure micrométrique directe, soit au moyen de plaques photographiques ou de clichés ccd. Mais, comme dans toute chaîne d’étalonnage, se pose la question des coordonnées des objets de référence qu’il a bien fallu déterminer par une autre méthode et avec beaucoup de soin, étant donnée leur place dans la hiérarchie. Le but de ces catalogues de référence, l’équivalent des étalons en métrologie physique, est de placer sur le ciel des balises dont la position est connue, non seulement à la date de création du catalogue, mais aussi à des dates antérieures et ultérieures, ce qui nécessite de déterminer également les mouvements de ces balises. L’opération qui consiste à passer du système de référence théorique à sa matérialisation dans le ciel revient à définir un système de référence conventionnel qui réalise avec la meilleure exactitude possible le système de référence idéal tel qu’il a été pensé par ses concepteurs. À l’usage, la différence entre les deux n’est plus très apparente, mais sur le plan des concepts, elle est fondamentale. La distinction est identique entre la première définition du mètre par la Convention, comme étant égal à une certaine fraction du méridien terrestre, et sa réalisation sous la forme d’un mètre étalon déposé aux archives. Le mètre n’était que l’étalon, la réalisation matérielle accessible, et non pas le mètre par définition, contrairement à la situation du kilogramme encore aujourd’hui. Plus qu’un simple repère cinématique, comme les bornes kilométriques le long des routes nationales, on impose aux repères astronomiques que les lois de la dynamique y soient satisfaites sans faire appel à d’autres forces que celles de gravitation et, dans certains cas, à des forces dissipatives parfaitement identifiées. Cela implique que ces repères soient inertiels et donc non tournants. Là encore, les problèmes posés par cet idéal dépassent le cadre de cet ouvrage et on se contentera de prendre comme idéal l’absence de rotation par rapport aux sources extragalactiques prises dans leur ensemble et situées à des distances supérieures à 100 Mpc.
4.2.2
Les catalogues fondamentaux
Par définition, ces catalogues, qui contiennent un tout petit nombre d’étoiles, représentent le système inertiel conventionnel. Dans le cas du système équatorial, il faut déterminer la position et le mouvement propre des étoiles, c’est-à-dire leur ascension droite et leur déclinaison à différentes
4. Les repères d’espace et de temps
155
époques. La détermination des déclinaisons ne pose pas de difficulté de principe avec les instruments méridiens, et une bonne théorie de la précession permet de ramener les positions mesurées à différentes dates à un unique équateur de référence. Pour les ascensions droites, il surgit une difficulté majeure car le point vernal n’est pas accessible par l’observation des étoiles. Seule la différence d’ascension droite entre deux étoiles s’obtient aisément au moyen d’une horloge et d’une lunette méridienne, ce qui ne constitue pas une observation fondamentale, mais relative. Cette difficulté n’est pas surprenante car la définition du point vernal ne fait pas intervenir les étoiles, mais le mouvement annuel de la Terre. La solution à cette difficulté est l’observation simultanée du Soleil et d’étoiles, afin de relier leur ascension droite à celle du Soleil, donc au point vernal. En ce sens, ces catalogues fondamentaux sont des réalisations du système de référence dynamique. Ce point est essentiel car il constitue la différence majeure entre les systèmes de références célestes, construits sur des catalogues fondamentaux et le système extragalactique qui les a remplacés comme système conventionnel. Cependant, une fois le catalogue fondamental disponible, c’est l’ensemble des ascensions droites et des déclinaisons qui définit pratiquement l’équinoxe et l’équateur. Ce n’est qu’au moyen d’observations nouvelles du Soleil (ou des planètes) et des étoiles que l’on peut vérifier l’adéquation de la réalisation du système de référence à sa définition et publier, si besoin est, une correction d’équinoxe à appliquer aux étoiles. Le premier système fondamental est dû à F. W. Bessel5 qui, au xixe siècle, dans sa réduction des observations de J. Bradley6 , rattacha directement 14 étoiles brillantes au Soleil. Il fut étendu quelques années plus tard à 36 étoiles et ce système resta à la base de la détermination de toutes les ascensions droites jusqu’au début du xxe siècle. Le nombre d’étoiles fondamentales augmenta graduellement pour parvenir à la publication du fk4 (Vierte Fundamental Katalog) en 1963, qui contenait 1 535 étoiles, et à sa révision le fk5, en 1986, avec les mêmes étoiles mais une nouvelle détermination de l’équinoxe, de la constante de précession et une correction des mouvements propres. Entre les deux catalogues, les ascensions droites diffèrent systématiquement avec : αFK5 = αFK4 + 1 . 163 + 1 . 275 T, où T est l’intervalle en siècles juliens depuis J2000 (cf. § 4.3.6). En conséquence, les mouvements propres entre les deux systèmes diffèrent de 1 . 275 par siècle. La précision est de 0 . 05 sur les positions en 1990 et de 0 . 001 par an sur les mouvements propres. La comparaison à des observations récentes et, en parti5 F.W. Bessel (1784-1846), astronome et mathématicien allemand fondateur de l’école allemande d’astronomie d’observation. On lui doit la première mesure incontestable de la parallaxe stellaire en 1838. 6 J. Bradley (1693-1762), astronome britannique qui découvrit et expliqua l’aberration des fixes et plus tard la nutation. Il succéda à E. Halley comme Astronomer Royal à l’Observatoire de Greenwich.
156
L’observation en astrophysique
culier, la confrontation au catalogue Hipparcos montre également la présence d’erreurs systématiques de zone d’environ 0 . 1 d’amplitude. Au contenu initial de 1 535 étoiles se sont ajoutées environ 3 000 étoiles de précision respective 0 . 08 et 0 . 002 par an. Toutes les autres déterminations de qualité des positions des étoiles sont basées sur des extensions du catalogue fondamental, soit par des observations méridiennes relatives beaucoup plus aisées que les observations absolues, soit par des compilations photographiques de relativement basse précision (≈1 ). Les catalogues généraux de positions et/ou de mouvements propres comprennent entre 104 et 107 étoiles et étendent les catalogues fondamentaux à la fois en densité spatiale et en magnitude avec des précisions variées. Une courte liste de ces catalogues et de leurs caractéristiques est donnée dans le tableau 4.3. Tab. 4.3 – Les principaux catalogues stellaires. Précision sur le mouvement propre annuel
Époque moyenne
FK4
1 500
1949
0 .1
FK5
1 500
1949
0 . 05
0 . 0008/an
FK5 Extended
3 000
0 . 08
0 . 002/an
0 . 001
0 . 001/an
Hipparcos Tycho-2 PPM
120 000 2 000 000
1991.25
1991.25
250 000
GSC
20 000 000 50 000 000
0 . 03
0 . 03/an
0 . 006/an
0. 3
380 000
SAO UCAC
4.2.3
Précision sur position en 1990
Nombre d’étoiles
Catalogue
1. 5 1 .5 2001
0 . 02 – 0 . 07
Le système extragalactique
Système de référence cinématique Plutôt que de matérialiser le système de référence inertiel par des sources en mouvement les unes par rapport aux autres, indirectement liées au système de référence théorique (ici à l’équateur et à l’équinoxe), on peut imaginer une autre procédure, beaucoup plus géométrique. Si les étoiles n’avaient pas de mouvement les unes par rapport aux autres, elles constitueraient un ensemble de points lumineux sur le ciel, globalement invariable dans le temps, qui pourrait servir de repère de position. L’aspect purement cinématique du repère de référence serait satisfait par cette solution. Maintenant, rien ne garantit que dans son ensemble ce système ne soit pas en rotation globale par rapport au système inertiel idéal. Si tel était le cas, il serait possible de le mettre en évidence par la comparaison du mouvement
4. Les repères d’espace et de temps
157
des planètes, repérées par rapport aux balises de ce repère, à leur mouvement théorique déduit de l’application de la loi de Newton en l’absence de force d’inertie. En appliquant cette correction de rotation globale, c’est-à-dire en donnant à chaque étoile un mouvement propre adéquat pour que le système ainsi défini soit inertiel, on serait alors en mesure de matérialiser un système de repère ayant les qualités fondamentales. Malheureusement les étoiles de la Galaxie (les seules étoiles que l’on peut voir individuellement) ont des mouvements relatifs et les constellations ne sont pas des figures invariables. Un tel système de référence défini par la position relative de sources est qualifié de système géométrique ou bien de système cinématique en raison de l’absence de critère dynamique dans sa définition. Pour le simple repérage des objets n’appartenant pas au catalogue initial, le fait que le repère ne soit pas inertiel n’est pas un gros défaut, et un système aussi arbitraire pourrait convenir pour constituer un catalogue de positions. Mais dès l’instant où l’on envisage de conduire des études dynamiques (rotation de la Terre, système solaire, mouvement de rotation de la Galaxie...), ce défaut devient rédhibitoire. La solution la plus satisfaisante pour concilier les deux exigences (pas de mouvement relatif, pas de rotation globale) est d’utiliser les sources quasi stellaires (qso) extragalactiques qui sont virtuellement fixes les unes par rapport aux autres. L’idée n’est pas nouvelle, elle avait été émise par J. Herschel7 et Laplace8 il y a plus de 200 ans. Le fait que les objets extragalactiques constituent une sphère sans rotation n’est pas démontrable en soi, mais repose sur un faisceau de présomptions confirmées par l’observation. Les galaxies les plus lointaines ont une distribution isotrope et leur vitesse radiale augmente systématiquement avec la distance. Le rayonnement à 3 K, uniforme à un très haut degré de précision, tend à prouver que l’Univers dans son ensemble n’a pas de rotation globale. La signification physique de cette profession de foi laisse cependant place à bien des interprétations. Ce choix doit être mis en relation avec le principe de Mach9 qui associe l’inertie à la distribution des masses les plus éloignées, bien que ce principe soit indépendant des théories relativistes. Expérimentalement, la comparaison de la meilleure réalisation du système dynamique, obtenue par la télémétrie laser-Lune et du système cinématique fondé sur les observations de radio-interférométrie, ne montre pas de vitesse de rotation entre les deux systèmes. Enfin, si l’on considère que la vitesse tangentielle des quasars est 7 J. Herschel (1792-1871), physicien et astronome britannique auquel on doit des catalogues d’étoiles doubles et de nébuleuses de l’hémisphère Sud. Pédagogue influent, pionnier de la photographie et figure majeure de la science anglaise au xixe siècle. 8 P.S. Laplace (1749-1827), mathématicien et physicien français, qui contribua à l’astronomie au travers de son magistral Traité de Mécanique Céleste et de l’Exposition du Système du Monde. Sa Théorie Analytique des Probabilités est également un ouvrage majeur de la discipline. 9 E. Mach (1838-1916), physicien et épistémologue autrichien qui contribue à la théorie des ondes, la propagation du son et la thermodynamique. Il fut très préoccupé par la critique des fondements de la physique, et ses réflexions sur l’origine de l’inertie et de la masse ont influencé Einstein.
158
L’observation en astrophysique
statistiquement comparable à leur vitesse de récession, alors leur mouvement propre serait : α = H < 0.02 mas /an, où H est la constante de Hubble10 et 1 mas = 0 . 001. On peut raisonnablement penser que la vitesse réelle est très nettement inférieure à cette valeur et donc que, au niveau de quelques μas (= 10−6 seconde d’arc), les quasars ne présentent pas de mouvement systématique. Il a été recommandé, lors de l’assemblée générale de l’Union Astronomique Internationale de 1991, que le futur système de référence inertiel conventionnel soit désormais constitué par un ensemble de radiosources lointaines rapportées au barycentre du système solaire. Le système défini par ce principe est appelé icrs, un sigle pour International Celestial Reference System. Le principe est général et n’indique rien sur la liste des sources ou des techniques d’observation à mettre en œuvre pour les observer. Une réalisation pratique de ce système sera la construction physique du repère de référence matérialisée par une liste bien précise de sources extragalactiques accompagnée de leurs coordonnées. Il faut donc sélectionner des sources et les observer de façon cohérente, de telle sorte que les distances angulaires entres les paires de sources sur le ciel soient en parfait accord avec un calcul basé sur leurs coordonnées. Cette réalisation est nommée icrf, qui est cette fois-ci le sigle de International Celestial Reference Frame. La différence entre les mots système (system) et repère (frame) est fondamentale : le système est avant tout un ensemble de principes et de prescriptions donnant les concepts qui seront utilisés lors de la construction du repère qui en est la réalisation pratique. Ces principes doivent être suffisants pour définir l’origine et l’orientation du trièdre de référence à n’importe quelle époque. Il n’y a qu’un seul système (ici l’icrs) qui peut avoir différentes réalisations, même si à une époque donnée une seule peut être qualifiée de référence internationale (ici l’icrf). La référence primaire actuelle est basée sur des observations en interférométrie à très longue base (vlbi), mais dans le futur les observations optiques avec la mission gaia devraient fournir une nouvelle réalisation. Méthodes d’observation Pour construire le repère cinématique, il faut de nouveau définir un plan de référence et une origine des longitudes. Il n’y a pas de définition a priori, puisque le système est géométrique. Ce sont les coordonnées mêmes des objets qui définissent et matérialisent le repère. La déclinaison de deux objets suffit à matérialiser le pôle (avec un choix discret entre deux possibilités) et la longitude d’un objet particulier définit l’origine des longitudes. Pour des 10 E.P. Hubble (1889-1953), astronome des États-Unis, auteur de deux des plus grandes découvertes du xxe siècle (toutes disciplines scientifiques confondues) sur la nature extragalactique des nébuleuses et l’expansion de l’Univers.
4. Les repères d’espace et de temps
159 s
s r2
B
r1 Equateur
Fig. 4.10 – Géométrie des observations vlbi. raisons de continuité, on s’assure que le repère ainsi constitué soit très voisin du repère équatorial (cf. § 4.1.2) précédemment matérialisé par le fk5 et on choisit l’origine des longitudes aussi voisine que possible de l’équinoxe dynamique de J2000. On parle alors de déclinaisons et d’ascensions droites, bien que ces dernières ne doivent rien à la définition de l’équinoxe, mais à une origine conventionnelle dans le plan fondamental. Les observations des radiosources sont faites par interférométrie à très longue base (vlbi) avec une précision meilleure que la milliseconde de degré (Fig. 4.10). Contrairement aux interféromètres connectés, la corrélation des signaux reçus par chaque radiotélescope s’effectue en différé, sachant que la très grande stabilité des oscillateurs locaux et la possibilité de synchroniser les signaux a posteriori permettent d’aligner les deux signaux numériquement et non analogiquement (cf. 6.5.1). La grandeur observable n’est pas la phase des franges mais le délai entre les arrivées sur les deux antennes ainsi que sa dérivée. Avec une longueur d’onde (λ) de quelques centimètres et des bases (B) de plusieurs milliers de kilomètres, on parvient à une résolution de l’ordre de : λ/B ≈ 1 mas. Si r1 et r2 sont les rayons vecteurs des deux stations par rapport au centre de Terre, la base est B = r2 −r1 . En appelant s le vecteur unitaire en direction de la source, on a la relation fondamentale d’une observation vlbi : τ=
B.s , c
où τ est le délai entre les arrivées des fronts d’onde et c la vitesse de la lumière dans le vide. Soit alors δ et H la déclinaison et l’angle horaire de la source
160
L’observation en astrophysique
et d et h les quantités équivalentes pour le vecteur unitaire de la base B, on obtient pour le délai : τ=
B [sin d sin δ + cos d cos δ cos (H − h)] . c
L’observation donne donc accès à la fois au positionnement de la base par rapport au système de référence céleste et à la direction de la source. Pour des bases connues dans le référentiel terrestre, on peut déterminer les paramètres d’orientation de la Terre et les coordonnées des sources dans le système de référence céleste. Inversement, l’observation de sources connues permet de suivre la rotation de la Terre et le positionnement des stations sur les divers continents. L’ensemble implique donc un traitement global des observations au sein d’un réseau de radiotélescopes. Actuellement, une vingtaine d’antennes participent à des sessions d’astrométrie par la méthode vlbi, la grande majorité étant dans l’hémisphère Nord. L’analyse des données conduit à un catalogue fondamental car les observations ont lieu sur tout le ciel, objet par objet sans qu’il y ait lieu de les rattacher progressivement les uns aux autres. L’ensemble des arcs joignant les sources deux à deux constitue le système de référence mais, en pratique, en raison du choix d’une origine des ascensions droites, les coordonnées des sources réalisent le système. Propriétés de l’icrf La solution icrf a été officiellement publiée en 1998 et formellement adoptée comme repère de référence au 1er janvier 1998 en remplacement du fk5 suite à une résolution de l’uai lors de son assemblée générale d’août 1997. Afin de rester au plus près de l’équinoxe du fk5, les coordonnées optiques de la radiosource 3C273 ont été déterminées par occultation lunaire dans le système de référence dynamique. L’ascension droite (α = 12 h 29 m 6.6997 s en J2000) de 3C373 est alors fixée dans le traitement des données et contraint l’origine du système de référence cinématique. Dans la version finale du système de référence, cette origine est en pratique définie en imposant une différence nulle en moyenne sur un ensemble de 23 sources. L’icrf dans sa dernière extension (icrf-ext.2 de 2004) comprend 717 sources (au lieu de 608 dans la version initiale de 1998) réparties en 212 sources de définition, 294 sources candidates et 211 autres sources. Les nouvelles solutions sont contraintes pour n’introduire aucune rotation du système et les coordonnées des 212 sources de définitions demeurent constantes, alors que des améliorations peuvent être apportées sur les autres sources. La précision individuelle des meilleures sources est de 0.25 mas et, pour l’ensemble des sources, autour de 1 mas pour chacune des coordonnées. La stabilité de l’orientation des axes est estimée à 20 microsecondes de degré qui proviennent des instabilités des zones d’émission radio au sein des quasars.
4. Les repères d’espace et de temps
161
Fig. 4.11 – Distributions des sources de l’icrf en coordonnées équatoriales. Sources de définition en cercles pleins, sources candidates avec un cercle simple et les autres sources représentées par une étoile.
La distribution des sources est indiquée sur la figure 4.11 sur laquelle on a distingué les différentes catégories de sources. Les sources de définition sont en grande majorité dans l’hémisphère Nord, en raison de la distribution des stations vlbi qui ont pu observer ces sources pendant plusieurs années. Au total ce sont plus de 3 millions d’observations effectuées au cours de près de 3 500 sessions vlbi qui ont été nécessaires pour obtenir les positions de l’ensemble des sources de l’icrf. Le pôle (et donc l’équateur de référence) de l’icrf ne coïncide pas exactement avec le pôle céleste à l’époque J2000 mais tout a été fait pour qu’il en soit le plus voisin possible. Le décalage est de −17.3 ± 0.2 mas dans la direction α = 0 deg et −5.1 ± 0.2 mas dans la direction α = 90 deg. Pour des calculs de moyenne précision (≥ 100 mas on peut donc le confondre avec le pôle céleste. L’origine dans l’équateur de l’icrf se trouve décalée de +55.3 mas par rapport à l’équinoxe inertiel (intersection de l’écliptique et de l’équateur de l’icrf) et se trouve également à 22.9 mas de l’origine des ascensions droites du fk5.
4.2.4
Le repère Hipparcos
Diverses extensions du système extragalactique sont nécessaires en raison du faible nombre de sources de base (∼ 200), mais également pour en avoir une réalisation dans les longueurs d’onde optique et infrarouge, domaines de prédilection de l’astronomie stellaire. Les contreparties optiques des sources de l’icrf sont toutes faibles dans le visible et difficiles à observer. La densité
162
L’observation en astrophysique
étant très faible (en moyenne une source correspond à ∼ 70 degrés carrés), un usage direct de ces sources est impossible, même dans l’astronomie à grand champ. Pour ce qui est de la réalisation optique, il n’y a à l’heure actuelle que le catalogue Hipparcos qui permette de rattacher les sources optiques au système extragalactique avec précision. Avant d’entrer dans les détails techniques de cette mission spatiale et de présenter les propriétés essentielles des résultats, commençons par la fin en expliquant la technique du rattachement du système Hipparcos au système des radiosources. La mission Hipparcos Le satellite Hipparcos a été lancé par une fusée Ariane le 8 août 1989 depuis la base de Kourou. À la suite d’une défaillance du moteur d’apogée, il fut impossible de placer le satellite sur l’orbite circulaire géostationnaire de 42 000 km de rayon à partir de laquelle devait se dérouler la mission. Une mission adaptée à ce nouvel environnement fut redéfinie en quelques semaines et le satellite a très correctement fonctionné jusqu’au 15 août 1993, jour où les responsables de la mission au centre de contrôle de l’esa à Darmstadt décidèrent l’arrêt des opérations à la suite d’avaries répétées du système de guidage et de l’ordinateur de bord. Principe de la mission. La mission avait pour objectif de réaliser une cartographie de très haute précision de la sphère céleste en observant environ 120 000 étoiles soigneusement sélectionnées et régulièrement réparties sur le ciel avec une précision en position de 0 . 002. Outre les positions, la parallaxe des étoiles du programme devait être obtenue avec cette même qualité et constituait le résultat le plus attendu par l’ensemble des astronomes en raison de l’importance de ce paramètre dans les théories d’évolution stellaire et pour la compréhension de l’histoire de l’Univers. Le tableau 4.4 résume les principales caractéristiques des résultats de la mission Hipparcos et de la mission complémentaire Tycho, qui comportait un plus grand nombre d’étoiles mais dont la précision était moindre. Tab. 4.4 – Caractéristiques de la mission Hipparcos.
Nombre d’étoiles Magnitude maximale Précision sur la position Précision sur la vitesse Précision sur la parallaxe Précision sur la magnitude
Mission principale Hipparcos 120 000 12.4 0 . 001 0 . 001 par an 0 . 001 0.001 mag
Mission complémentaire Tycho 1 000 000 11.0 0 . 02 – – 0.01 mag
Le satellite Hipparcos était équipé d’un télescope de taille modeste, 30 cm de diamètre, ce qui a permis néanmoins d’observer des étoiles jusqu’à la magnitude 12.5. Les étoiles étaient observées simultanément dans deux directions,
4. Les repères d’espace et de temps
163
distantes de 58 degrés l’une de l’autre, et leurs images se formaient au plan focal de l’instrument sur une grille d’analyse composée de 2 688 fentes de période 1 . 208, dont 39 % pour la partie transparente. Le champ sur le ciel est de 0 ◦. 9 × 0 ◦. 9 et, en moyenne, deux étoiles dans chacune des deux directions sont visibles. Le détecteur placé derrière cette grille analyse les fluctuations d’intensité enregistrées lors du déplacement des images stellaires sur la grille. Ce déplacement résulte du mouvement de rotation imposé au satellite à la vitesse très régulière de 167 degrés par heure. Hipparcos était un satellite à balayage dont la mission d’observation avait été entièrement planifiée et optimisée avant le lancement. L’exploration de la sphère céleste s’est effectuée selon une loi calculée pour assurer une couverture complète du ciel et traquer les 120 000 étoiles du programme, à raison d’une trentaine d’époques différentes par étoile. Du fait de sa rotation, les images stellaires se déplaçaient sur la grille d’analyse permettant de moduler la lumière reçue par le détecteur placé juste derrière cette grille. L’analyse du signal reçu lors du passage d’une étoile sur la grille donnait, à un instant particulier, la position du centre de l’image (dans le cas d’une étoile simple au moins) à l’intérieur d’une fente de la grille. Cette mesure était entièrement locale et liée au système de référence de l’instrument. Sa précision est déjà très bonne, de l’ordre de 0 . 015 pour une étoile de magnitude 9. Le signal était alors développé sur deux harmoniques : I(t) = I + B + I [M cos(ωt + φ) + N cos(2ωt + ψ)] , expression dans laquelle I est l’intensité exprimée en Hz, B la partie non modulée du signal comprenant entre autres le bruit du fond stellaire. Les coefficients M et N sont les paramètres de modulation de valeur typique 0.7 et 0.25 pour une étoile simple. Les phases des deux harmoniques φ et ψ caractérisaient la position de l’image sur la grille à l’instant de référence. La détermination de la position sur la grille était effectuée pour toutes les étoiles présentes dans le champ de l’instrument toutes les 2.13 s et répétée pendant les 19 secondes que durait le passage d’une étoile particulière. Les deux amplitudes ont été exploitées pour le catalogue photométrique et le relevé des étoiles variables. L’ensemble des observations collectées sur une dizaine d’heures (∼ une période orbitale) se rapportait à des étoiles très voisines d’un grand cercle de la sphère céleste en raison du mode de balayage imposé par le satellite. À la fin de cette étape, on est en possession d’environ 1 500 abscisses sur ce cercle correspondant à autant d’étoiles différentes. Cette opération a été renouvelée à chaque orbite de 10.7 h, sur une durée de 37 mois, soit 2 500 cercles de 1 500 étoiles. Il y avait donc en moyenne (2 500 × 1 500)/120 000 = 31 époques d’observation par étoile. À la fin du traitement on possédait une solution astrométrique donnant la position, la parallaxe et les deux composantes du mouvement propre de chaque étoile du programme. Environ 20 000 objets ont été détectés comme système
164
L’observation en astrophysique
multiple et ont fait l’objet d’un traitement complémentaire pour résoudre les composantes lorsque cela était possible. La précision finale pour une étoile de magnitude 8.5 du Catalogue Hipparcos est de 0 . 001 sur les positions et la parallaxe et 0 . 001 par an sur les mouvements propres, et environ deux fois ces valeurs pour les étoiles de magnitude 11. Le Catalogue a été publié par l’esa en 1996 avec toutes ses annexes relatives aux systèmes multiples et à la photométrie. Dix ans après, Hipparcos demeure la référence ultime des catalogues fondamentaux en astronomie et a été utilisé, avec son complément Tycho de près de 2 millions d’étoiles, comme référence pour construire des catalogues plus faibles et plus denses. En particulier le Catalogue Astrographique ccd de l’Observatoire Naval de Washington (ucac) , complet jusqu’à la magnitude R = 16, donne les positions astrométriques dans le système Hipparcos de plus de 50 millions d’étoiles avec une précision allant de 20 à 70 mas selon la magnitude. C’est sans aucun doute la contribution astrométrique récente la plus importante après Hipparcos et le premier relevé ccd dans le domaine. Il a été réalisé en quelques années au moyen d’un astrographe placé pendant trois ans dans l’hémisphère Sud puis deux ans dans le Nord pour achever le programme dont les observations se sont déroulées de 1998 à 2004. Le catalogue final a été distribué en 2007.
Rattachement au système de référence cinématique Du fait de la méthode d’observation, la solution Hipparcos est invariante par rotation et le système Hipparcos serait en rotation libre par rapport au système inertiel, si l’on n’y remédiait en le rattachant au système inertiel. De façon plus imagée, on peut dire que le catalogue Hipparcos est constitué d’un ensemble très grand d’arcs entre les 120 000 étoiles du programme, et que la dimension de ces arcs est parfaitement déterminée. Il est clair qu’il n’y a qu’une seule manière de disposer les étoiles les unes par rapport aux autres avec toutes ces contraintes d’arcs, mais il restera à la fin les degrés de liberté de rotation globale d’un solide. Comme les étoiles ont des mouvements propres, la rotation en question est variable dans le temps, ce qui fait en fin de compte six paramètres à déterminer pour rattacher la sphère Hipparcos au système de référence extragalactique. Soit à l’instant t, une source commune aux deux systèmes, de vecteur unitaire X(t) dans le système cinématique et X (t) dans le système Hipparcos. Les deux vecteurs se correspondent par une rotation R(t) telle que : X = [R] X. Cette équation étant vérifiée à tout instant, elle se divise en deux soussystèmes issus de la linéarisation des déplacements au voisinage de l’époque
4. Les repères d’espace et de temps
165
de référence t0 : X(t) = X0 + V(t−t0 ), X (t) = X 0 + V (t − t0 ), R(t) = R0 + S(t − t0 ), ce qui donne par identification : X 0 = [R0 ] X0 , V = [R0 ] V + [S] X0 . La rotation R étant de quelques dizaines de mas, on peut la décomposer en trois rotations infinitésimales (α, β, γ) autour des axes de coordonnées : ⎤ ⎤ ⎡ ⎡ 0 γ˙ −β˙ γ −β 1 0 α ⎦ , S = ⎣ −γ˙ 1 R0= ⎣ −γ α˙ ⎦ . β −α 1 0 β˙ −α˙ Connaissant pour un ensemble d’objets X0 , V et X0 , V, on peut trouver, par une méthode de moindres carrés, les valeurs des six paramètres de rotation et donc, exprimer la solution Hipparcos dans le repère extragalactique. Dans le cas de Hipparcos, les objets communs n’étaient pas les quasars du système cinématique, trop faibles pour être observables par Hipparcos, mais un ensemble d’une douzaine de radio-étoiles compactes suffisamment brillantes en optique et en radio. Un programme spécifique d’observation vlbi, qui s’est étendu sur près de dix ans, a permis de les placer dans le système cinématique et de mesurer leur mouvement propre dans ce même système. D’autre part ces étoiles étaient hautement prioritaires dans le programme Hipparcos et ont été observées aussi souvent que possible. Une fois la rotation résiduelle calculée, il a suffi de l’appliquer à l’ensemble de la solution pour produire le catalogue final. Cette réalisation optique du système de référence céleste a été adaptée par l’uai en 2000 et nommée hcrf (Hipparcos Celestial Reference Frame). Elle contient l’ensemble des étoiles simples du catalogue Hipparcos.
4.2.5
Le futur proche : la mission gaia
Présentation Hipparcos a été relié à l’icrf, mais n’a pas lui-même été en position de produire une réalisation indépendante puisqu’il ne pouvait observer les sources plus faibles que V 13, soit une seule source de l’icrf. À la suite du succès de cette mission, de nombreux projets de nature voisine ont vu le jour. Le simple fait de passer d’un détecteur photoélectrique donnant un rendement total de l’ordre de 0.004 à un ccd permettait de gagner plusieurs magnitudes et d’augmenter considérablement la taille du catalogue. Dans tous les cas les missions, proposées par les scientifiques américains, allemands ou européens au sein de
166
L’observation en astrophysique
l’esa, reprenaient le principe d’observation dans deux champs d’Hipparcos avec un satellite à balayage. Ceci s’imposait pour effectuer de l’astrométrie absolue, même si les objectifs prioritaires de ces missions étaient de nature astrophysique. Seule la mission gaia a finalement émergé et a été sélectionnée par l’Agence spatiale européenne pour un lancement en 2011. Les objectifs scientifiques sont très étendus dans le domaine de la physique stellaire et galactique, la physique fondamentale, la détection des exoplanètes avec en complément de l’astrométrie une photométrie complète dans une trentaine de bandes spectrales et des mesures spectrales pour les objets V < 16. Pour en rester à l’astrométrie, gaia doit faire un relevé complet du ciel jusqu’à la magnitude 20 et vise une précision astrométrique de 20 μas à V = 15. Le nombre d’objets mesurés sera de l’ordre de 109 pendant les 5 années de la mission. Pour ce qui concerne la mission astrométrique, il n’y a pas de grosse différence de principe avec Hipparcos. On doit noter cependant : – il n’y a pas de programme d’observation à partir d’une liste d’étoiles préalable comme pour Hipparcos. gaia possède un système autonome de détection des sources qui passent dans le champ de l’instrument, et toute source détectée est observée et enregistrée sur les ccd ; – il y a deux télescopes distincts de grande dimension (1.45 × 0.50 m2 ) et une combinaison des faisceaux avant focalisation sur un plan focal unique ; – la détection se fait par environ 150 ccd (4.5 k × 2 k) avec un pixel de 10 μm le long de la direction de balayage ; – l’angle entre les deux champs est de 106.5 degrés au lieu de 58 pour Hipparcos. En pratique cela n’a pas tellement d’importance, dès l’instant où cet angle est suffisamment grand et sans rapport simple avec 360. – gaia sera placé au point L2 du système Soleil-Terre, à 1.5 million de km de la Terre, dans la direction Soleil-Terre. Réalisation du système de référence Contrairement à la situation rencontrée avec Hipparcos, Gaia va pouvoir observer les sources extragalactiques de l’icrf et de nombreux autres quasars. La densité typique des quasars plus brillants que V = 20 dans le visible est de l’ordre de 20 sources par degré carré. Cela donne environ 800 000 sources sur le ciel donc la moitié bien en dehors du plan galactique. C’est à peu près le nombre de sources que gaia devrait détecter et mesurer. En se limitant aux sources plus brillantes que V ∼ 18, cela donne de 50 000 à 100 000 sources extragalactiques qui pourront contribuer à la réalisation du système de référence. La plupart de ces sources ne sont pas identifiées comme quasar aujourd’hui et un système de reconnaissance va combiner les propriétés photométriques et astrométriques (un quasar n’a pas de parallaxe sensible et son mouvement
4. Les repères d’espace et de temps
167
propre doit être très petit, voir nul). Il sera possible de produire un échantillon sans contaminant stellaire. La solution astrométrique sera contrainte à ne pas avoir de rotation globale (paradigme de l’icrs) et l’origine du système sera fixée à partir de la solution actuelle de l’icrf, toujours dans le but d’assurer une continuité des références métrologiques. Si l’ensemble des quasars possède une rotation globale ω dans la solution Gaia initiale (ceci se produira car le système d’observation est invariant par rotation exactement comme dans le cas d’Hipparcos), alors cela se traduit par un mouvement propre systématique des sources donné par : μα cos δ =
ωx sin δ cos α + ωy sin δ sin α − ωz cos δ,
μδ = − ωx sin α + ωy cos α. On peut donc ajuster les mouvements propres observés pour retrouver cette rotation et corriger la solution pour éliminer la rotation. Le système alors fourni par gaia sera une réalisation primaire nouvelle d’un icrf satisfaisant aux spécifications de l’icrs et accessible directement dans le visible pour l’astronomie optique et du proche infrarouge. On estime que la rotation résiduelle par rapport au fond cosmique diffus ne sera pas supérieure à 0.5 μas/an, alors qu’avec Hipparcos l’incertitude est de 0.25 mas/an. À noter que, lors de l’élimination de la rotation globale, on doit simultanément déterminer l’accélération du système solaire pris dans son ensemble par rapport aux sources lointaines et que cela donne accès à la rotation galactique.
4.3 4.3.1
Le repérage temporel Les échelles de temps
La réalisation d’un système de référence temporel, c’est-à-dire d’une échelle de temps munie d’une unité pour la durée élémentaire, passe par les mêmes étapes que pour les repères spatiaux. Tout d’abord, l’approche conceptuelle de la grandeur, ce qui pour le temps a suscité de nombreuses discussions entre scientifiques, philosophes, psychologues, puis la définition à partir des lois de la physique ou des grandeurs observables et enfin, la matérialisation par un ou plusieurs systèmes concrets susceptibles de révisions et d’améliorations. Il est paradoxal que bien que la première étape, celle de la conception, n’ait toujours pas atteint un état satisfaisant – qu’est-ce que le temps ?11 –, la métrologie du temps et des fréquences soit devenue en quelques décennies la plus précise de toutes les mesures de la physique et continue de progresser rapidement avec l’arrivée des horloges à atomes froids d’un côté et des étalons optiques de l’autre. 11 Question ancienne abordée par tous les penseurs et dont la difficulté est superbement résumée par saint Augustin : « Qu’est-ce donc que le temps ? Si personne ne m’interroge, je le sais ; si je veux répondre à cette demande, je l’ignore. », Confessions, Lib. 11, chap. 14, 17, trad. M. Moreau, 1864.
168
L’observation en astrophysique
Depuis 1967, la définition de la seconde est entre les mains des physiciens et non plus celles des astronomes, comme ce fut le cas pendant de nombreux siècles. Cependant, les éphémérides astronomiques publiées par l’imcce sous les auspices du Bureau des Longitudes continuent de porter le même nom depuis leur fondation : La Connaissance des Temps. Cela suffit à rappeler que si les astronomes ne sont plus les gardiens de l’unité de temps, ils portent toujours un grand intérêt à la définition et aux réalisations de cette grandeur. Il y a au moins deux raisons : – Dans toutes les étapes de son développement, la mécanique céleste utilise pour argument de ses théories le temps uniforme de Newton ou un de ses avatars imposé par le choix des coordonnées dans la théorie relativiste de la gravitation. On retrouve ce même argument sous forme quantitative dans la colonne d’entrée des éphémérides. Ces dernières étant destinées soit à comparer des observations à des calculs, soit à préparer des observations, il convient de définir le plus correctement possible cet argument temporel et de déterminer les relations qu’il entretient avec les échelles de temps usuelles. – La seconde SI et l’échelle de temps atomique international n’ont été introduites qu’en 1967. Les premières horloges à césium datent des années 1950. Pour les années antérieures, on ne peut dater des événements dans ces nouvelles échelles et le recours au temps astronomique s’impose. Les observations les plus anciennes sont exprimées en temps solaire, d’où la nécessité de conserver la trace de cette échelle et sa liaison avec le temps des éphémérides, qui est, selon toute vraisemblance, une bonne extrapolation du temps atomique international dans le passé. Jusqu’au début du xxe siècle, la détermination du temps était entièrement basée sur l’hypothèse d’une vitesse de rotation uniforme et invariable de la Terre sur elle-même. La seconde était, par définition, une fraction parfaitement définie du jour solaire moyen. Les observations de la Lune et des planètes, puis l’étude des éclipses anciennes mirent en doute le principe de l’invariabilité de la vitesse de rotation de la Terre et, dans les années 1930, on découvrit des inégalités saisonnières dans la rotation de la Terre et, enfin, des phases d’accélération et de ralentissement apparemment imprévisibles, atteignant quelque 0.001 s par jour. Ceci amena les astronomes à abandonner progressivement la rotation de la Terre comme étalon fondamental, au profit du mouvement de la Terre autour du Soleil, et à redéfinir la seconde en conséquence, tout en assurant au maximum la continuité avec l’ancienne définition. La nouvelle échelle de temps, le temps des éphémérides, avait toute les qualités d’uniformité requises, mais son accessibilité était limitée en raison de la lenteur du mouvement apparent du Soleil et de la difficulté de la mesure. Très vite, il fut en fait matérialisé par le mouvement de la Lune, dont les constantes de la théorie furent ajustées par rapport au temps des éphémérides. Malheureusement, la
4. Les repères d’espace et de temps
169
théorie de la Lune est beaucoup plus complexe que celle du Soleil et comporte des termes dissipatifs que l’on ne sait toujours pas modéliser correctement. Au milieu des années 1950, les premiers étalons de fréquence de laboratoire sont apparus, basés sur des transitions atomiques à très haute fréquence qui, par leur stabilité et leur accessibilité, se sont vite imposés comme plus propres que les phénomènes astronomiques pour réaliser une échelle de temps uniforme. Enfin, depuis 1976, sous l’égide de l’Union Astronomique Internationale, on a défini plusieurs échelles de temps pour tenir compte des effets relativistes sur les horloges selon la position et le mouvement de l’observateur au voisinage de la Terre ou du barycentre du système solaire. Les relations de ces échelles avec le temps atomique font encore l’objet de discussions, bien que sur le principe leur nécessité ne soulève pas d’objection. Tab. 4.5 – Évolution des échelles de temps. Époque <1960 1960-1967 1967
Phénomène Définition physique de la seconde Rotation de la Terre 1/86 400 du jour solaire moyen
Échelle de temps Temps Universel (UT)
Mouvement orbital de la Terre
1/31 556 925.974 7 de l’année tropique 1900.0
Temps des éphémérides (TE)
Transition entre deux niveaux d’un atome
9 192 631 770 périodes d’une transition du césium 133
Échelles de temps atomique
1971
L’échelle de temps atomique du BIH (puis du BIPM) devient le Temps Atomique International (TAI)
Il convient à ce stade de l’exposé de revenir sur certaines définitions usuelles reliées aux échelles de temps : Temps solaire vrai. Temps solaire moyen Le temps solaire vrai, en un lieu et à un instant donnés, est l’angle horaire du Soleil en ce lieu à cet instant. Il est affecté, par rapport au temps uniforme de la mécanique, d’inégalités périodiques, englobées dans l’équation du temps. L’équation du temps comprend l’équation du centre due à l’excentricité de l’orbite terrestre, la réduction à l’équateur due à l’inclinaison de l’écliptique sur l’équateur et les inégalités du temps sidéral dues à la précession et à la nutation. Son amplitude au cours de l’année ne dépasse pas 20 minutes. Le temps solaire moyen est le temps solaire vrai, débarrassé de tous les termes périodiques affectant le mouvement du Soleil en ascension droite. Il serait une fonction linéaire du temps uniforme s’il n’était pas affecté par les inégalités de la rotation de la Terre.
170
L’observation en astrophysique
Soit t le temps newtonien idéal, T sa réalisation par le temps solaire moyen et Tv le temps solaire vrai. Par définition on a Tv = H avec un facteur d’échelle pour transformer les angles en unité de temps. On a : H = αz − α , et pour les valeurs moyennes débarrassées des inégalités périodiques, < H >= αz − < α >, ou encore : H − < H >=< α > −α . Ainsi les inégalités qui apparaissent dans le temps solaire vrai sont exactement celles figurant dans le mouvement du Soleil en ascension droite. On note E = α − < α >=< H > −H l’ensemble des termes périodiques dans l’ascension droite du Soleil. Cette expression est nommée depuis plus de deux siècles l’équation des temps, terminologie qui traduit parfaitement son origine (Fig. 4.12).
Equation des temps 5
20 16
4
10/02
12
3 2
8
17/06
16/04
27/07
4
1 0
0 15/05
-4
-1
-8
-2
degrés
minutes
25/12
02/08
-3
-12 - 9.8 sin2(ω+M)
-16
04/11
-4
7.7 sin(M)
-20 0
50
100
150
200
250
300
350
-5 400
Jours après le 1 janvier
Fig. 4.12 – Valeurs de l’équation des temps au cours de l’année et de ses deux principales composantes. À partir des propriétés du mouvement elliptique et de la réduction à l’équateur discutée plus haut, on trouve : E = 2e sin M − tan2 sin 2( + M ) + O(e2 , 4 ), 2 où e = 0.016 7 est l’excentricité de l’orbite terrestre, M = nt l’anomalie moyenne le long de l’orbite et = 282 deg la longitude du périastre de
4. Les repères d’espace et de temps
171
l’orbite. Enfin n = 0 ◦. 9856 /jour est le moyen mouvement du Soleil. L’équation des temps comprend donc un terme annuel et un terme de période six mois. En tenant compte des termes d’ordre supérieur pour les amplitudes, on a en minutes : E = 7.7 sin M − 9.8 sin(204 + 2M ). Avec la convention de signe adoptée pour E (il n’y a pas de convention uniforme et le signe dépend des ouvrages et des usages nationaux), si E > 0 le Soleil vrai est en avance sur le Soleil moyen en ascension droite, donc le midi vrai (passage du Soleil au méridien du lieu, c’est-à-dire le midi d’un cadran solaire) est postérieur à 12 h de temps moyen pour ce lieu. Notre temps légal étant proche du temps moyen d’un méridien de référence, il y a encore une correction de longitude à introduire pour lire un cadran solaire en temps légal. Temps civil. Temps universel tu (ut, Universal Time) Le temps civil en un lieu est le temps solaire moyen de ce lieu augmenté de douze heures afin que le jour commence à minuit et non à midi. Le temps universel est le temps civil du méridien international. Il ne faut pas confondre le temps civil d’un lieu avec le temps légal du pays où l’on se trouve. Ce temps légal, fixé par l’autorité administrative, diffère en général du temps universel d’un nombre entier d’heures (sauf dans quelques cas exceptionnels où il peut y avoir une fraction d’une demi-heure).
4.3.2
Le temps atomique
Étalons de fréquence Durant la seconde guerre mondiale, le développement des radars a considérablement amélioré la technologie des circuits à micro-ondes et des cavités à haute fréquence. Ces cavités pouvaient être réglées de façon suffisamment précise pour correspondre aux fréquences de transition atomiques et moléculaires dans le domaine centimétrique. En 1948, le U.S. Bureau of Standards était en mesure d’utiliser une cavité ajustée sur une fréquence de transition de l’ammoniac. Les molécules d’ammoniac avaient été excitées et le retour vers l’état fondamental se faisait par émission d’un photon ; l’intensité du signal observée était d’autant plus élevée que la fréquence de la cavité était proche de la fréquence de transition de la molécule d’ammoniac. Il devenait alors possible d’asservir le point de fonctionnement de la cavité sur la fréquence de transition de l’ammoniac. Ceci réalisait donc un régulateur de fréquence : si la radiofréquence d’excitation de la cavité différait quelque peu de la fréquence d’absorption de la molécule d’ammoniac, il en résultait un affaiblissement du signal de sortie. On modifiait alors la fréquence d’excitation de la cavité afin de se rapprocher de la fréquence de la transition égale à 23 870 MHz.
172
L’observation en astrophysique
Il se trouve que la courbe de résonance de la transition des molécules d’ammoniac est extrêmement étroite comparée à celle des oscillateurs classiques et donc, le nombre de molécules effectuant une transition stimulée dans la cavité n’était notable que pour une identité presque parfaite entre la radiofréquence d’excitation et la fréquence de transition des molécules d’ammoniac. C’est là un des paramètres clés de la qualité des étalons atomiques de fréquence. Horloge à césium Les mêmes principes furent appliqués à des atomes, en particulier au césium 133. Ce dernier comprend 55 protons, 78 neutrons et bien entendu 55 électrons ; l’électron le plus externe est non apparié et possède un moment angulaire orbital nul. L’état fondamental du césium 133 possède une structure hyperfine à deux états, liée à l’interaction du spin de l’électron externe (S = 1/2) et du moment angulaire du noyau (J = 7/2). La règle d’addition des moments angulaires est très simple dans ce cas et ne donne que deux possibilités : le moment total vaut F = 4, lorsque les moments sont parallèles, et F = 3, lorsqu’ils sont de sens contraires. La transition spontanée de F = 4 ⇒ F = 3 s’accompagne de l’émission d’un photon de fréquence ν0 ∼ 9 GHz. En 1950, H. Lyons et ses collègues du U.S. National Bureau of Standards mesurèrent (par rapport à la seconde du système international alors en vigueur) la fréquence de transition entre les deux états F = 4 et F = 3 du 133 Cs avec une précision relative de 10−7 . Cette précision était encore insuffisante pour concurrencer les étalons de temps astronomiques. En juin 1955, L. Essen et J. V. L. Parry du National Physical Laboratory (Royaume-Uni) réalisèrent le premier étalon de fréquence au césium digne de ce nom et portèrent cette précision à quelque 10−10 . De 1955 à 1958, fut menée une expérience commune entre le National Physical Laboratory et l’observatoire naval de Washington, afin de déterminer la relation entre la fréquence de la transition du césium et la seconde du temps des éphémérides ; la valeur trouvée de 9 192 631 770 ± 20 Hz (en secondes des éphémérides) avait une précision limitée par la qualité de la réalisation du temps des éphémérides et non par la capacité de lecture de la fréquence. Dès cette époque, il était possible de comparer entre elles deux fréquences avec une précision de 10−12 . Il devenait alors inévitable que l’on envisageât de délaisser les étalons célestes en faveur d’un système basé sur des horloges de laboratoire. La treizième Conférence générale des poids et mesures adopta une nouvelle définition de la seconde, qui devint l’unité du Système International en 1967 : La seconde est la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les deux niveaux hyperfins de l’état fondamental de l’atome de césium 133. La réalisation de la seconde internationale au moyen d’un étalon atomique fait de ce dernier un étalon de fréquence alors qu’il n’était auparavant qu’un générateur de fréquences. Il devient étalon de temps par décompte de périodes.
4. Les repères d’espace et de temps
173
Fig. 4.13 – Principe de fonctionnement d’un étalon de fréquence au césium.
Le fonctionnement d’un étalon atomique est schématisé sur la figure 4.13. Le four porté à une température de l’ordre de 100 ◦ C laisse passer, à travers de l’ouverture, un faisceau d’atomes de césium répartis à peu près également entre les états F = 4 et F = 3. Un premier tri magnétique dans un champ intense et inhomogène élimine les atomes dans l’état F = 3, de sorte que seuls des atomes F = 4 pénètrent dans la cavité résonante. Par émission stimulée par le champ d’hyperfréquences à la fréquence ν très proche de ν0 , les atomes retournent dans l’état F = 3 en émettant un photon à la fréquence ν = ν0 . À la sortie de la cavité, un deuxième tri magnétique permet de séparer de nouveau les atomes restés dans l’état F = 4 de ceux ayant subi la transition et qui se trouvent dans l’état F = 3. Après ionisation, le courant obtenu est utilisé pour commander la fréquence de la cavité, via l’oscillateur à quartz et une chaîne d’asservissement. Des laboratoires spécialisés construisent des étalons de fréquence à césium afin de réaliser au mieux la définition de la seconde, c’est-à-dire avec la plus grande exactitude. Ces étalons, réalisés aujourd’hui par des fontaines à atomes fraids de césium et de rubidium, ont une exactitude meilleure que 10−16 . Des étalons de ce type sont développés à l’Observatoire de Paris. D’autre part, des industriels mettent à la disposition des usagers des horloges à jet de césium d’exactitude moindre, de 1 à 2 × 10−12 , ce qui est néanmoins remarquable.
174
L’observation en astrophysique
Définition du temps atomique international (tai) L’étalon de fréquence permet par accumulation de construire une échelle de temps continue, pour autant que l’horloge ou les horloges qui servent à construire cette échelle aient un fonctionnement continu. Une définition a été proposée en 1970 par le Comité Consultatif pour la Définition de la Seconde (ccds) et approuvée la même année par le Comité International des Poids et Mesures. Finalement, la quatorzième Conférence Générale des Poids et Mesures, en octobre 1971, a défini la référence temporelle, le temps atomique international : Le temps atomique international est la coordonnée de repérage temporel établie par le Bureau International de l’Heure sur la base des indications d’horloges atomiques fonctionnant dans divers établissements conformément à la définition de la seconde, unité de temps du Système International d’Unités. Le Bureau International de l’Heure a appliqué cette définition et construit une échelle de temps fondée sur l’accumulation des secondes SI. Le tai est donc une échelle de temps intégrée, contrairement aux échelles dynamiques basées sur un découpage arbitraire d’une échelle d’écoulement. Il y avait au moins deux choix possibles pour réaliser l’échelle de temps atomique international : – soit privilégier une horloge particulière, une horloge étalon à césium de très haute qualité, en fonctionnement permanent et dont la lecture serait par définition la réalisation du tai ; – soit établir l’échelle tai sur un réseau suffisamment large d’horloges disséminées dans plusieurs laboratoires fournissant leur propre lecture à un centre de coordination. Un algorithme bien défini permet alors de calculer le tai à partir de ces données. La première solution, qui eut le mérite de la simplicité (tai attaché à une horloge, en un seul lieu), présentait un danger évident de discontinuité en cas de mauvais fonctionnement, voire de défaillance totale de l’horloge étalon, qui ne présente pas la même garantie d’inaltérabilité que les mouvements célestes. La seconde solution qui a été adoptée, est quasiment exempte de ce risque et permet, de plus, de bénéficier d’une amélioration statistique en raison de la multiplicité des mesures. Un algorithme prend en compte les 260 horloges participantes avec des pondérations variables selon la qualité des horloges. À l’heure actuelle, la fabrication du tai est assurée par le Bureau International des Poids et Mesures (bipm) après le transfert, en 1985, de la section temps du Bureau International de l’Heure (bih) de l’Observatoire de Paris vers le bipm. L’échelle de tai peut conduire à parler d’une seconde tai qui, si l’on n’y prenait garde, pourrait différer de la seconde du Système International d’unités (système si). Afin de pallier ce possible défaut, la fréquence du tai est
4. Les repères d’espace et de temps
175
déterminée par référence à des étalons primaires de fréquence situés au National Research Council (Canada) et au Physikalisch-Technische Bundesanstalt (Allemagne). À titre d’exemple, la fréquence du tai a été réduite de 1 × 10−12 en valeur relative le 1er janvier 1977. Compte tenu de toutes ces précautions, la stabilité du tai est évaluée de 1 à 5×10−14 pour des durées allant du mois à quelques années. La seconde de tai est cohérente avec la seconde SI au niveau de 2 × 10−14 .
4.3.3
Le temps universel coordonné (tuc ou utc)
Définition et dissémination L’échelle du temps atomique étant totalement dissociée des mouvements célestes, il s’ensuit que la durée du jour solaire moyen ne compte plus exactement 86 400 secondes de tai. La durée du jour solaire moyen était égale à 86 400 secondes SI approximativement en 1820 ; elle était plus courte auparavant et depuis n’a cessé de croître pour atteindre 86 400.0025 secondes SI autour de 1980. Ces ≈ 2.5 ms par jour se cumulent au cours de l’année pour donner un décalage annuel typique de ≈ 1 s entre une échelle uniforme et une échelle construite sur la rotation de la Terre. C’est cette seconde qui est ajustée de temps en temps pour conserver le lien avec la rotation de la Terre. Même si l’on avait ajusté au mieux la durée de la seconde dans la définition, cet accord à un instant particulier n’aurait pu se maintenir en raison des irrégularités de la rotation de la Terre et de son ralentissement séculaire. C’est d’ailleurs ce phénomène, et notamment le fait qu’on ne puisse le prévoir avec suffisamment d’exactitude, qui a conduit à abandonner le mouvement de la Terre comme source du temps uniforme. Cependant, lors du passage du temps astronomique au temps atomique, on s’est efforcé de ne pas perdre totalement la correspondance entre le temps et l’orientation de la Terre dans l’espace. Pour cela, on a créé une échelle de temps, dite du temps universel coordonné ou tuc (dénomination officielle utc pour Universal Time Coordinated ), hybride en ce sens qu’elle possède les qualités d’uniformité du temps atomique par morceaux, mais qui, grâce à des sauts de seconde appropriés, permet de maintenir en phase la rotation de la Terre et les horloges des laboratoires. En somme, le tuc est une approximation du temps solaire moyen lue sur un garde-temps meilleur que la rotation de la Terre (Fig. 4.14). La rotation de la Terre étant convertie en une échelle de temps nommée ut1, on a depuis le 1er janvier 1972 : TAI − UTC = n secondes (n est un entier), |UT1 − UTC| ≤ 0.9 seconde. Selon le degré d’urgence, le saut de seconde est placé à la fin de décembre ou de juin, ou à la fin d’un mois quelconque, l’annonce étant faite au moins huit
176
L’observation en astrophysique
semaines à l’avance. La relation exacte entre ut1 et utc ne peut être connue qu’avec retard lorsque les mesures de la rotation de la Terre faites avec les techniques de la géodésie spatiale, la télémétrie laser-Lune et l’interférométrie à très longue base sont publiées. Ceci n’est plus lié à la métrologie du temps, mais au suivi de l’orientation de la Terre dans l’espace, dont la connaissance est tout à fait essentielle à la préparation et au traitement des observations, puisque l’échelle de temps disponible dans un observatoire est en général utc. La décision d’introduire une seconde intercalaire est prise par le Bureau central du Service de la rotation de la Terre (iers). 35 TAI - UTC TAI - UT1
30
25
s
20
15
10
5 72
74
76
78
80
82
84
86
88
90
92
94
96
98 100 102 104 106 108 110
Date -1900
Fig. 4.14 – Différence entre le TAI et le TUC de 1972 à 2008.
4.3.4
Le temps gps
Bien que cette échelle n’ait pas une existence totalement officielle dans le monde de la métrologie, elle n’en est pas moins d’une importance pratique considérable en raison de son accessibilité. Chaque satellite de la constellation gps (Global Positioning System) possède une horloge atomique au césium et une seconde au rubidium. La constellation possède 28 satellites opérationnels de la deuxième génération. Le réseau distribue une échelle continue (échelle gps) qui suit la marche de l’utc à 1 μs près, mais sans les sauts de seconde. C’est l’algorithme de calcul ou le logiciel du récepteur qui permet l’affichage correcte en utc. Le temps gps coïncide avec l’utc à l’origine de sa définition le 6 janvier 1980 à 0 h. À ce moment le tai était en avance de 19 s sur l’utc, et donc sur TGPS , comme on peut le voir sur la figure 4.14. Cette valeur demeure constante en raison de l’asservissement sur le tai au travers d’un utc continu.
4. Les repères d’espace et de temps
177
On a donc : T AI − TGPS = 19 s. En 2007 l’écart avec l’utc atteint 14 s (figure 4.14) dans le sens, TGPS − U T C = 14 s en 2007. Le temps Galileo devrait suivre la même convention et délivrer un temps continu rigidement lié au tai. Dans le cas du système russe glonass, les secondes intercalaires sont incluses dans l’échelle primaire du système qui est donc accrochée à l’utc (en fait utc + 3 h, soit l’heure de Moscou). Le futur de l’utc L’avenir de l’utc comme échelle largement diffusée et accessible pour les besoins civils est en discussion au sein des instances internationales incluant les astronomes et géophysiciens, les organismes de télécommunication et de navigation. Le reproche principal que l’on peut faire à cette échelle est son absence de continuité matérialisée par des sauts de secondes imprévisibles, imposant des mises à jour de tables dans des programmes informatiques. De plus certains systèmes automatiques ne sont pas en mesure d’intégrer ces sauts. Il y a de plus de nombreux problèmes liés à la datation des événements arrivant durant le saut de seconde avec un risque non nul d’ambiguïté dans le codage de la date précise. Différentes solutions sont examinées au sein de groupes de travail, incluant le maintien du système actuel (avec une augmentation du nombre de sauts de seconde dans le futur en raison de l’allongement de la durée du jour), la suppression des sauts de secondes ce qui laisserait dériver l’échelle utc par rapport à l’ut1, un élargissement de la tolérance conduisant à des sauts plus importants mais rares, combinés ou non à des sauts réguliers décidés à l’avance, soit encore le passage à une autre échelle qui pourrait être le tai ou bien une échelle liée au gps ou à Galileo. La possibilité la plus spectaculaire qui a été envisagée dans ces discussions (mais qui n’a aucune chance d’aboutir) serait de modifier la définition de la seconde pour maintenir l’accord approximatif de 86 400 secondes par jour solaire moyen. Le lien séculaire du temps civil avec le mouvement apparent du Soleil est un élément que peu de personnes sont prêtes à abandonner et les groupes soutenant ce point de vue se font largement entendre dans ces discussions. Cependant en extrapolant dans le futur, ce que l’on connaît du ralentissement séculaire de la rotation de la Terre indique qu’il se passera plus de 2 000 ans avant que le décalage entre le temps solaire et un temps uniforme sans saut de secondes atteigne une heure. Il sera aisé alors de remettre les pendules à l’heure si cela est jugé nécessaire avec une heure intercalaire. Ceci ne serait alors pas sans analogie avec la réforme grégorienne du calendrier qui a supprimé 10 jours entre le 4 et 15 octobre 1582. L’issue des discussions n’est pas encore connue à la date de rédaction de cet ouvrage (été 2007) mais il semble que le plus probable soit que le
178
L’observation en astrophysique
système des sauts de secondes sera abandonné et que le temps diffusé sera une échelle lié strictement au tai avec un décalage constant de quelques dizaines de secondes. Une autre possibilité est encore que les échelles de temps gps ou Galileo s’imposent pour des raisons pratiques avec un lien constant au tai (ce qui est déjà pratiquement le cas). Après le passage de la définition de la seconde du monde des astronomes à celui des physiciens en 1967, une nouvelle page de la métrologie du temps et de sa relation avec le monde céleste sera alors tournée.
4.3.5
Les temps dynamiques
Le temps des éphémérides La loi de Newton et son application à la dynamique du système solaire supposent l’existence d’un temps uniforme et absolu préexistant à la théorie physique. Un mouvement n’étant uniforme que par rapport à une échelle de temps particulière, il est clair que l’on ne peut définir le mouvement uniforme sans être au préalable en possession d’une échelle de temps sans relation avec le mouvement. L’autre solution, adoptée par Newton, et par la suite par les astronomes pour la réalisation d’une échelle de temps dynamique, consiste à reconnaître a priori un mouvement uniforme par l’absence de force ou à posséder une modélisation complète des forces dans un système inertiel. Alors, le choix de la théorie du mouvement et des constantes numériques nécessaires à la définition complète des conditions initiales conduit à une éphéméride, c’està-dire au vecteur position r(t). L’observation du corps donne la position OM et la résolution de l’équation en t, OM = r(t) donne la valeur du paramètre t. La définition de l’unité est alors une fraction d’un intervalle bien défini, par exemple le jour ou l’année. Ce type d’échelle est à l’opposé de ce qui est fait pour le temps atomique : ce dernier part de l’accumulation d’unités pour construire l’échelle, par intégration en quelque sorte, alors que dans l’échelle dynamique on obtient l’unité par dérivation. Le temps solaire et son avatar le temps universel sont des temps dynamiques fondés sur une théorie très simple du mouvement de rotation de la Terre : ω = Cte, ce qui donne pour la phase, qui est la grandeur observable, φ = ωt. L’inversion de l’éphéméride est si simple que l’on a perdu de vue ce qui était angle (paramètre de configuration du mobile) et temps (variable indépendante), un peu comme on le fait en thermodynamique avec la température et l’énergie d’un système ou en physique nucléaire avec la masse et l’énergie des particules. Plus importants sont le temps des éphémérides (te) et ses dérivées modernes, tdt (temps dynamique terrestre), tt (temps terrrestre), tdb (temps dynamique barycentrique), tcb (temps-coordonnées barycentriques) construits à partir de la relativité générale. Le te résulte de l’adoption d’une éphéméride conventionnelle du mouvement du Soleil, telle que la longitude
4. Les repères d’espace et de temps
179
géométrique moyenne du Soleil soit donnée par :
L = 279◦ 41 48 04 + 129 602 768 13tE + 1 089t2E , où tE est mesuré en siècles juliens de 36 525 jours des éphémérides. L’expression ci-dessus a été obtenue à partir des meilleures théories et observations disponibles, avec une échelle de temps issue de la rotation de la Terre. Par rapport à cette dernière échelle, les nombres qui figurent dans l’expression de la longitude ne sont connus qu’à un certain degré de précision. En tant que source d’une nouvelle échelle de temps, la longitude moyenne est exacte par définition, en dépit de l’origine expérimentale des coefficients. Pour t = 0, la date est le 0.5 janvier 1900 (31 décembre 1899 à 12 h) par définition et l’unité de temps est une fraction de l’année tropique à cette même date, déduite de la valeur du coefficient de tE . L’événement observable correspondant à tE = 0 est L = 279◦ 41 48 . 04 = 279.696 678 deg et peut être reconstruit par des observations ultérieures à l’aide de la théorie du Soleil. Comme il a été mentionné plus tôt, la réalisation pratique de cette échelle s’est révélée difficile et l’arrivée du temps atomique l’a rapidement supplantée. Cependant, elle demeure une échelle importante pour deux raisons : – La confrontation avec l’échelle tai depuis 1955 n’a montré aucune différence systématique entre les deux échelles. Cet accord est tout simplement remarquable, puisqu’il concerne une échelle de temps fondée sur les lois de la mécanique quantique, d’une part, et une autre qui ne dépend que de la loi de la gravitation, d’autre part. L’écart entre les deux échelles est constant et l’on a expérimentalement : TE ≈ TAI + 32.184 s. – Avant 1955, le tai n’est pas disponible alors que les observations astronomiques anciennes sont encore très utilisées et peuvent être datées en te. Le temps des éphémérides constituent donc une extrapolation dans le passé de l’échelle actuelle du temps uniforme. Échelles de temps-coordonnées Les décisions de l’Union Astronomique Internationale en 1976 et 1991 ont conduit à introduire d’autres variétés de temps associés au tai, mais conservant la continuité avec le te, tant et si bien que jusqu’à 1991 ces échelles portaient les noms malheureux de tdt (temps dynamique terrestre) et tdb (temps dynamique barycentrique), alors que la définition les lie au tai sans référence à une éphéméride dynamique. En 1991, furent alors introduites les échelles tt (temps terrestre) et tcb (temps-coordonnées barycentriques). On a les relations suivantes, valables à un très haut niveau d’approximation : TT = TDT = TAI + 32.184 s, TDB = TDT + P,
180
L’observation en astrophysique
où P est une série d’environ 500 termes périodiques d’amplitude supérieure à 0.1 ns, représentant les effets relativistes entre la marche d’une horloge au barycentre du système solaire et une autre en mouvement sur l’orbite de la Terre. Le terme principal est de période 1 an et a pour amplitude 1.656 ms alors que le second terme est de 22 μs. Notons que tous ces termes sont indispensables pour traiter, sans perte de précision par rapport aux mesures, le chronométrage des pulsars millisecondes. Ces définitions nouvelles sont justifiées par les besoins d’une métrologie du temps et de l’espace conçue dans le cadre des théories relativistes de la gravitation, par la qualité exceptionnelle de la stabilité des horloges atomiques et la disponibilité des étalons à atomes froids dont la stabilité au sol atteint 10−16 .
4.3.6
Les dates et les époques : les comptes longs
Le système des constantes astronomiques arrêté par l’Union Astronomique Internationale introduit une époque fondamentale à laquelle on rapporte tous les autres événements en utilisant les multiples ou sous-multiples d’une unité de temps. Concernant le temps, l’unité est la seconde du système SI, définie à partir de la transition du césium 133, introduite au paragraphe 4.3.2. Le jour est une durée de 86 400 secondes à partir duquel on définit l’année julienne de 365.25 jours et le siècle julien de 36 525 jours. Ces unités dérivées sont donc rigidement liées au SI et ne doivent rien aux mouvements célestes, si ce n’est qu’elles ont été choisies en relation avec le jour solaire et l’année des saisons. Rappelons que, antérieurement, l’unité de base était le jour solaire moyen, divisé en 86 400 secondes et, plus tard, une fraction de l’année tropique pour 1900. L’année était alors l’année tropique de 365.242 2 jours, qui est la durée de l’année des saisons, sans relation avec l’année julienne. À partir de ces durées relativement courtes, il faut trouver un moyen de repérer les époques sur des durées longues, ce que fait dans la vie courante le calendrier pour suivre les années. Cependant, ce dernier, bien que défini par un algorithme très précis mettant en rapport une date calendaire avec un jour précis, ne permet pas de trouver rapidement l’intervalle de temps entre deux événements tels que le 12 février 1853 à 15 h et le 15 janvier 2007 à 8 h. Pour de nombreuses observations (éclipses, mouvements planétaires, étoiles variables, supernovae, etc.), sans parler de l’exploitation des archives des siècles précédents, l’astronome a besoin d’un repérage continu du temps qui rende l’évaluation des durées très simple dans le système décimal. La solution retenue consiste à compter les jours avec un compteur ayant un nombre de chiffres suffisant pour couvrir plusieurs milliers d’années. Cette méthode a été proposée par J. Scaliger en 1606. Il lui donna le nom de période julienne en souvenir de son père Julius, et non en raison d’une quelconque parenté avec le calendrier julien. À chaque instant, la date julienne d’un événement est le nombre de jours (y compris la partie décimale) écoulés depuis
4. Les repères d’espace et de temps
181
le 1er janvier – 4712 (4713 av. J.-C.) à midi, début de la période julienne. La date origine résulte du souhait de J. Scaliger de revenir à l’instant où les compteurs des trois cycles fondamentaux (indiction romaine de 15 ans, cycle de Méton de 19 ans et cycle julien de 28 ans) étaient simultanément égaux à 1). Dans ce système de décompte des jours le 1.5 janvier 2000 = JD 2 451 545, le 1er janvier 2007 à 0 h = JD 2 454 101.5. Pour des époques récentes, on utilise couramment le jour julien modifié, MJD = JD – 2 400 000.5, dont l’origine est le 17 novembre 1858 à 0 h. Il faut prendre garde que le jour julien débute à 12 h et non à 0 h ! La fraction 0.5 dans la définition du MJD est précisément là pour faire débuter les MJD à 0 h. On peut alors vérifier que le 12 février 1853, à 15 h est JD 2 397 897.125 et le 15 janvier 2007 à 8 h, JD 2 454 115.833, et qu’entre les deux époques il s’est écoulé 56 217.708 jours. Même si cette définition est claire, elle suppose que l’on sache effectivement compter les jours depuis cette date et que la définition du jour soit constante au cours de cette durée. En pratique, on se sert d’une époque de référence appelée J2000, qui correspond au 1er janvier 2000 à 12 h de temps dynamique barycentrique (tdb ∼ tai + 32.184 s) dont la date julienne est 2451545.0 tdb. À partir de cette époque on détermine les époques juliennes (JE) d’un événement quelconque exprimé par sa date julienne JED par : JE = 2000.0 +
JED − 2 451 545.0 365.25
et l’on note cette date par Jaaaa.aa, où aaaa.aa dénote l’année décimale. Par exemple pour le 1er janvier 2007 à 0 h = JD 2 454 101.5 on a l’époque julienne J2006.999315. À l’inverse J2007.0 donne JD 2454101.75, c’est-à-dire le 1er janvier 2007 à 6 h du matin. Le passage d’une date calendaire habituelle à sa date julienne et son inverse se calculent par des algorithmes assez simples disponibles dans les ouvrages d’astronomie fondamentale et dans les bibliothèques informatiques. Si on veut étendre leur validité en deçà de la réforme grégorienne, il faut introduire la discontinuité du calendrier pour l’année 1582 et tenir compte du changement dans la définition des années bissextiles. L’extension du calendrier grégorien à une date antérieure à la réforme s’appelle le calendrier proleptique. En principe toutes les dates historiques sont données dans le calendrier valable à la date concernée et on doit donc mentionner de façon claire si une date est employée dans le calendrier grégorien proleptique. Enfin comme la date d’adoption du calendrier grégorien n’a pas été uniforme selon les pays (décembre 1582 pour la France), il y a quelques cas incertains pour des dates venant d’Angleterre, des Provinces-Unies ou d’Allemagne jusqu’au xviiie siècle et fréquemment les dates sont données dans les deux styles. Le lecteur sera amené à rencontrer d’autres époques pour des observations ou des catalogues un peu anciens. Elles sont consignées dans le tableau 4.6 avec une exactitude de ±2 s. L’époque Bxxxx utilise une durée de l’année égale à l’année tropique de 365.242 198 781 jours, qui était en usage dans les constantes astronomiques jusqu’à l’année 1976, en particulier dans la théorie
182
L’observation en astrophysique
Tab. 4.6 – Correspondance entre époques, dates juliennes et dates calendaires. Époque bessélienne B1900.0
Époque julienne J1900.000857
Date julienne 2415020.3135
B1950.0
J1949.999789
2433282.4235
B2000.0
J1999.998722
2451544.4334
B1950.000210
J1950.0
2433282.5
B2000.001278
J2000.0
2451545.0
Date calendaire 31/12/1899 19 h 31 m 26 s 31/12/1949 22 h 09 m 50 s 31/12/1999 22 h 24 m 06 s 1/01/1950 0h 1/01/2000 12 h
de la précession. Pour le 1er janvier 1995 à 0 h = JD 2 449 718.5, on trouve l’époque bessélienne B1995.00048.
Deuxième partie
Recueillir l’information
This page intentionally left blank
Chapitre 5 Les télescopes Le télescope est si souvent considéré comme l’outil par excellence de l’astronomie qu’on en viendrait à oublier qu’il n’est qu’un des éléments du système d’observation et qu’il n’est rien sans spectromètres ou récepteurs. Dans ce chapitre et pour débuter, nous examinons la double fonction du télescope, celle destinée à collecter l’énergie du rayonnement et celle destinée à former une image de la source de ce rayonnement. Ces fonctions sont d’ailleurs très étroitement imbriquées. C’est pour améliorer les performances de l’une comme de l’autre que l’on a toujours cherché, et que l’on cherche encore, à construire des télescopes de taille toujours croissante, libérés si nécessaire des effets de l’atmosphère terrestre en étant placés dans l’espace. L’imbrication des fonctions conduit à considérer le télescope stricto sensu comme un des éléments d’un système intégré, et donc à lier, de façon détaillée, la conception du télescope à celle des instruments focaux (caméras, spectromètres, etc.). La formation des images est si essentielle que, dans ce chapitre, nous nous intéressons à celle-ci sous l’angle relativement simple de l’optique géométrique, et de ses limitations. Cette approche élémentaire nous permet alors de présenter les propriétés principales des instruments (télescopes) formés d’un miroir primaire unique. Même si la plupart des concepts demeurent généraux et sont exposés, conformément au principe de cet ouvrage, indépendamment de la longueur d’onde d’utilisation, les réalisations concrètes d’instruments sont fortement tributaires de la valeur de celle-ci. Nous tentons donc de donner, de ce domaine en rapide et constante évolution, un exposé aussi complet que possible, en parcourant toute l’étendue du spectre électromagnétique aujourd’hui accessible à l’observation astronomique. Nous renvoyons au chapitre suivant (Chap. 6) l’étude de la cohérence spatiale du rayonnement, la théorie de la diffraction qui en découle et la formation des images en présence de celle-ci. Plusieurs applications majeures y seront alors abordées : la résolution angulaire ultime des télescopes, la synthèse d’ouverture ou combinaison cohérente de plusieurs télescopes formant
186
L’observation en astrophysique
alors un réseau, la dégradation des images astronomiques par l’atmosphère terrestre et les moyens de combattre cet effet. L’optique gravitationnelle est devenue depuis peu une branche prometteuse de l’astrophysique. Bien qu’elle ne fasse pas appel à la réalisation de systèmes optiques au sens classique du terme, la notion de télescope gravitationnel s’appuie sur des formalismes qui, au moins dans les cas simples, sont très voisins de ceux de l’optique géométrique. Ainsi, à l’occasion des développements plus conventionnels de l’optique géométrique, avons-nous jugé utile d’évoquer ce domaine en plein développement.
5.1
L’objet et l’image en astronomie
Le télescope est l’instrument qui produit une « image du ciel » pour identifier et mesurer l’énergie reçue de l’espace : qu’entendons-nous précisément par ce terme d’image ? En effet, malgré la structure tridimensionnelle de l’espace, l’observateur terrestre n’en perçoit jamais qu’une projection à deux dimensions sur la « sphère » céleste. L’intensité reçue est l’intégrale de l’énergie émise localement, intégrée sur la ligne de visée. Le dépliage de l’information mesurée, afin de restituer les conditions locales en tout point de la ligne de visée, est une inversion d’intégrale toujours délicate et entrant dans la catégorie générale des problèmes inverses. Dans ce chapitre, la quantité vectorielle θ (à deux composantes) désigne un point de la sphère céleste, c’est-à-dire une direction caractérisée par deux angles. Différents repères (azimutal, équatorial, galactique) peuvent être utilisés et sont détaillés au chapitre 4. Il est inutile, pour ce qui suit, de particulariser la représentation de θ sur l’une quelconque de ces bases.
Vue de l’observateur, chaque direction angulaire θ du ciel est caractérisée par une luminance monochromatique (définie au chapitre 2) de fréquence ν, reçue par l’observateur : Iν (θ) Wm−2 sr−1 Hz−1 , que l’on peut également exprimer en nombre de photons : Nν (θ) =
Iν (θ) ph s−1 m−2 sr−1 Hz−1 . hν
La répartition Iν (θ) est l’image ou carte monochromatique de la partie observée de la sphère céleste. La dépendance en ν de cette carte contient de nombreuses propriétés physiques de l’objet source : opacités responsables de l’absorption ou de l’émission par la source, corrélations entre phénomènes d’énergie différente, excitation des atomes ou des molécules de l’objet, champs magnétiques, etc. La luminance Iν (θ) peut en outre dépendre du temps (sources variables) et de la polarisation détectée (sources polarisées).
5. Les télescopes
187
Le processus d’observation dégrade Iν (θ) d’au moins quatre façons : (i)
par l’imperfection de réalisation des surfaces optiques (aberrations géométriques) et la dimension finie (diffraction) des télescopes, antennes, collecteurs utilisés pour collecter le flux incident ; (ii) par l’existence d’une quantité finie de photons incidents pendant le temps de mesure, introduisant un bruit de mesure. La restitution de Iν (θ) est alors imparfaite par comparaison à ce que fournirait une mesure à rapport signal à bruit infini ; (iii) dans le cas des observations au sol, par la traversée de l’atmosphère terrestre, milieu hétérogène et turbulent ; (iv) par l’existence d’une résolution spectrale δν0 et d’une résolution angulaire δθ0 finies, mélangeant donc des rayonnements issus de différentes directions et possédant différentes fréquences. Dans le cas où Iν (θ) = δ(θ), répartition impulsionnelle d’intensité caractérisant une source ponctuelle, le domaine |θ| < δθ0 où l’intensité effectivement reçue est significative caractérise la résolution angulaire δθ0 de l’instrument. Cette notion de résolution, capitale pour l’analyse des performances d’un instrument, sera également précisée dans le cas où l’exploration de la fonction Iν (θ) ne se fait plus dans le plan θ, mais dans le plan w conjugué de Fourier par rapport à celui-ci, une configuration rencontrée dans de nombreux instruments appelés réseaux de télescopes ou interféromètres (cf. Chap. 6).
5.1.1
Le télescope et l’optique géométrique
L’optique géométrique fournit la première approximation en vue de la conception d’un télescope1 . Quel que soit le nombre total de miroirs ou lentilles utilisés, le télescope présente toujours un premier élément optique dont l’ouverture définit sa capacité maximale de collection d’énergie (miroir ou lentille primaire) et forme une première image. Ce premier élément est généralement suivi d’autres éléments optiques (secondaire, tertiaire) modifiant la position, l’échelle ou la qualité de cette image primaire. En bout de trajet optique se trouve le plan focal du télescope, où est formée l’image finale qui sera exploitée par les sous-systèmes d’analyse (spectromètres, polarimètres, etc.) et/ou de détection de la lumière. Le but de cette configuration optique est d’obtenir pour un objet source situé à l’infini, à partir d’une ouverture donnée, une image aussi stigmatique que possible dans un champ aussi grand que possible. Le stigmatisme parfait est atteint quand tous les rayons issus d’une direction θ de l’objet convergent parfaitement en un point A(θ) du plan focal du télescope. Le stigmatisme 1 La conception des télescopes étant un sujet considérable, nous renvoyons le lecteur aux ouvrages récents, excellents et extrêmement complets de Wilson, R. Reflecting telescope optics, Springer (1996) et de Bely, P. The design and construction of large optical telescopes, Springer (2003).
188
L’observation en astrophysique
approché se traduit par une tache image, les rayons convergeant dans un voisinage de A dont la dimension permet de qualifier la qualité de l’image en A. On appelle champ du télescope la région du plan focal dans laquelle les images présentent à la fois une qualité d’éclairement et une qualité de stigmatisme approché acceptables pour le but fixé à l’instrument. Il est clair que l’utilisation des photons disponibles et du temps d’observation sera d’autant meilleure que le champ est plus grand, sous la réserve toutefois que les sous-systèmes d’analyse et de détection soient en mesure d’analyser tous les points de ce champ. Le paraboloïde de révolution étant la surface stigmatique parfaite pour former l’image d’un point placé à l’infini sur son axe, il est normal que cette surface soit, au premier ordre, celle recherchée pour réaliser les miroirs primaires des télescopes. Cette surface, utilisée seule, ne présentant pas de stigmatisme hors de l’axe, donc pas de champ, il est également normal que des systèmes optiques comprenant plus d’un miroir aient été conçus : augmentant le nombre de degrés de liberté de la combinaison optique, ils permettent d’obtenir le meilleur compromis possible, eu égard aux besoins de l’utilisateur, entre la qualité d’image en stigmatisme approché, d’une part, et le champ, d’autre part. Néanmoins, le coût de polissage d’un paraboloïde étant très supérieur à celui d’une sphère, des miroirs primaires sphériques sont parfois utilisés, au prix d’une correction indispensable de leurs aberrations. Configuration optique des télescopes La figure 5.1 donne quelques exemples des configurations les plus courantes, utilisées indifféremment pour réaliser les instruments au sol ou dans l’espace, dans des domaines de longueur d’onde très différents et dont les spécificités de conception seront précisées plus loin. On met notamment en évidence sur cette figure la configuration à un seul miroir (imagerie au foyer primaire) et celles qui en utilisent deux ou plus (montages Cassegrain, Nasmyth ou coudé). Nous n’avons pas reporté sur la figure 5.1 la configuration hors axe, dans laquelle un primaire asphérique forme une image en dehors du faisceau incident : ceci permet d’éviter toute obstruction par un miroir secondaire ou tertiaire, au prix d’une réalisation plus complexe et coûteuse du primaire. Nous en verrons des applications intéressantes au chapitre 6.
Le rapport focal ou rapport d’ouverture ou ouverture numérique f/D, où f est la distance focale (ou la distance focale équivalente dans le cas de la combinaison de plusieurs miroirs) et D le diamètre de l’ouverture primaire, est un paramètre important de la conception et de l’utilisation d’une optique de télescope. Les petits rapports (1.2 à 2.5) s’obtiennent au foyer primaire ; les rapports intermédiaires (7 à 30) aux foyers Cassegrain ou Nasmyth ; les très grands rapports (>50) au foyer coudé.
5. Les télescopes
189
Fig. 5.1 – a) : Différentes configurations de foyers. Principes du pointage : b) équatorial et c) altazimutal (télescopes liés à la Terre). Le rapport focal d’un miroir unique sphérique est directement lié à son rayon de courbure R puisque f = R/2. La réalisation de miroirs de qualité comparable et de courbure importante, conduisant jusqu’à des valeurs de f /D à peine supérieures à l’unité, est recherchée malgré les difficultés techniques de polissage de miroirs très ouverts car, à valeur de D égale, elle conduit à des encombrements (longueur de l’instrument) plus faibles, donc à des inerties mécaniques, couples sur les dispositifs d’entraînement, masses et autres paramètres plus favorables lors de la conception générale du télescope. Le rapport focal équivalent, obtenu après traversée de, ou réflexions sur, l’ensemble des surfaces optiques, gouverne également l’échelle de l’image dans le plan focal final. Cette échelle, mesurée en millimètre par seconde d’angle, est directement proportionnelle à la valeur de f : échelle focale = 4.85 × 10−6 f (mm) mm-seconde d’angle−1 La condition d’échantillonnage optimal des images conduit à rechercher une taille de pixel de récepteur a comparable à celle de l’élément de résolution angulaire δθ, soit la condition f δθ ≈ a. Les récepteurs à petits pixels (plaque photographique ou ccd de valeurs a < 10 μm) seront volontiers placés au foyer primaire. Même dans ce cas, l’augmentation des diamètres et la réduction constante de la taille des pixels des ccd conduit souvent à un suréchantillonnage. Lorsque le système récepteur requiert ou tolère des faisceaux moins ouverts ou qu’il accepte que
190
L’observation en astrophysique l’image soit reprise par une optique annexe pour en modifier le grandissement (réducteur focal ), le système pourra être installé aux foyers Cassegrain ou Nasmyth : ce sera le cas des photomètres, des spectromètres à échelle ou même des spectromètres de Fourier.
Aberrations optiques Le compromis entre qualité d’image et champ se traduit par le fait que l’image d’un point géométrique de la source n’est pas un point. Ce phénomène est appelé aberration optique. La détermination des aberrations d’un système optique donné peut se faire par plusieurs méthodes. Dans l’approximation des rayons lumineux (optique géométrique), les méthodes de tracé de rayons consistent à se donner a priori la forme des surfaces optiques (sphères, paraboloïdes ou autres surfaces asphériques, telles qu’ellipsoïdes, hyperboloïdes ou surfaces d’ordre supérieur), puis à en simuler l’illumination de façon numérique, avec un ordinateur, par des rayons issus d’une source ponctuelle S de direction θ donnée. La répartition des points d’impact des rayons dans le plan focal fournit alors la répartition d’énergie dans l’image non stigmatique de S et peut être jugée en fonction des tolérances imposées2 . Nous n’entrerons pas ici dans une analyse détaillée des aberrations3, ni dans celle des moyens développés par les opticiens pour y remédier. Quelques indications permettent néanmoins de saisir le problème. Si l’on considère un ensemble de rayons issus d’un point A de l’objet et parvenant au plan focal après avoir traversé l’optique du télescope, ils se répartissent autour du point A qui serait l’image idéale en absence d’aberrations. Cette dispersion d’un rayon donné autour de A est principalement fonction de deux paramètres. D’une part, la distance angulaire α entre A et l’axe optique : plus l’angle α, qui explore le champ de l’instrument, est grand, plus la dispersion est importante. D’autre part, la distance r entre le point d’impact du rayon sur la pupille d’entrée et le centre de celle-ci : plus cette distance est grande, plus la dispersion autour de A est également importante. On voit donc que le paramètre αmax va fixer le champ de l’instrument, tandis que la valeur maximale de r pour laquelle la qualité de l’image A reste acceptable va fixer le diamètre maximal D du télescope. L’emploi du terme champ doit ici être précisé. Il s’agit du domaine de valeurs de α tel que la qualité d’image y soit acceptable. Le champ de plein éclairement désigne également la région dans laquelle il est possible de déplacer la source A sans que l’image A diminue d’intensité à cause d’obstructions produites par des diaphragmes intermédiaires de l’optique. Au-delà du champ de plein éclairement existe une zone dite 2 Citons par exemple le logiciel Zemax , un programme commercial destiné à modéliser les systèmes optiques. 3 Une excellente description détaillée des aberrations géométriques se trouve dans Born et Wolf, Principles of Optics. L’ouvrage de Danjon et Couder, Lunettes et Télescopes,, Blanchard, Paris, 1983 (rééd.) en contient un exposé précis dans le contexte de l’observation astronomique.
5. Les télescopes
191
champ vignetté (vignetted field en anglais) où l’éclairement du plan focal décroît progressivement.
Lors de la conception d’un télescope le problème est évidemment abordé en sens inverse : on se fixe D et αmax , et l’on recherche la configuration optique (forme et nombre des surfaces réfléchissantes ou des dioptres) qui maintienne la qualité des images A à l’intérieur de l’angle αmax . Les cinq aberrations primaires, dites de Seidel , se décrivent ainsi : – L’aberration sphérique, qui ne dépend que de la valeur de r, c’est-àdire de l’ouverture D ou bien, en valeur angulaire, du rapport d’ouverture f /D entre distance focale et diamètre. Elle est d’autant plus faible que ce rapport est grand, favorisant ainsi les optiques peu ouvertes. – La coma, qui ne dépend que de α et apparaît même pour une ouverture de diamètre D très petite dès que α est non nul. – L’astigmatisme et la courbure de champ qui font intervenir, l’un et l’autre, les valeurs de f /D et de l’écart à l’axe α. – La distorsion enfin, qui brise la similarité géométrique entre l’objet et l’image, tout en maintenant une correspondance biunivoque entre les points du premier et ceux de la seconde. Une étude menée en optique géométrique, bien qu’instructive, ne suffit pas à déterminer complètement la qualité d’image fournie par un dispositif optique puisqu’il faut également prendre en compte les phénomènes de diffraction, causés principalement par la dimension finie des pupilles. Il faut ajouter enfin que la qualité d’image ne résulte pas seulement des défauts de stigmatisme produits par des surfaces optiques parfaites. La diffraction intervient encore, car le poli des lentilles ou des miroirs n’est jamais parfait et ceci introduit des causes supplémentaires de dégradation d’image. On les observe quand la dimension des défauts de surface de la surface optique devient comparable à la longueur d’onde de la lumière dans la direction transversale (c’est-à-dire le long de la surface du miroir) ou dans la direction perpendiculaire. On en rend compte en quantifiant les perturbations de phase résiduelle, produites sur l’onde réfléchie ou réfractée. Signalons simplement ici que des défauts de poli très petits devant la longueur d’onde (λ/20 ou inférieurs) ont une incidence négligeable sur la qualité d’image. On spécifie généralement les optiques astronomiques avec de tels critères exigeants, afin de n’avoir à se préoccuper que des aberrations principales mentionnées ci-dessus. Un cas particulier est toutefois intéressant : un télescope, par exemple aux radiofréquences, peut avoir été construit pour fonctionner de façon optimale à une certaine longueur d’onde λ0 , par exemple décimétrique ou centimétrique. Une utilisation ultérieure à des longueurs d’onde λ beaucoup plus courtes, centimétriques ou millimétriques, conduira généralement à des images moins bonnes, les défauts de chemin optique
192
L’observation en astrophysique ou de phase, d’écart quadratique moyen σφ , induits par les surfaces réfléchissantes, notamment celle du miroir primaire, ne satisfaisant plus à la condition σφ < λ/20.
La construction d’un instrument est toujours la recherche d’un compromis entre la qualité d’image (stigmatisme approché) et le champ dans lequel sera préservée cette qualité. La recherche de ce compromis implique plusieurs étapes : choix de la géométrie des surfaces (sphériques, et donc de coût moindre, ou asphériques), choix de la combinaison des éléments individuels, puisqu’un plus grand nombre d’éléments optiques offre davantage de degrés de liberté et permet une meilleure optimisation, au prix éventuel d’une perte additionnelle de lumière, partiellement compensée par un traitement optimal (dépôt fortement réfléchissant pour les miroirs ou antireflet pour les dioptres) des surfaces. Ces considérations sont illustrées par la figure 5.2 qui donne un tracé de rayons obtenu par simulation numérique, une méthode universellement employée pour étudier les propriétés d’une optique. Le cas considéré est celui d’un miroir primaire parabolique ouvert à f /2, légèrement déformé de façon contrôlée (optique active), auquel est associé un jeu de trois lentilles (triplet correcteur ) proche de son foyer primaire. La description et l’analyse des aberrations optiques, comme celle des conséquences d’une qualité insuffisante de poli des surfaces optiques, est particulièrement commode en introduisant une représentation des erreurs locales de phase produites sur le front d’onde. Cette analyse ne peut évidemment relever de l’optique géométrique. Le formalisme des polynômes de Zernike est précieux pour l’étude de perturbations quelconques des fronts d’onde. Dans le cas qui nous occupe ici, ces perturbations sont produites par des surfaces optiques imparfaites ou non stigmatiques. Mais elles peuvent aussi trouver leur origine dans la traversée de milieux inhomogènes par l’onde : c’est à cette occasion (cf. § 6.3) que nous introduisons ce formalisme. Quelques caractéristiques d’une optique de télescope Résumons ici les principaux paramètres utilisés pour caractériser un télescope et son optique : a) La configuration focale, présentée à la figure 5.1. Notons qu’un même instrument peut présenter plusieurs foyers, le passage de l’un à l’autre se faisant simplement par commutation d’un miroir. L’avantage est de disposer de divers lieux d’implantation simultanée de l’instrumentation focale, avec des rapports d’ouverture différents, des masses ou encombrements variables, etc. b) L’échelle de l’image dans chaque plan focal, donnée généralement en millimètre par seconde d’angle. Cette échelle doit être adaptée au choix de la dimension du pixel des récepteurs, à moins que l’instrument placé au foyer modifie à nouveau cette échelle par un train optique additionnel.
5. Les télescopes
193
Fig. 5.2 – Tracé de rayons par ordinateur. Un point source à l’infini, placé à différentes distances angulaires de l’axe optique, illumine la pupille du télescope. Chaque point élémentaire représenté ici dans le plan focal correspond à l’impact d’un rayon provenant du même point source mais passant par un point différent de la pupille. Comme le programme de calcul prend également en compte les effets de la diffraction qui est un phénomène chromatique, le résultat final dépend aussi de la longueur d’onde, qui est donc la variable portée horizontalement. Le nombre placé auprès de chaque tache image donne, en seconde d’angle, le rayon du cercle contenant 80 % de l’énergie lumineuse. L’échelle est donnée par le cercle inférieur de diamètre 0.5 . L’échelle linéaire dans le plan focal est de 292 mm degré−1 . (Simulation due à Enard D., Études en vue du télescope européen VLT de 8 m. Observatoire européen austral.)
c) L’ouverture numérique du faisceau, donnée par le rapport f /D entre distance focale équivalente et diamètre du miroir primaire. d) Le champ, sous les deux utilisations du terme. D’une part, la région du plan focal dans laquelle la qualité d’image demeure acceptable selon des critères prédéfinis et d’autre part, la région dans laquelle l’éclairement demeure uniforme (plein éclairement) ou partiel et variable (champ vignetté). e) La qualité de l’image. Celle-ci se mesurera soit à l’aide de la fonction de transfert de modulation en chaque point (ftm, définie au § 6.1), soit par le diamètre angulaire du cercle dans lequel se concentre, autour de l’image idéale, une fraction donnée (50 ou 80 %) de l’énergie issue du point objet conjugué, soit par un tracé de rayons (Fig. 5.2). La qualité d’image est conditionnée par la conception de l’optique, par la qualité des surfaces optiques rencontrées, par la diffraction et, enfin, par des facteurs externes
194
L’observation en astrophysique
à l’instrument tels que la présence de milieux d’indice inhomogène en amont de celui-ci (atmosphère terrestre). f) La courbure du plan focal. Il se peut que le meilleur stigmatisme approché soit obtenu non pas sur une surface plane, mais sur une surface courbe. C’est le cas du plan focal des télescopes de Schmidt , dont le champ atteint la valeur considérable de plusieurs degrés. À ces spécifications générales d’autres peuvent s’ajouter, dictées par le domaine de longueur d’onde considéré : radiofréquences, infrarouge, etc. Nous y revenons dans la section suivante 5.2, qui traite de réalisations concrètes de télescopes.
5.1.2
L’optique gravitationnelle
Dans un espace euclidien et vide, les rayons lumineux sont décrits par l’approximation géométrique et suivent des lignes droites. En présence d’un indice dépendant de la variable d’espace n(r), les trajets sont courbes, comme le montre l’exemple simple de la réfraction atmosphérique (cf. § 2.5). En relativité générale, la géométrie de l’espace présente une courbure, qui est imposée par la répartition des masses de matière, et les trajectoires des rayons lumineux, ou géodésiques, sont des courbes suivant partout la distance minimale locale4 . De tels effets sont présents dans l’Univers à différentes échelles, mais tout particulièrement au voisinage d’un trou noir, ou encore aux très grandes échelles des amas de galaxies. Une répartition de masse donnée produit ainsi des effets de convergence ou de divergence sur les faisceaux lumineux, tout à fait analogues à ceux produits par des variations de l’indice de réfraction dans des milieux réfringents. De façon générique, on utilise le terme d’optique gravitationnelle pour désigner ces effets et, par extension, celui de télescope gravitationnel pour désigner les répartitions de masse produisant de telles « images ». Sans vouloir traiter ici complètement le problème, limitons-nous au cas simple d’un rayon se propageant au voisinage d’une masse M . Rappelons d’abord que le principe de Fermat s’écrit par la différentielle : δ n(r) dξ = 0, où dξ est l’élément de longueur le long du chemin lumineux. Le trajet suivi résulte de l’équation de Lagrange, x étant la coordonnée d’espace : d dx n(r) = ∇n(r). dξ dξ Dans un champ de gravitation, la condition sur la distance généralisée s, ds2 = 0, demeure satisfaite par la lumière le long du rayon. Dans une métrique 4 Ce qui distingue les géodésiques d’un espace courbe des celles d’un espace euclidien est que la projection d’une géodésique n’est pas une géodésique de l’espace de projection.
5. Les télescopes
195
simple de relativité générale, les différentielles d’espace dr et de temps dt, au point distant de r de la masse M , sont reliées par l’expression : c
GM c dt =1+ = , dr r v(r)
qui donne donc une valeur de vitesse apparente v(r) analogue à l’effet d’un indice de réfraction. Celui-ci peut être inséré dans l’équation de Lagrange qui, par intégration, fournit le trajet des rayons. On comprend alors que des répartitions de masses adéquates puissent créer l’analogue de véritables « lentilles » formant pour un observateur situé sur Terre l’« image » d’objets très lointains (Fig. 5.3).
Fig. 5.3 – Effet de lentille gravitationnelle dû à l’amas de galaxies MS 0440 + 0203, dont le décalage spectral est z = 0.19. Les arcs approximativement concentriques (en anglais, arclets) sont des « images gravitationnelles », fournies par l’amas, de galaxies situées au-delà de celui-ci. À gauche : image obtenue avec le télescope Hubble, 6 heures d’intégration (6 orbites). La résolution est de 0.1 (caméra wfpc2), permettant de résoudre l’épaisseur des arcs. À droite : image obtenue au sol, télescope de 3.6 m cfht (Hawaii), avec une résolution angulaire de 0.5 , limitée par le seeing. (Document aimablement fourni par F. Hammer et al., 1995.)
5.2
La grande famille des télescopes
Dans cette section, parcourant tout le spectre électromagnétique, nous examinons quelles sont les caractéristiques spécifiques aux télescopes dédiés à un domaine de longueur d’onde donné. Le concept5 s’est évidemment développé 5 On peut consulter à ce sujet l’ouvrage The history of the telescope, par H.C. King, Dover, 1977.
196
L’observation en astrophysique
d’abord dans le domaine visible (Galilée au xviie siècle, Newton au xviie , Foucault au xixe , George Hale, Aden Meinel, Raymond Wilson au xxe ...), puis dans le domaine des radiofréquences après 1945. Enfin, après 1960, il s’est étendu à l’ensemble du spectre, observé depuis le sol terrestre et surtout depuis l’espace. L’existence d’autres porteurs d’information (neutrinos et ondes gravitationnelles) conduit à s’interroger sur la possibilité de construire des systèmes assurant à leur égard la même fonction que celle du télescope classique vis-àvis de la lumière. Il y aurait abus de langage à procéder ainsi aujourd’hui car l’état, le plus souvent encore rudimentaire, des techniques utilisées conduit à confondre entièrement les fonctions de collecte d’énergie, de localisation spatiale et de détection. Nous en traiterons donc au chapitre 7, à propos de la détection qui est encore la difficulté principale d’observation de ces signaux. Revenant aux instruments optique, la recherche d’une surface collectrice maximale est une préoccupation commune, quel que soit le domaine spectral. Les limitations, au-delà des aspects de coût, sont le plus souvent d’ordre technologique. Trois remarques fondamentales sont à faire : – Les écarts des surfaces optiques réelles par rapport à la surface idéale, du point de vue du meilleur stigmatisme approché, doivent rester petits devant la longueur d’onde d’utilisation. – La résolution angulaire, lorsque dans le cas le plus favorable elle est fixée par la diffraction (cf. Chap. 6), varie comme λ/D, où D est la dimension du miroir primaire (ou première surface optique collectrice). Dans une stratégie globale, les astronomes des différents pays cherchent à se doter, à terme, d’une résolution angulaire homogène sur le ciel, par exemple 0.1 seconde d’angle, car cela permet de comparer les propriétés et la morphologie d’un objet à même échelle et à des longueurs d’onde différentes. Néanmoins, la réalisation de ces différents instruments fait appel à des dimensions et des technologies très diverses et l’objectif d’une résolution homogène n’est pratiquement jamais encore atteint. – La nature du processus de réception du signal, qui prend place au foyer du télescope, conditionne dans une certaine mesure la conception de celui-ci. Toutes ces dépendances en longueur d’onde conduisent à examiner la réalisation des télescopes selon les grands domaines spectraux, en distinguant, quand il le faut, l’utilisation sur le sol terrestre de celle qui a lieu dans l’espace. La conception de réseaux de télescopes, qui étend considérablement les performances en résolution angulaire, sera examinée au chapitre suivant.
5.2.1
Les radiotélescopes (0.5 mm λ 1 km)
Les télescopes destinés à la réception du rayonnement qualifié de radiofréquence, ou radio pour faire bref, sont appelés radiotélescopes ou parfois
5. Les télescopes
197
antennes. Toutefois, la frontière délimitant le passage des longueurs d’onde radio (de kilométriques à sub-millimétriques) à celles relevant de l’infrarouge lointain est mal définie et se situe autour de 0.5 mm. Ne correspondant à aucune propriété fondamentale, cette transition découle plutôt du passage d’un type de détecteurs (en mode hétérodyne) à d’autres utilisés aux plus courtes longueurs d’onde (bolomètres, puis photoconducteurs, comme cela sera précisé en détail au chapitre 7. Le passage d’un type à l’autre entraînant certaines modifications sur la conception et l’utilisation des télescopes, il n’est pas illogique de présenter ici quelques caractéristiques des instruments fonctionnant dans le domaine radio. Ces radiotélescopes sont constitués d’un miroir primaire de très grande taille (dizaine ou centaine de mètres), généralement parabolique, dont la précision de surface est fixée par la longueur d’onde d’utilisation. La surface est formée de grillage aux grandes longueurs d’onde, de panneaux continus aux plus courtes, les exigences de précision (λ/20 environ) croissant lorsque λ diminue. L’importance de plus en plus grande du domaine submillimétrique conduit à construire des miroirs de qualité croissante, et la frontière même entre radiotélescope et instrument optique s’atténue : le radiotélescope James Clerk Maxwell Telescope (jcmt), de 15 m de diamètre, est ainsi présenté comme « le plus grand télescope optique du monde » (en 2007). Les récepteurs, qui aux plus courtes longueurs d’onde mêlent également les techniques de détection proprement radiofréquences aux techniques optiques (cf. § 7.4), sont soit placés directement au foyer primaire, soit à un foyer secondaire en montage Cassegrain. Sur la Terre, le télescope est généralement porté par une monture altazimutale et suit la source dans son mouvement diurne. À ces longueurs d’onde, l’émission du ciel ne subissant pas de modification entre le jour et la nuit, ces instruments peuvent fonctionner jour et nuit, ciel couvert ou lon. La robustesse de leur miroir leur permet d’être construits à l’air libre, sans dôme, ce qui en réduit le coût. Plus de vingt instruments de ce type, de diamètre supérieur à 15 m, sont en service ou en projet dans le monde (Fig. 5.4). Un radiotélescope particulier est celui d’Arecibo (Puerto-Rico), dont le miroir primaire, de 300 m de diamètre, est d’axe vertical et fixe. C’est un instrument dit de passage zénithal, dans lequel l’image est formée au foyer, mais où celui-ci se déplace au cours du temps, imposant de déplacer le récepteur pour suivre la source. Le miroir primaire du radiotélescope décimétrique de Nançay (France), datant de 19611964, est rectangulaire (300 × 35 m), vertical mais également fixe ; il est précédé d’un miroir plan mobile qui permet de suivre plus longtemps la source étudiée, et suivi d’un chariot mobile, portant le récepteur. Aux radiofréquences, il n’existe que peu de récepteurs multipixels, de type plaque photographique ou ccd. Obtenir l’image d’une source en ne disposant que d’un seul pixel oblige donc le plus souvent à faire un balayage bi-dimensionnel de la source (mode télévision, appelé encore raster scan),
198
L’observation en astrophysique 1000
Limite de résistance mécanique
it)
nu
e(
iqu
rm
ite
the
Lim
SIERRA NEGRA Mexique NOBEYAMA IRAM Japon Espagne ONSALA JCMT Suède Hawaii
Diamètre (m)
100
APEX Chili
OWENS V. California
GREENBANK Texas
HAYSTACK E.U.
nelle
ation
ravit
eg Limit
PARKES Australie
KITT PEAK Arizona POLE SUD
10 CSO Hawaii
EFFELSBERG Allemagne
r)
jou
e(
qu mi
r
te
i Lim
the
1 0.3
1
10
3
30
100
300
Longueur d'onde (mm)
(a)
(b)
Fig. 5.4 – a) Les grands radiotélescopes orientables du monde, à antenne unique. Les instruments existants sont positionnés au voisinage de leur longueur d’onde minimale de fonctionnement à efficacité normale. Les limites imposées par la résistance structurale, les déformations thermique et gravitationnelle sont indiquées : ces effets perturbateurs limitent en effet la précision avec laquelle la surface réelle s’approche de la parabole recherchée. (D’après Blum E.J., Adv. Electron. Electr. Phys. 56, 97, 1981, avec mise à jour. Avec l’aimable autorisation de l’éditeur.) b) Le radiotélescope d’Effelsberg (Max Planck Institute, Bonn). La partie utile du miroir mesure 100 m de diamètre.
5. Les télescopes
199
chaque direction de pointage échantillonnant un pixel de l’image. Néanmoins aujourd’hui (2007) se développent des récepteurs multipixels, aux capacités encore modestes, tant pour de l’imagerie incohérente millimétrique, avec des mosaïques de 12 × 12 bolomètres) que pour la détection hétérodyne avec un plan focal pavé de 5 × 5 cornets récepteurs (cf. § 7.5). Notons également que les défauts de propagation dans l’atmosphère terrestre (turbulence troposphérique ou ionosphérique), qui affectent la phase des ondes, ne gênent l’observation qu’aux longueurs d’onde inférieures au centimètre. La résolution angulaire des radiotélescopes est généralement limitée par la diffraction, c’est-à-dire à la valeur λ/D, si D est le diamètre du primaire (cf. § 6.1). Avec D = 50 m par exemple, ceci conduit à des résolutions médiocres : de 4 secondes d’angle à λ = 1 mm à plus d’un degré à λ = 1 m. Pour améliorer ces valeurs, on a dès les années 1950 construit des réseaux de radiotélescopes couplés, traités au § 6.5.1. Le radiotélescope d’Effelsberg (Allemagne). La plus grande antenne orientable jusqu’ici réalisée, cet instrument de 100 m de diamètre présente une qualité de surface (plaques métalliques) permettant de travailler à λ 7 mm, la concentration de l’énergie dans l’image de diffraction devenant médiocre à plus courte longueur d’onde (Fig. 5.5). Le radiotélescope millimétrique de 30 m de Pico Veleta (Espagne). Une structure en acier accueille des panneaux d’aluminium usinés avec une précision nominale de 35 μm rms, permettant une image limitée par la diffraction à des longueurs d’onde comprises entre 0.87 et 4 mm.
5.2.2
Les télescopes optiques au sol : visible et proche infrarouge
Les télescopes opérant dans le domaine visible sont les plus anciens des instruments d’imagerie utilisés en astronomie, hormis l’œil humain bien entendu. La progression de leur diamètre s’est faite par étapes, en fonction des progrès de la techologie des matériaux : après les lunettes (ou réfracteurs dont le rôle s’est pratiquement éteint au xxe siècle), la première moitié de celui-ci a vu se réaliser des instruments possédant un miroir de 5 à 6 m, suivis d’instruments atteignant 10 m dans la seconde moitié. D’ici les années 2020-2030 seront sans doute réalisés des instruments atteignant 30 à 50 m de diamètre. Leur extension au proche et moyen infrarouge (λ 30 μm environ) s’est faite dès les années 1970, au fur et à mesure de la disponibilité de récepteurs sensibles, et en fonction de la qualité des sites autorisant de bonnes fenêtres de transmission atmosphérique. Les tableaux 5.1 et 5.2 donnent la liste (à jour en 2007) de tous les télescopes optiques (visible et infrarouge) situés à la surface de la Terre, ayant plus de 3.5 m de diamètre, avec leur site d’implantation6 . 6 Le lecteur trouvera en fin d’ouvrage la table des références de ces instruments sur Internet.
200
L’observation en astrophysique
Fig. 5.5 – Carte d’une des régions d’intense formation stellaire dans la constellation d’Orion, comprenant l’objet de Becklin-Neugbauer (bn). La carte est faite dans la raie de l’ammoniac NH3 (λ = 1.3 cm) avec le radiotélescope d’Effelsberg (Allemagne). Le lobe de 4 (fonction d’étalement de point ou Half Power Width Beam, hpbw) est indiqué. a) Contours d’iso-intensité superposés à une photographie. b) Vue cavalière de l’intensité. Voir aussi l’image de la même région obtenue dans l’infrarouge au chapitre 7, figure 7.33. (D’après Batrla W. et al., Astr. Ap., 128, 279, 1983. Avec l’aimable autorisation de Astronomy and Astrophysics.)
5. Les télescopes
201
Tab. 5.1 – Les grands télescopes optiques terrestres de l’hémisphère Nord. Latitude Altitude (m) 47◦ N
2 070
42◦ N
2 500
37◦ N
2 160
34◦ N
1 706
32◦ N 30◦ N
2 130 3 266 2 076
28◦ N
2 370
19◦ N
4 200
Site Zelentchuk (Caucase) Xing long Calar Alto (Espagne) Palomar (Californie) Kitt Peak (Arizona) Mt. Graham (id.) Mt. Locke (Texas) La Palma (Canaries) Mauna Kea (Hawaii)
Pays
Diamètre (m)
Russie
6
Chine
4
Allemagne & Espagne USA USA USA/Italie/All. USA RoyaumeUni Espagne RoyaumeUni CanadaFranceHawaii USA (CalTech) Japon USA (NSF)
Nom, remarques
Date
Monture altazimutale lamost siderostat
1972
3.5 5 3.8 2×8.2 9.2 4.2 10.4 3.8
3.6 2×10 8.4 8.0
2007 1981
Le premier des ’grands’ Mayall lbt Hobby-Eberly élévation fixe wht (Herschel) GranTeCan ukirt (infrarouge)
1948 1974 2007 1997 1984 2008 1979
cfht
1974
Keck-I & II Subaru Gemini N
1994 1999 1999
Il est intéressant de constater quelques évolutions récentes, modifiant en profondeur des concepts qui paraissaient avoir atteint leurs limites. En effet, les difficultés technologiques, la dégradation des images par la turbulence atmosphérique et l’accès à l’espace ont paru un temps (fin des années 1970) rendre improbable la poursuite de la construction de grands télescopes terrestres d’un diamètre supérieur à 5-6 m. Ce point de vue a été rapidement dépassé pour un ensemble de raisons : – Les limitations technologiques à la construction de très grands miroirs ont été levées, grâce à l’apparition de nouveaux matériaux (céramiques) et des possibilités de contrôle actif conduisant à des allègements substantiels, en fabriquant des miroirs à surface segmentée. – Des méthodes de correction de la turbulence atmosphérique sont apparues à la fin des années 1980 (optique adaptative), précédées par des méthodes numériques de correction a posteriori des images (interférométrie des tavelures) dans les années 1970. S’affranchissant de l’effet de la turbulence (cf. § 6.3), elles permettent de bénéficier du gain en résolution angulaire proportionnel au diamètre D du télescope. – En spectrographie à haute résolution (Chap. 8), la sensibilité dépend de façon critique du diamètre D, tandis que la contribution de la luminosité
202
L’observation en astrophysique
Tab. 5.2 – Les grands télescopes optiques terrestres de l’hémisphère Sud. Latitude
Altitude (m)
Site
23◦ S
2 650
29◦ S
2 280
29◦ S
2 430
C. Paranal (Chili) Las Campanas (Chili) La Silla (Chili) C.Tololo C. Pachon (Chili) Sutherland (Afr. du Sud) Siding Spring (Australie)
30◦ S
2 700 2 738
32◦ S
1 500
34◦ S
1 165
Pays Europe USA ESO USA USA Brésil & USA Afrique du Sud & collab. Australie & UK
Diamètre (m)
Nom, remarques
Date
4 × 8.2 4 2×6
vlt vista Magellan
1998 2008 2002
3.6 3.5 4 8.1 4.1 11
ntt Blanco Gemini S soar salt
1977 1989 1974 2001 2005 2005
3.9
aat
1974
du fond de ciel reste gênante mais acceptable. La nécessité d’aller dans l’espace n’est donc pas aussi contraignante que pour des mesures photométriques ou spectrales à basse résolution. – Le coût des missions spatiales demeure d’un ordre de grandeur au moins supérieur à celui de la construction d’un instrument de taille comparable au sol, et, après les beaux résultats du télescope Hubble, il apparaît clairement que sol et espace apportent deux approches complémentaires et indispensables. – La conception de télescopes spécialisés, par exemple en spectroscopie, conduit à développer des instruments moins coûteux, mais ne possédant pas toute la flexibilité d’un télescope classique : c’est le cas du Large Sky Area Multi-Object Fiber Spectroscopic Telescope (lamost) en Chine (2007), dont le miroir primaire est fixe (à la manière du radiotélescope décimétrique de Nançay), ou du South African Large Telescope (salt) à élévation fixe (2005). La réalisation des grands miroirs. La réalisation de miroirs primaires de grande taille (supérieure à 2-3 m de diamètre) repose désormais sur des stratégies d’allègement, donc d’amincissement du miroir. Quelle que soit la solution technique employée, le miroir primaire devient trop léger pour que sa rigidité soit assurée de façon passive. La déformation du miroir sous son propre poids, de surcroît variable avec la direction de pointage, conduirait à des aberrations importantes et inacceptables. Les choix technologiques se sont donc orientés dans deux grandes directions : d’une part, vers des miroirs minces monolithiques (cas du vlt européen, 8.2 m) ou épais mais allégés (cas du Large Binocular Telescope, en Arizona, 8.2 m) ; d’autre part, vers des miroirs segmentés, c’est-à-dire formés de surfaces optiques de petite taille (de l’ordre du mètre), disposées côte à côte et
5. Les télescopes
203
polies de façon à reconstituer le paraboloïde recherché (Keck Telescope, Hawaii, 10 m). Au-delà de 8-10 m de diamètre, pour les elt (Extremely Large Telescope) de la génération des années 2005-2040, seule la solution segmentée est considérée. Dans l’un et l’autre cas, la déformation de la surface est acceptée, mais elle est corrigée en temps réel par l’action de poussées appropriées exercées au dos du miroir monolithique, ou des segments le constituant. Cette correction est partiellement programmée en fonction de la température, de l’attitude du miroir par rapport à la gravité, mais principalement déduite de l’analyse en temps réel de l’image d’une étoile donnée par le miroir. Le concept d’optique active (Fig. 5.6), utilisant toutes les ressources du contrôle en temps réel grâce à l’informatique, est ainsi à la base de la réalisation des miroirs des grands télescopes optiques terrestres, présents et à venir, jusqu’à ce qu’éventuellement apparaissent de nouvelles technologies d’allègement plus puissantes encore (miroirs membranes ?).
Fig. 5.6 – Exemple d’optique active. Le télescope New Technology Telescope (ntt) de l’Observatoire Européen Austral, ouvert en 1989, possède un miroir primaire mince et actif de 3.5 m de diamètre. On voit ici la maquette qui servit à mettre au point le système dorsal de vérins qui en contrôlent la forme. Ceux-ci sont activés de façon à corriger toutes déformations d’origine mécanique (gravité, vent) ou thermique, lorsque leur fréquence est inférieure au hertz. (Document R. Wilson, Observatoire Européen Austral.)
Les télescopes au sol étaient traditionnellement montés sur monture équatoriale. Celles-ci sont désormais abandonnées, pour des motifs d’encombrement et de légèreté, donc de coût, au profit des montures altazimutales, la compensation du mouvement diurne opérant sur deux axes et étant pilotée par ordinateur. Une précision de poursuite de l’ordre de 0.1 seconde d’angle en éqm est atteinte. Cette configuration présente le défaut de créer une rotation de champ au plan focal, qu’il faut compenser par un dérotateur de champ.
204
L’observation en astrophysique
Caractères spécifiques à l’infrarouge. Au sol, les télescopes sont assez indifféremment utilisés dans le visible ou l’infrarouge. Notons que quelques grands instruments ont été construits spécialement pour l’infrarouge, tel le télescope britannique de 3.8 m au Mauna Kea (Hawaii), appelé ukirt. Deux facteurs distinguent la conception optimale d’un instrument destiné à ce domaine spectral, facteurs que l’on retrouve pour un instrument submillimétrique : – Le miroir secondaire vibrant, en général à une fréquence inférieure à 50 Hz, permet d’alterner rapidement l’observation entre source et fond de ciel imagés sur le récepteur et de faire ainsi une mesure différentielle. Cette technique, bien adaptée aux récepteurs monocanaux, a évolué vers des techniques plus fines de soustraction de fond de ciel discutées § 2.3 et § 9.4. Il n’en demeure pas moins que les variations, rapides au cours du temps, de l’émission atmosphérique imposent de disposer, sur le trajet optique, d’une commutation de faisceau aussi rapide que possible. – La propreté thermique. L’optique doit être conçue de façon telle que le récepteur reçoive un minimum de rayonnement émis par des sources autres que les surfaces optiques elles-mêmes : cette condition est satisfaite par l’utilisation de diaphragmes et écrans (baffles) convenablement disposés. En outre, les surfaces optiques sont traitées de façon à réduire leur émissivité et, toutes surfaces comprises, un bon télescope peut n’avoir une émissivité que de quelques points de pourcentage. Ces considérations s’appliquent d’ailleurs également aux télescopes submillimétriques et millimétriques pour les mêmes raisons, à savoir la nécessité de ne pas noyer le signal astronomique dans un signal thermique parasite émis par l’optique elle-même. Télescopes optiques de la nouvelle génération. Examinons quelquesunes des réalisations parmi la dizaine de télescopes de nouvelle génération qui ont été mis en opération autour de l’an 2000, ainsi que l’un des projets de la génération suivante. Les télescopes Keck. Assemblé en 1992, Keck-I, un télescope de 10 m, comprend un miroir primaire formé de 36 segments hexagonaux indépendants et actifs, chacun de 1.8 m, et séparés par des interstices de 3 mm. Le rapport d’ouverture f /D vaut 1.75. Différents foyers sont disponibles : primaire, Cassegrain, Nasmyth. Installé sur le sommet du Mauna Kea (Hawaii), il est complété d’un second instrument identique (Keck-II), situé à B = 75 m du précédent. Le couplage cohérent (interférométrique) de ces deux télescopes est possible ; il autorise une grande sensibilité, due au diamètre, conjuguée avec une grande résolution angulaire (λ/B = 2.75 millisecondes d’angle à λ = 1 μm). Le très grand télescope européen (Very Large Telescope ou vlt). Mis en service à partir de 1998, cet ensemble est formé de quatre télescopes indépendants dont les miroirs primaires monolithiques minces ont un diamètre
5. Les télescopes
205
Fig. 5.7 – Le télescope européen Very Large Telescope (vlt). Disposé au Cerro Paranal (2 635 m, Chili), le vlt comprend 4 télescopes de 8.2 m, ainsi qu’un réseau complémentaire de télescopes interférométriques mobiles (premier plan). Les tranchées permettent le transport de la lumière jusqu’à un foyer commun de recombinaison. (Dessin aimablement communiqué par l’Observatoire européen austral eso.)
effectif de 8.2 m. Montés sur supports actifs et ouverts à f /D = 1.8, ils offrent des foyers Nasmyth, Coudé ou Cassegrain. Les quatre télescopes (Fig. 5.7), installés au Cerro Paranal (Chili) sur une configuration trapézoïdale offrent une possibilité d’usage indépendant ou au contraire de combinaison cohérente (interférométrie). Dans ce dernier cas, la résolution atteinte est fixée par la séparation maximale de B = 120 m. Quatre télescopes mobiles, de taille inférieure (1.8 m), complètent le dispositif interférométrique, offrant des bases de longueur et d’orientation variables, pouvant atteindre 200 m. Le Large Binocular Telescope (lbt ou Magellan). Cet instrument est réalisé sur un concept hybride, puisqu’il utilise la technologie de miroirs épais mais allégés, monolithiques et actifs (8.4 m), qui forment une paire « binoculaire » sur la même monture altazimutale. Comme sur la version initiale du MultiMirror Telescope (Mount Hopkins, Arizona), prédécesseur construit en 1976 qui rassemblait six miroirs sur une même monture, les faisceaux lumineux peuvent être superposés de façon cohérente ou incohérente. Le lbt est installé sur le Mount Graham (Arizona) et a vu sa première lumière en 2005. Le Thirty Meter Telescope (tmt). Résultant d’un effort conjoint d’institutions privées et publiques des États-Unis et du Canada, ce projet d’un téles-
206
L’observation en astrophysique
cope de 30 m est, en 2006, le plus avancé de ceux qui se réaliseront sans doute dans la première moitié du xxie siècle. Doté d’un miroir primaire (diamètre D = 30 m) formé de 738 segments hexagonaux de 1.2 m, épais de 4.5 cm, ouvert à f /1, il sera installé sur un site à déterminer (Nord du Mexique, Nord du Chili ou Mauna Kea à Hawaii). Comme pour tous les instruments de cette classe, la construction ne se justifie que si la résolution angulaire ultime λ/D peut être atteinte, ce qui impose une optique adaptative extraordinairement performante (cf. § 6.3). L’Europe (Observatoire Européen Austral, eso) a également mis à l’étude, et approuvé dans son principe en 2006, un projet comparable e-elt (European Extremely Large Telescope), d’un diamètre de 42 m.
5.2.3
Les télescopes spatiaux : de l’ultraviolet au submillimétrique
Placer le télescope dans l’espace permet de s’affranchir entièrement des obstacles que l’alternance circadienne et l’atmosphère terrestre opposent à l’observation, et de couvrir une très large gamme du spectre électromagnétique, depuis l’ultraviolet jusqu’au domaine submillimétrique. Les possibilités offertes par l’espace vont de l’utilisation d’avions ou de ballons stratosphériques à celle de satellites ou sondes placés dans l’espace profond : navette spatiale ; stations spatiales en orbite basse (400 à 500 km) ; satellites orbitant autour de la Terre à distance plus ou moins grande, éventuellement stabilisés aux points de Lagrange ; sondes s’approchant de tel ou tel corps du système solaire (planète, satellite, comète, astéroïde, Soleil, etc.) ; surface de la Lune enfin. Les télescopes embarqués visent à l’observation de l’espace profond, audelà des limites du système solaire. Outre l’investigation in situ, des instruments plus spécifiques peuvent aussi fournir des images d’objets (cartographie de la surface de Mars par exemple, à partir d’un instrument en orbite martienne). La recherche d’un grand diamètre, le plus souvent justifiée par la sensibilité requise des instruments, est, comme au sol, limitée par des raisons de coût et/ou de technologie. Les télescopes sont télécommandés et présentent un haut degré de fiabilité aussi bien pour la commande (acquisition, pointage) que pour la réception, le traitement à bord et la transmission des mesures. Pour l’observation de l’espace profond, dans les missions en cours, en préparation ou en projet, il s’agit de véritables observatoires spatiaux, dédiés à un domaine spectral particulier. Ultraviolet. Dans l’ultraviolet, les limites spectrales sont assez nettes : la coupure de l’atmosphère terrestre vers 350 nm, (320 nm, soit à peine moins, dans les sites d’altitude), obligea immédiatement les astronomes à travailler dans l’espace, à l’aide de ballons et fusées dans les années 1960 et 1970, à l’aide d’observatoires en orbite ensuite. Les télescopes uv spatialisés ne se distinguent guère des télescopes opérant dans le visible, sinon par la qualité
5. Les télescopes
207
de leurs surfaces optiques (défauts < λ/20 environ) et par la recherche de dépôts réfléchissants efficaces (couche de MgF2 ). La réalisation de couches réfléchissantes à l’aide de dépôts multiples permet d’obtenir des réflectivités acceptables (10 à 20 %) dans des domaines spectraux s’approchant des rayons X (10 nm de longueur d’onde) et d’échapper ainsi aux contraintes qu’impose dans ce dernier domaine la nécessité de miroirs utilisés sous incidence rasante. Les satellites oao (Orbiting Astronomical Observatory) fournirent dans les années 1970 une première cartographie et photométrie du ciel uv. Ils furent suivis de la mission International Ultraviolet Explorer (iue), remarquablement fertile (cf. § 8.9). L’instrument est demeuré actif pendant près de vingt années (1978-1996), équipé d’un spectrophotomètre dans le domaine 115-320 nm. Dans le domaine de l’ultraviolet proche, l’outil majeur des décennies 1990 et 2000 est le télescope spatial Hubble, lancé en 1989 et prévu pour demeurer en orbite opérationnelle jusqu’au-delà de 2010. D’un diamètre de 2.4 m et doté après quelques incidents initiaux d’une résolution atteignant 0.1 , il donne accès à toutes les longueurs d’onde comprises entre 110 et 700 nm. En 2002, lors d’une visite par les astronautes de la nasa, il a été doté d’un nouvel instrument (Advanced Camera for Surveys, acs), capable de donner des images et des spectres depuis l’ultraviolet jusqu’au très proche infrarouge (115 nm à 1100 nm). Parmi les missions plus spécialisées, citons : fuse, le Far Ultraviolet Spectroscopic Explorer (nasa et autres pays), lancé en 1999 mais atteint par une panne sérieuse en 2006, couvrant le domaine 90.5-118.7 nm ; galex, le Galaxy Evolution Explorer (nasa, 2003) au télescope de 35 cm de diamètre (135-280 nm). L’extraordinaire moisson de résultats dus au télescope Hubble a stimulé la préparation d’un successeur : ce sera le James Webb Space Telescope 7 . Cet observatoire, placé au point de Lagrange L2 , doté d’un télescope de 6.5 m sera équipé d’un miroir segmenté et déployé dans l’espace (Fig. 5.8, cahier couleur). Il est destiné à couvrir le domaine 0.6-27 μm : ce n’est donc plus un télescope destiné à l’ultraviolet, mais plutôt au proche infrarouge. La raison en est sa destination principale, à savoir l’étude de l’Univers très profond, où les décalages spectraux (z 1) dus à l’expansion ramènent dans le visible ou le proche infrarouge les rayonnements qui ont été émis dans l’ultraviolet. Il est prévu de lancer le jwst en 2013.
Infrarouge (1 à 100 μm) et submillimétrique (0.1 à 0.5 mm). Bien que l’infrarouge proche et moyen (jusque 30 μm environ) puisse en partie être observé depuis le sol terrestre, l’observation spatiale s’impose au-delà. Et même en deçà, certaines régions spectrales absorbées par l’atmosphère 7 James Webb administra la nasa à l’époque du programme Apollo d’exploration lunaire, de 1961 à 1968.
208
L’observation en astrophysique
terrestre (entre 5 et 9 μm par exemple) contiennent des émissions de première importance à observer (spectre des agrégats de carbures aromatiques par exemple). Au-delà de 30 μm, quelques fenêtres d’observation peuvent s’ouvrir dans des sites exceptionnels, comme l’Antarctique, mais seule l’observation spatiale peut fournir des données systématiques et précises. Néanmoins, la concentration des absorbants (principalement H2 O) à basse altitude peut rendre l’usage d’avions ou ballons moins coûteux que l’accès à l’espace profond. Dans les décennies 1980-2000, la richesse des découvertes faites par l’observation infrarouge dans ce vaste domaine spectral fut considérable : l’émission par les objets froids dans les galaxies, mais aussi l’intense rayonnement associé aux étoiles en formation, les spectres des galaxies primordiales décalés vers l’infrarouge par l’expansion cosmique, le rayonnement cosmologique de fond à 2.7 K, et bien d’autres. Cette richesse justifie un effort majeur de préparation d’observatoires spatiaux, couvrant tout ce domaine spectral. L’une des difficultés majeures de ces instruments vient du nécessaire refroidissement des télescopes, qui s’impose pour améliorer la sensibilité en réduisant le signal de fond et le bruit thermique associé (cf. Chap. 9). En avion ou ballon, ce refroidissement reste modeste (−30 à −50 ◦ C) compte tenu de la présence résiduelle d’atmosphère. Il sera poussé le plus loin possible en satellite. Avions. Citons le télescope kao (Kuiper Airborne Observatory), du nom de l’astronome néerlandais G. Kuiper (1906–1973), d’un diamètre de 0.9 m, embarqué sur un avion (États-Unis), qui a fonctionné dans la stratosphère de façon très voisine de celle d’un observatoire au sol. Son successeur à bord d’un Boeing 747SP (collaboration entre la nasa et l’Allemagne, vol en 2008) est le Stratospheric Observatory for Infrared Astronomy (sofia, Fig. 5.9), équipé d’un miroir de 2.5 m et volant à 14 km d’altitude. Ballons. De nombreuses charges utiles embarquées sous ballon stratosphérique ont été construites depuis 1960, atteignant des diamètres de l’ordre du mètre. Parmi ces missions, l’une des plus remarquables est boomerang (nasa et partenaires de nombreux pays, depuis 1998), destinée à l’étude du fond de rayonnement cosmologique (imagerie et polarisation). Le télescope refroidi possède un miroir primaire de 1.3 m , il observe les longueurs d’onde8 comprises entre 1 et 2.1 mm à partir d’un ballon stratosphérique, volant à 42 km d’altitude au-dessus du continent antarctique. Satellites. À bord d’un satellite, le refroidissement passif par rayonnement vers l’espace conduit à des températures voisines de 80–100 K. L’utilisation de fluides cryogéniques ou de réfrigérateurs en circuit fermé permet de refroidir les optiques et détecteurs jusqu’à 10 à 20 K, parfois même beaucoup plus 8 Comme souvent rappelé, la frontière entre domaine infrarouge et submillimétrique d’une part, domaine radiomillimétrique d’autre part, est mal définie. Le domaine de transition, d’une importance cosmologique et astrophysique considérable, compris entre 0.5 et 2 mm environ, sera rattaché d’un côté ou l’autre selon les techniques de détection employées (cf. Chap. 7). Ici, les conditions extrêmes de mesure le rattachent plutôt au premier domaine.
5. Les télescopes
209
Fig. 5.9 – Télescope sofia de 2.5 m, aéroporté sur avion Boeing 747, avec une mise en opérations vers 2008. (Dessin aimablement fourni par le Max Planck Institut für Extraterrestrische Physik.) bas (0.1 K, par réfrigérateurs à dilution), faisant entièrement disparaître la contribution de fond instrumental. Le satellite iras (InfraRed Astronomy Satellite) lancé en 1983 comprenait un télescope de diamètre 0.6 m entièrement refroidi à l’hélium liquide. Le satellite iso (Infrared Space Observatory), 1995-1998, de diamètre identique, était refroidi selon le même principe. L’optique du satellite d’étude cosmologique cobe (COsmic Background Explorer ), lancé en 1992, était également refroidie, pour la première partie de la mission, par une charge d’hélium liquide dont l’évaporation progressive a limité la durée d’utilisation. Présentons ici brièvement trois missions majeures de la période 2000-2020, les deux premières (Spitzer et Herschel) dédiées à des observations galactiques et extragalactiques très diverses, la troisième (Planck) spécifiquement dédiée à l’observation fine du rayonnement cosmologique. • L’observatoire Spitzer9 (mission initialement appelée sirtf) comprend un télescope refroidi de 0.85 m, fonctionnant dans le domaine allant de 3 à 180 μm. Lancé en 2003 par la nasa, il possède une autonomie de cinq années. Ses performances en sensibilité sont supérieures à celles de toutes les missions précédentes (iras, iso). 9 Lyman Spitzer (États-Unis, 1914-1997), un astrophysicien de très grand talent, professeur à Princeton, fut un pionnier dans la compréhension du milieu interstellaire et le premier, dans les années 1950, à proposer la réalisation d’un grand télescope, destiné à l’ultraviolet et qui serait placé dans l’espace. Cette initiative conduisit au télescope Hubble de la nasa.
210
L’observation en astrophysique
• L’observatoire Herschel10 (mission initialement appelée Far InfraRed Space Telescope, first) comprend un télescope refroidi de 3.5 m, destiné aux observations galactiques et extragalactiques entre 60 et 670 μm, pour une durée de vie comprise entre 3 et 4 ans (ase, lancement en 2008). Il sera placé au point de Lagrange L2. Ses instruments focaux associent des techniques de détection propres au domaine infrarouge (photoconducteurs) et d’autres propres au domaine radio (hétérodyne, cf. § 7.5). • L’observatoire Planck11 est destiné principalement à l’étude du rayonnement cosmologique de fond, mais son extrême sensibilité doit lui permettre d’adresser de multiples questions d’astronomie galactique ou extragalactique. Doté d’un télescope refroidi à 20 K et de détecteurs fonctionnant à 0.1 K, couvrant les fréquences 30-860 GH2 dans des champs de 30 à 5 minutes d’angle, cet observatoire, également placé au point L2 , doit fonctionner au moins 21 mois (lancement 2008). L’implantation d’instruments infrarouge ou submillimétrique sur le sol lunaire pourrait utiliser la très basse température de celui-ci (100 K environ au fond des cratères maintenus dans l’ombre des régions polaires) comme source cryogénique de refroidissement des optiques. Elle n’est pas encore sérieusement envisagée (cf. § 2.10).
5.2.4
Les télescopes X (0.1 à 10 keV)
Depuis la découverte en 1962 de la première source X hors du système solaire, l’astronomie X, dépendant presque exclusivement d’instruments placés en orbite, a progressé de façon considérable. En 1978, la mise sur orbite du satellite Einstein (heao-ii) conduisit à de nombreux résultats, et notamment à des images (Fig. 7.25). La figure 5.10 (cahier couleur) donne une idée des progrès réalisés. Télescopes à incidence rasante. Les surfaces métalliques absorbent les X lorsqu’elles sont éclairées sous incidence normale, aussi utilise-t-on l’incidence rasante (≈89◦ ) dans le télescope de Wolter (Fig. 5.11). Deux segments de paraboloïde P et d’hyperboloïde H confocaux forment, après deux réflexions, une image de la source, située à l’infini, au foyer commun. 10 Sir William Herschel (1728-1832), astronome britannique né en Allemagne, fut le premier à démontrer vers 1800 l’existence d’un rayonnement infrarouge au-delà du spectre visible. Extraordinairement doué et fertile, il découvrit la planète Uranus et construisit un très grand nombre de télescopes. 11 Max Planck (1858-1947), l’un des immenses physiciens de la fin du xixe et du xxe siècles. Dans son célèbre article du 14 décembre 1900, il introduit des éléments d’énergie et la constante h qui portera désormais son nom, introductions indispensables à ses yeux pour pouvoir déduire le rayonnement d’un corps noir, connu et mesuré par Wien et Stefan, du principe fondamental de l’irréversibilité thermodynamique. La constante universelle de Planck, h, une des grandeurs les plus fondamentales de la physique microscopique, intervient dans deux grandeurs cosmologiques essentielles : le temps de Planck (tP = G/c5 ) et la longueur de Planck (lP = tP /c).
5. Les télescopes
211
Fig. 5.11 – Vue de profil et de face du télescope X de Wolter : P et H désignent des surfaces paraboloïdales et hyperboloïdales de révolution, dont l’axe commun est pointé en direction de la source. Voir aussi figure 5.12, cahier couleur. Plusieurs miroirs sont imbriqués (en anglais, nested mirrors) pour augmenter la surface de captation de l’onde incidente. Le système est parfaitement stigmatique sur l’axe, ne présente pas d’aberration de sphéricité et remplit la condition d’Abbe (aplanétisme), c’est-à-dire qu’il fournit une image sans aberration de coma pour les rayons paraxiaux. Dans le télescope Einstein, la surface collectrice est de 300 cm2 pour les énergies inférieures à 2 keV et décroît à 50 cm2 à 3.5 keV : seules les parties du miroir présentant l’incidence la plus grande conservent leur efficacité à haute énergie. La qualité d’image, bien inférieure à celle qu’imposerait la diffraction, est limitée par les défauts cristallins des surfaces faisant miroir, défauts qui rompent la périodicité du réseau cristallin et introduisent des erreurs de phase sur la pupille, donc un écart à l’image idéale dans le plan focal (cf. § 6.2). La limite en énergie est progressivement, au milieu des années 1990, portée de 1 vers 100 keV, grâce à l’utilisation de miroirs à dépôts multi-couches qui en augmentent la réflectivité (missions rosat, xmm, axaf). Les techniques d’optique adaptative, nées pour les applications dans l’infrarouge et le visible, sont également applicables à l’imagerie X, cette fois pour corriger les défauts de phase des miroirs eux-mêmes. Au milieu des années 1990, il n’y a pas encore eu d’application astronomique, mais des miroirs correcteurs sont utilisés sur le synchrotron de l’European Synchrotron Research Facility (Grenoble) afin d’améliorer la focalisation des faisceaux. Le tableau 5.3 donne les qualités d’image de quelques télescopes X, mesurées en diamètre de l’image à mi-puissance, en secondes d’angle. L’application des méthodes de synthèse d’ouverture au domaine X est en principe possible, mais elle ne se justifiera que le jour où la résolution des optiques de télescope X sera limitée par la diffraction et qu’il s’agira d’aller plus loin. L’avènement de sources puissantes et géométriquement bien définies de rayonnement X disponibles au laboratoire (rayonnement synchrotron,
212
L’observation en astrophysique
Tab. 5.3 – Qualité d’image des télescopes à rayons X. Observatoire (satellite)
Einstein Exosat* rosat (HRI)* xmm-Newton axaf
Énergie (keV) 0.28 3 – 1 2.5 –
Distance à l’axe optique ( ) 0 5 10 20 θ0 8 10 25 – 20 25 40 – 18 – – 40 3 3 7 26 20 – – – <1 2 5 20
θ0 (en secondes d’angle) est la largeur à mi-hauteur de la fonction d’étalement de point. Pour (*), les qualités d’image sont données en rayon ( ) encerclant 50 % de l’énergie. Voir la table des missions spatiales en fin d’ouvrage pour identifier les satellites et leurs instruments, ainsi que les missions en préparation (2007).
lignes de lumière de l’esrf à Grenoble, cf. Chap. 3) donne depuis la décennie 1990 une impulsion considérable aux techniques optiques en X : miroirs interférentiels, lentilles de Fresnel par transmission, lentilles de Bragg-Fresnel par réflexion, etc. Il s’agit d’une transposition généralisée, à l’échelle du nanomètre, de concepts d’optique très classiques, développés pour le visible ou l’infraouge à l’échelle du micromètre.
5.2.5
Les télescopes γ (≥10 keV)
Les télescopes dans le domaine γ sont particuliers puisque les miroirs, omniprésents aux autres longueurs d’onde, sont difficilement utilisables dans ces domaines d’énergie, et ce pour deux raisons. D’une part l’angle d’incidence rasante, déjà utilisé dans les miroirs X, étant inversement proportionnel à l’énergie des photons, la longueur focale, qui est de l’ordre de 10 m à 20 keV, serait de l’ordre de 500 m à 1 MeV. D’autre part, la dimension des défauts tolérables de surface des miroirs doit être, elle aussi, inversement proportionelle à l’énergie. La première de ces difficultés est en passe d’être résolue par le vol en formation de deux satellites, l’un portant le miroir et l’autre le détecteur. La distance entre les deux satellites, c’est-à-dire la longueur focale, peut alors être arbitrairement grande. C’est le cas du programme de mission francoitalienne simbol-x qui, avec deux satellites séparés de 20 m, ambitionne de fonctionner jusqu’à près de 100 keV avec des miroirs multicouches12 . En 2007, des développements sont en cours pour tenter de réduire la seconde difficulté, avec l’espoir de réaliser des miroirs fonctionnant jusqu’à quelques centaines de keV. Aussi longtemps donc que de tels miroirs demeurent indisponibles, les images dans le domaine γ sont formées en utilisant d’autres principes. Dans le domaine où l’effet photoélectrique domine (cf. Fig. 7.19 et 7.3), on utilise principalement les masques codés. En revanche, dans les domaines 12 Cette
mission est décrite à l’adresse www-dapnia.cea.fr/Phocea/.
5. Les télescopes
213
d’énergie où la diffusion Compton ou la création de paire dominent, c’est la dynamique de chacun de ces effets qui permet d’estimer la direction de chaque photon incident et de former des images. L’effet de paire donne accès à la direction de chaque photon. La diffusion Compton ne permet en général que de localiser chaque événement sur un cercle tracé sur la voûte céleste. Dans ces deux cas, le télescope est confondu avec le récepteur, c’est pourquoi le fonctionnement de ces télescopes particuliers est présenté au chapitre 7. Ici, nous présentons le télescope à masque codé : couplé à un détecteur à absorption photoélectrique, qui ne fournit aucune information sur la direction du photon incident, il forme des images, comme les autres télescopes le font. Toutefois, un miroir classique ne sert pas uniquement à former des images, il concentre aussi le rayonnement et c’est là que l’absence de tels miroirs se fait cruellement sentir dans le domaine γ. Nous rassemblons également ci-dessous d’autres configurations d’observation en γ, telles que lentilles de Bragg ou réseaux de détecteurs placés dans l’espace et spécialement destinés à l’observation des sursauts γ. Une particularité de l’observation γ est la suivante : le télescope sert principalement à déterminer la position aussi exacte que possible, dans le ciel, d’une source généralement non résolue. Cette identification est essentielle pour rechercher la nature physique de la source, et éventuellement son association à un objet (étoile, galaxie) observé à une autre longueur d’onde. L’obtention de cartes d’objets résolus est plus rare, plus difficile aussi par le traitement d’image qu’elle implique. Masques codés Le principe de sténopè, ou camera obscura, est ancien : un trou dans un masque permet de former une image sur un écran ; la résolution est d’autant plus élevée que le trou est petit. La diffraction étant négligeable aux longueurs d’onde X et γ, on n’a pas à craindre qu’elle dégrade la résolution et le trou peut être arbitrairement petit. Cependant la taille du trou va à l’encontre de la sensibilité ; plus celui-ci est petit, moins bonne est la sensibilité. Un masque comportant un grand nombre de petits trous permet d’échapper à ces contraintes contraires. La faible dimension des trous garantit une bonne résolution et leur nombre une bonne sensibilité. L’image est alors une superposition linéaire des images données par chaque trou. Peut-on disposer les trous sur le masque formant la pupille d’entrée de façon que l’objet soit reconstruit sans ambiguïté, à partir d’une mesure de la répartition d’intensité dans l’image ? La réponse est positive et donnée par le concept de masque codé, dont la surface présente une fonction de transparence variable (Fig. 5.13). Soit P le motif du masque utilisé pour moduler le flux d’une source étendue S, la distribution I observée sur le détecteur peut s’écrire par la convolution : I = P S + B,
214
L’observation en astrophysique
Fig. 5.13 – Différentes méthodes de codage. a) Un système optique forme une image de la source. Cette image est décomposée en p × q pixels, elle est explorée par des masques successifs, l’énergie étant focalisée sur un détecteur unique, (i) exploration par un trou, déplacé successivement sur chaque pixel ; (ii) exploration par des masques successifs Mi à transmission sinusoïdale ; (iii) exploration par des masques binaires à répartition aléatoire. b) Sténopè. Un récepteur bidimensionnel reçoit la pseudo-image de la source. c) Pupille à transmission aléatoire, suivie d’un récepteur bidimensionnel.
où B représente le bruit sur le détecteur. Une estimation S de la source S peut être obtenue par application de la fonction de décodage D : S = DP S + DB. La qualité de reconstruction dépend donc du choix de P et D (cf. § 9.6). Il est essentiel qu’en l’absence de bruit, il existe une correspondance biunivoque entre S et S , c’est-à-dire que DP = δ. D’autre part, il est souhaitable que l’effet du bruit apparaisse de façon uniforme dans l’image déconvoluée. Les motifs de masque P , satisfaisant ces deux conditions, sont appelés optimaux. Différents types de motifs optimaux sont présentés par les figures 5.14 et 5.15. On peut montrer que l’efficacité d’un masque codé est optimale lorsque la transmission du masque est d’environ 50 %, mais cet optimum n’est pas critique, toute transparence entre 30 % et 70 % donne d’excellents résultats.
5. Les télescopes
215
Fig. 5.14 – Exemple d’un masque codé, basé sur le principe hura (Hexagonal Uniform Redondant Array).
La sensibilité d’un télescope à masque codé dépend aussi du rapport entre la taille des éléments, ou pavés, du masque tp et la résolution spatiale du détecteur, rs , c’est-à-dire de la capacité du détecteur à échantillonner l’image du masque. En pratique, un rapport tp /rs supérieur à 2-3 garantit une efficacité d’imagerie acceptable. La résolution angulaire d’un télescope à masque codé est directement liée à la taille tp des pavés du masque et à la distance masque-détecteur d par : tp θ = Arctg · d À distance fixée entre masque et détecteur et si l’on impose l’efficacité en imagerie, cette sensibilité est donc directement dépendante de la résolution spatiale du détecteur. Le plus souvent, le motif de base du masque occupe la même surface que le détecteur et le masque est composé par répétition partielle du motif autour d’un motif central complet ; de l’extension de cette répétition dépend le champ de vue du télescope. La sensibilité n’est pas uniforme dans tout le champ de vue, elle est directement liée à la fraction codée, c’est-à-dire à la fraction du détecteur éclairée par un motif de masque (même incomplet). Pour caractériser le champ de vue d’un télescope à masque codé, on peut distinguer trois limites : la limite du codage total, la limite à mi-codage et la limite à codage nul. Si le motif de base n’est pas répété, c’est-à-dire si le masque a la même dimension que le détecteur, le champ totalement codé est nul et le champ à mi-sensibilité sera égal à l’angle solide sous lequel on voit le masque depuis le détecteur.
216
L’observation en astrophysique
Fig. 5.15 – Restitution d’une image par masque codé. En haut à gauche : l’image enregistrée par le télescope γ de l’instrument sigma (mission granat : 1989–1997). En haut à droite : cette image a été corrigée des défauts d’uniformité des pixels. En bas à droite : le motif du masque codé de sigma. En bas à gauche : la déconvolution de l’image du haut à droite fait apparaître la nébuleuse du Crabe mesurée entre 75 et 150 keV.
Dans le télescope français Sigma, placé à bord du satellite soviétique Granat (1989–1997), le masque, de type ura (Uniformly Redundant Array) est formé de 49 × 53 éléments de tungstène de 0.94×0.94×1.5 cm3 . Placé à 2.5 m d’une γ-caméra à scintillation (NaI), il offre un pouvoir séparateur théorique de l’ordre de 13 minutes d’angle. La γ-caméra est formée d’un disque de NaI de 57 cm de diamètre et de 1.2 cm d’épaisseur et de 61 tubes photomultiplicateurs hexagonaux (cf. § 7.6). La position d’une interaction est déterminée par les amplitudes relatives des impulsions fournies par les photomultiplicateurs avec une précision de l’ordre de quelques millimètres. Ce principe de γ-caméra a été développé pour
5. Les télescopes
217
la médecine nucléaire. Cette précision de localisation des événements s’est trouvée dégradée en orbite par l’effet des particules chargées. En effet, le signal déposé par un proton est tel qu’il perturbe les mesures pendant plus de 100 μs, un temps comparable au temps moyen entre deux protons. Les mesures sont donc toujours perturbées.
Nous venons de voir que les masques sont conçus pour que l’effet du bruit soit uniforme dans l’image déconvoluée. Cette conception suppose un bruit uniforme sur le détecteur, ce qui n’est malheureusement jamais le cas. De plus, les pixels d’une image n’ont pas tous la même surface sensible. Il est donc essentiel de corriger ces deux sources d’inhomogénéité du fond avant de pouvoir déconvoluer l’image. La figure 5.15 illustre un tel traitement effectué sur des données issues de la mission sigma. Le télescope imageur ibis à bord du satellite européen Intégral (lancé en 2002), est équipé d’un masque codé de type mura (Modified Uniform Redundant Arrray) de 53 × 53 éléments de tungstène de 1.12 × 1.12 × 1.6 cm3 . Placé à 3.2 m d’un ensemble de deux caméras γ se complétant pour assurer une détection efficace des photons d’énergie comprise entre 15 keV et 10 MeV, ce masque offre un pouvoir séparateur de 12 minutes d’arc. isgri, la première des deux caméras est un instrument de nouvelle génération formé de plus de 16 384 cristaux semi-conducteurs de CdTe de 4 × 4 × 2 mm3 , chacun permettant de détecter des photons dans le domaine allant de 15 keV à 1 MeV avec une résolution de l’ordre de 7 % à 100 keV. La seconde couche est formée de 4 096 cristaux scintillants d’iodure de césium CsI de 9.2 × 9.2 × 30 mm3 dont la lumière est collectée par des photodiodes. De cette manière, le passage d’un proton ne perturbe qu’un pixel d’isgri ou de picsit, et le temps moyen entre deux protons devient supérieur à une seconde. Il faut noter qu’un tel nombre de voies de mesures n’est envisageable qu’en utilisant l’électronique intégrée dédiée (circuits asic) et la compression de données (cf. § 9.1). Une description du traitement des images produites par isgri est donnée au § 9.2.
Lentille de Bragg La diffraction de Bragg (cf. § 8.3) peut en principe s’appliquer au domaine γ. Utilisant une diffraction dans le volume d’un réseau cristallin, elle évacue la difficulté liée à l’état de surface des miroirs. D’autre part, elle requiert une longueur focale moins grande que dans le cas des miroirs (≈ 20 m à 500 keV). Grâce à la focalisation qu’elle produit, elle offre en principe une excellente sensibilité. Une lentille de Bragg peut être formée de petits cristaux (≈ 2 cm) placés sur des cercles concentriques et orientés de façon que les plans cristallins diffractent les photons vers un point focal. Elle se heurte cependant à plusieurs limitations. Deux d’entre elles sont intrinsèques. La condition de diffraction de Bragg entraîne un très faible champ de vue (≈ 35 secondes
218
L’observation en astrophysique
d’angle à E = 500 keV) et une très faible dynamique spectrale (≈ 6 keV à E = 500 keV). Ces limitations peuvent être réduites soit par l’emploi de cristaux dont les atomes ne s’alignent pas parfaitement sur le réseau, soit en utilisant divers types de cristaux ou divers plans cristallins pour la diffraction. Les augmentations du champ et de la dynamique spectrale qui en résultent sont malheureusement obtenues aux dépens de la sensibilité. D’autre part, l’orientation des miroirs doit être ajustée et maintenue avec une très grande précision, de l’ordre de quelques secondes d’angle, ce qui est un défi pour une expérience spatiale qui subit de fortes vibrations lors de son lancement. Télescopes à sursauts γ Un sursaut γ est un flash intense d’émission γ dont la luminosité excède en général celle de toutes les autres sources du ciel. Certains sont liés à des explosions de supernovae. N’importe quel télescope γ peut, bien sûr, détecter un sursaut se produisant dans son champ de vue, car les sursauts sont en effet extrêmement brillants en regard de la sensibilité des instruments. Cependant, en cinq années de fonctionnement par exemple, le télescope Sigma (années 1990) n’a pas eu la chance d’en détecter un seul dans le champ de vue, même partiellement codé, de son masque. Cela tient principalement à la faible fréquence d’apparition de ces événements, en moyenne un par jour dans tout le ciel. Très clairement, la première exigence pour un télescope à sursauts γ est d’observer tout le ciel à tout instant. L’instrument bat (Burst Alert Telescope) à bord du satellite swift (lancé en 2004 et dédié à l’observation des sursauts γ) s’approche de ce but. C’est un télescope à masque codé, similaire à sigma ou ibis, mais il offre un champ de vue de 2 stéradians, permettant la détection et la localisation précise d’une centaine de sursauts chaque année. Précédant l’avènement de ces télescopes performants en imagerie, d’autres techniques de localisation des sursauts ont été utilisées. Bien que n’utilisant pas une méthode d’imagerie stricto sensu, ces télescopes sont présentés ici car leur moyens de localisation ne reposent pas sur une mesure de la direction de chaque photon comme dans le cas des télescopes Compton, à création de paire ou Čerenkov qui sont présentés § 7.6. Réseau de satellites. Un réseau de satellites équipés de détecteurs peut servir de « télescope à sursauts » si chacun est capable de dater chaque événement avec une grande précision (≈ la milliseconde). À partir de la connaissance de la position de chacun des satellites et des instants auxquels leurs détecteurs sont déclenchés par le photon γ, on peut retrouver la position de la source (le sursauteur ). La précision de cette méthode, appelée localisation par triangulation, dépend du nombre de satellites utilisés, de leurs distances et orientations relatives. C’est une méthode relativement ancienne mais qui a fourni, dès 1995, les positions les plus précises de ces sources. Télescope pondérateur. C’est un système extrêmement simple, n’utilisant que des détecteurs orientés dans toutes les directions. Il est fondé sur l’idée
5. Les télescopes
219
qu’un sursaut est la source γ la plus brillante du ciel à cet instant, c’est-à-dire que le taux de comptage de tous les détecteurs pendant le sursaut ne dépend que de leur orientation par rapport à la source (le sursauteur). Schématiquement, la direction du sursauteur est estimée en pondérant la direction de visée de chaque détecteur par son taux de comptage. Le télescope batse, à bord de l’observatoire spatial Compton (1991–2000), a été le premier télescope de ce type.
This page intentionally left blank
Chapitre 6 Formation des images et diffraction Dans le chapitre qui précède, nous avons présenté les télescopes comme des dispositifs optiques capables de former des images, dont rend compte l’optique géométrique, tout au moins au premier ordre de la répartition d’intensité lumineuse. Le caractère ondulatoire du rayonnement électromagnétique introduit des phénomènes de diffraction qui vont modifier cette répartition, et introduire une limitation fondamentale à la résolution angulaire des télescopes. L’objectif des astronomes étant d’obtenir des images contenant toujours davantage de détails, il est essentiel de prendre la mesure de ces effets, dont l’amplitude est directement liée à la longueur d’onde du rayonnement considéré. À partir de la notion de cohérence, traitée au chapitre 3 (§ 3.2), nous développons donc d’abord le processus par lequel se forment les images en présence de diffraction, et sa traduction en terme de filtrage fréquentiel spatial. Améliorer la résolution angulaire des observations vise plusieurs buts. Le plus évident est de voir les détails d’un objet : surface des planètes, granulation solaire, disques circumstellaires, diamètre des étoiles, etc. Le deuxième, essentiel, est d’éviter la confusion. La lunette de Galilée lui avait permis de résoudre l’apparence, laiteuse pour l’œil, de la Voie lactée en étoiles. La synthèse d’ouverture aux radiofréquences permit, dans les années 1950, d’identifier individuellement les radiogalaxies. Le rayonnement du fond du ciel, aux longueurs d’onde X, fut découvert dès les premières observations du ciel en rayons X, à partir de 19621. Il fallut attendre l’observatoire spatial Chandra, quarante années plus tard, pour que ce fond soit résolu en sources individuelles, à savoir des noyaux actifs de galaxies. Aujourd’hui, discerner aux longueurs d’onde submillimétriques, dans le rayonnement extragalactique de fond, les galaxies 1 Riccardo Giacconi, né en 1931, physicien et astronome italien, naturalisé aux ÉtatsUnis, lança les premières fusées-sondes qui découvrirent ce rayonnement. Pour ces travaux, il partagea en 2002 le prix Nobel de physique avec Raymond Davis Jr. et Masatoshi Koshiba.
222
L’observation en astrophysique
individuelles primordiales est un des objectifs de la mission spatiale Planck (cf. § 7.4.10). Ayant constaté que la propriété de cohérence de la lumière était étroitement liée au processus de formation des images, et à la qualité de celles-ci, c’est tout naturellement que nous abordons les phénomènes de perte de cohérence résultant du parcours de la lumière dans des milieux inhomogènes, et particulièrement dans l’atmosphère terrestre, ainsi que leurs effets délétères sur les images astronomiques (le « seeing »). Nous développons à ce propos un formalisme commode, qui permet de traiter de la généralité des cas de perte de cohérence. La découverte récente (années 1980) de moyens de lutte contre ces effets par l’optique adaptative mérite d’être exposée, tant elle contribue à de multiples découvertes, et surtout au développement présent et futur de très grands télescopes optiques à la surface de la Terre. La maîtrise de cet outil permet d’introduire la méthode par laquelle les astronomes du xxe siècle, dans la lignée des idées de Fizeau2 et de Michelson3 ont pu augmenter à volonté la résolution angulaire de leurs instruments en construisant des réseaux de télescopes, encore appelés interféromètres, capables de reconstituer par synthèse d’ouverture des images possédant une très haute résolution angulaire, de plusieurs ordres de grandeur supérieure à celle (λ/D) donnée par un télescope de diamètre D, dont on a vu qu’il ne saurait dépasser quelques dizaines à quelques centaines de mètres. Comme nous l’avons fait pour les télescopes, nous déclinons la mise en œuvre de cette méthode en parcourant le spectre électromagnétique, depuis les radiofréquences jusqu’au rayonnement X. Toutefois, les méthodes d’imagerie du rayonnement γ étant étroitement liées à celles de détection et d’analyse spectrale, nous traitons de l’imagerie γ dans le chapitre 7 (détecteurs). La dernière section aborde la coronographie qui, à l’aide de méthodes d’apodisation, permet d’observer dans de bonnes conditions des images à très grande dynamique, c’est-à-dire possédant des écarts d’éclairement considérables (de 103 à 1010 ). Traditionnellement utilisée pour l’étude de la couronne solaire, la coronographie connaît un renouveau considérable à propos de la détection des planètes extrasolaires, objets faibles difficiles à observer directement, car ils sont noyés dans le rayonnement de leur étoile dont ils sont très proches. Nous renvoyons au chapitre 9, consacré au traitement du signal, l’ensemble considérable des questions relatives au traitement numérique des images, un 2 Armand Hippolyte Fizeau (1819-1896) fait partie de ces grands physiciens français du xixe siècle, qui ont révélé toute la puissance du modèle ondulatoire de la lumière. Outre son article de 1868, qui fonda toute l’interférométrie astronomique, il est également célèbre pour sa mesure de la vitesse de la lumière, et pour l’effet de décalage spectral dont il partage la paternité de la découverte avec Doppler. 3 Albert Abraham Michelson, physicien (États-Unis, 1852-1931), génial expérimentateur, qui mit notamment au point l’interféromètre portant son nom, utilisé en spectroscopie (cf. § 8.3).
6. Formation des images et diffraction
223
domaine qui connaît un développement important avec les progrès de l’informatique.
6.1
La diffraction d’une ouverture quelconque
Nous traitons ici le cas le plus général de la diffraction d’une onde lumineuse par une ouverture quelconque. Ayant présenté l’outil mathématique de base, simple mais puissant, qui permet de traiter la diversité des cas physiques rencontrés, nous développons les concepts de cohérence du rayonnement, fondamentaux pour la compréhension de la formation des images.
6.1.1
Le théorème de Zernike
Revenons ici au rayonnement quasi monochromatique introduit au chapitre 3. Nous avons déjà montré qu’il pouvait être considéré comme cohérent sur une longueur de cohérence lc le long du vecteur d’onde k. Tentons de répondre de façon assez grossière à la question suivante : si ce rayonnement illumine une surface étendue avec des orientations diverses du vecteur d’onde, sur quelle surface et dans quelles directions peut-il être néanmoins considéré comme cohérent ? La figure 6.1 montre qu’un écart spatial a, normal à k et associé à un écart angulaire θ avec k, est acceptable à condition que : aθ ∼ λ. L’étendue de faisceau associée, produit de la surface du faisceau par son angle solide, est donc : ω a2 θ2 λ2 .
Fig. 6.1 – Cohérence d’un faisceau d’étendue finie. Cette quantité λ2 est appelée étendue de cohérence du rayonnement quasi monochromatique de longueur λ (l’indice λ0 étant omis dans ce qui suit pour alléger). C’est à un exposé plus rigoureux de cette démonstration que nous consacrons cette section. Soit une source de surface As , limitée par son contour (Fig. 6.2), illuminant un écran. Les points de la source sont supposés émettre un rayonnement quasi
224
L’observation en astrophysique
monochromatique ; deux points de la source (atomes), distants d’une quantité très petite devant λ, sont supposés mutuellement incohérents. Déterminons, en deux points de l’écran 1 et 2, la quantité mesurant la corrélation des champs électriques, notés au point r i par V(r i , t) = Vi (t) et l’exposant ∗ désignant le complexe conjugué :
V1 (t)V2∗ (t) .
Fig. 6.2 – Cohérence du champ sur un écran illuminé par une source. Décomposant As en éléments dσm de dimension petite devant λ, distants de Rm1 et Rm2 des points 1 et 2, il vient :
V1 (t)V2∗ (t) =
m
Vm1 (t)
Vj∗2 (t)
=
j
m
∗
Vm1 (t)Vm (t) + 2
Vm1 (t)Vj∗2 (t),
m j=m
Vm1 représentant la contribution à V1 de l’élément dσm . Le second terme est nul en moyenne. Le champ complexe Vm (t) est donné par : R exp −2πjν0 t − m Rm c Vm (t) = Am t − , c Rm où |Am | désignera l’amplitude et arg Am la phase caractérisant l’émission de dσm . Par homogénéité, Am est un vecteur complexe. Pour alléger l’écriture dans tout ce qui suit, la notation vectorielle est omise et sous-entendue par l’écriture Am .
6. Formation des images et diffraction
225
Il vient alors : ∗ (t)
Vm1 (t)Vm 2
=
Am1 (t)A∗m2
Rm2 − Rm1 t− c
ν0 exp 2πj (Rm1 − Rm2 ) c , × Rm1 Rm2
et, en tenant compte de la stationnarité de V , Rm2 − Rm1 Rm1 Rm2 ∗ Am1 (t)Am2 t − = Am1 t − Am2 t − . c c c Si
Rm1 −Rm2 c
τc (condition de cohérence temporelle), alors :
V1 (t)V2∗ (t) =
m
ν0 (R − R ) exp 2πj m m 1 2 c Am1 (t)A∗m2 (t) · Rm1 Rm2
Caractérisons l’intensité en dσm par : I(rm ) dσm = Am (t)A∗m (t) . On peut écrire :
V1 (t)V2∗ (t)
=
I(r) source A
ejk(R1 −R2 ) dr, R1 R2
k=
2πν0 , c
où r désigne le point courant de la source A, distant de R1 et R2 des points 1 et 2. Le degré complexe de cohérence s’écrit : γ12 (0) =
1 !1/2 |V1 |2 |V2 |2
I(r) source
ejk(R1 −R2 ) dr. R1 R2
Ce résultat est le théorème de Zernike et van Cittert4 . Cas particulier : distance grande entre source et écran. L’expression du théorème devient alors très simple. Utilisant les notations de la figure 6.2, r(x, y), P1 (X1 , Y1 ), P2 (X2 , Y2 ) et ne conservant que les termes du premier ordre, avec R1 ≈ R2 ≈ R : 2 X1 + Y12 − X22 + Y22 (X1 − X2 ) x + (Y1 − Y2 ) y ± , R1 − R2 = 2R R 4 Frederik Zernike (1888-1966), physicien néerlandais, prix Nobel de physique 1953, inventeur du microscope à contraste de phase. Van Cittert, mathématicien néerlandais, proposa également ce théorème en 1931.
226 γ12 (0) = exp jk
L’observation en astrophysique 1/2 2 X1 + Y12 − X22 + Y22 Y1 − Y2 X1 − X2 x+ y dx dy I(x, y) exp jk R R · × I(x, y) dx dy
Faisons apparaître les variables angulaires, supposées petites : x y = α, = β, θ = (α, β), R R caractérisant la source vue depuis l’écran, et les variables réduites conjuguées de la transformée de Fourier, faisant intervenir la longueur d’onde, on peut écrire l’expression simplifiée du théorème : " #
X2 − X1 Y2 − Y1
I(θ) exp −2πj α+ β dθ
λ λ
· |γ12 (0)| =
I(θ) dθ
Le théorème de Zernike-Van Cittert s’énonce alors : Théorème. Si les dimensions linéaires de la source du rayonnement quasi monochromatique ainsi que la distance entre les deux points considérés de l’écran sont petites devant la distance source-écran, le module du degré complexe de cohérence est égal au module de la transformée de Fourier spatiale de l’intensité de la source, normalisée à l’intensité totale de la source. Cas particulier : source circulaire. Considérons une source circulaire, de rayon r0 , de brillance uniforme, illuminant un écran. Calculons le degré complexe de cohérence γ12 (0), P1 étant au centre de l’écran, P2 à la distance ρ du centre. Il vient, J1 désignant la fonction de Bessel de première espèce : θ r r0 =Π , θ0 = , I(θ) = Π 2r0 2θ0 R % $
J 2πθ ρ
0
1 λ
= 2 |J1 (u) | · |γ12 (0) | = |γ(ρ, 0) | =
ρ
u
πθ0 λ La figure 6.3 donne le module |γ| du degré de cohérence obtenu entre le centre de l’écran et un point quelconque de celui-ci, distant de ρ. La différence de phase est ignorée, mais ceci est sans importance tant que l’on a τ τc . La cohérence, unité à l’origine par définition, décroît en oscillant lorsque la distance entre les deux points augmente.
6. Formation des images et diffraction
227
Fig. 6.3 – Cohérence du champ produit par une source circulaire de rayon θ0 .
6.1.2
L’étendue de cohérence
Dans le cas d’une source ponctuelle à l’infini, r0 /R → 0, γ → 1 sur tout l’écran, qui est donc, dans ce cas limite, éclairé par une onde plane quasi monochromatique. Si la source a une dimension angulaire finie de rayon θ0 , elle est vue depuis l’écran sous l’angle solide Ω, et une surface S = πρ2 de l’écran correspond à une étendue de faisceau ε donnée par l’expression : ε = SΩ = πρ2 πθ02 =
λ2 2 u . 4
Choisissant arbitrairement u = 2, soit :
γ ρ = λ = 2 J1 (2) = 0.577
πθ0
2 on énonce que la cohérence sur l’écran reste appréciable (|γ| > 0.577) dans l’étendue de faisceau : ε = λ2 . C’est donc un énoncé quantitatif de la démonstration plus intuitive donnée plus haut et qui s’exprime par ce résultat fondamental : L’étendue de cohérence d’un rayonnement quasi monochromatique est égale à λ2 . Cohérence du rayonnement reçu d’une étoile. Soit une étoile géante rouge, de rayon r0 = 1.5 × 1011 m, située à 10 pc (1 pc = 3 × 1016 m). On a θ0 = 5 × 10−7 rd = 0.1 arc sec. Si l’étoile est observée à λ = 0.5 μm, la valeur de ρ, rayon de cohérence sur un écran placé sur Terre normalement au faisceau incident, est de : ρ=
λ = 32 cm. πθ0
228
L’observation en astrophysique
Dans l’infrarouge, à λ = 25 μm, le rayon ρ est multiplié par 50 ! Cette remarque sera mise à profit ultérieurement. Le rayonnement reçu est donc cohérent, au sens ci-dessus, dans un cercle de rayon ρ(λ). Ceci n’est évidemment plus exact si l’on compare les rayonnements en deux points intérieurs à ce cercle à des instants différents de Δt, tel que Δt τc = 1/Δν. La surface de l’étoile joue ici le rôle de la source plane. Le fait que l’étoile soit sphérique modifie simplement la phase des éléments dσm , ce qui est sans influence sur le résultat. Réception des radiofréquences. Un récepteur de radiofréquences superpose les champs émis par différents points de la source (Ω) et reçus en différents points (S). Cette superposition ne se fait de façon cohérente – produisant une interférence constructive et donc un champ d’amplitude significative – que lorsque SΩ λ2 .
6.1.3
La diffraction à l’infini
L’onde étant reçue à la surface de l’écran considéré, nous examinons maintenant quelle est la perturbation qu’apporte le fait de ne prélever de la surface d’onde qu’une portion de dimension finie, pour l’analyser dans un système de réception. Ceci est en effet ce qui se produit à l’entrée d’un télescope, lorsque l’onde incidente (plane en général) rencontre le miroir primaire, et que ce miroir la tronque en la réfléchissant. Diffraction de Fraunhofer5 Soit une onde purement monochromatique, issue de P0 (Fig. 6.4), reçue en P1 , après diffraction par l’écran A. Un calcul très semblable au précédent6 permet d’écrire la relation de Fresnel7 -Kirchoff8 , donnant l’amplitude complexe du champ en P1 , les notations étant précisées sur la figure : j 2πjνt e V1 (t) = 2λ
A(r)ejϕ(r)
ejk(q+s) [cos (n, q) − cos (n, s)] dr, qs
où A(r) est le champ sur l’écran, que l’on peut supposer constant. ϕ(r) est l’éventuel déphasage créé par l’écran (écran dit de phase). On a généralement ϕ = 0. 5 Joseph-Franz Fraunhofer (1727-1826), opticien allemand qui mit au point le spectroscope. Cet instrument lui permit d’étudier le spectre du Soleil et d’y découvrir les raies d’absorption qui portent son nom. 6 On trouve dans Born M. et Wolf E., Principles of Optics, Pergamon, (1980) les démonstrations détaillées des résultats énoncés ici. Voir aussi Françon M., Optique, ainsi que Hecht, E. Optique, Pearson, (2005). 7 Augustin Fresnel (1788-1827), physicien français, fondateur de l’optique ondulatoire. 8 Gustav Kirchhoff (1824-1887), physicien allemand, fondateur de l’analyse spectrale en astronomie.
6. Formation des images et diffraction
229
Fig. 6.4 – Diffraction de Fraunhofer. On appelle diffraction de Fresnel la diffraction observée à distance finie de l’objet diffractant et diffraction de Fraunhofer la diffraction à distance infinie.
Considérons la diffraction à l’infini, où les dimensions linéaires de l’écran sont petites devant (q, s). Appelant δ l’angle entre P0 P1 et la normale à l’écran, θ0 ( xq0 , yq0 ), θ1 ( xs1 , ys1 ), r(x, y), il vient : $ ejks r % dr V1 (t) = −j cos δ λ2 e2πjν0 t G(r)A(r) exp −2 πj θ1 · , s λ λ2 où G(r) désigne une fonction pupille, telle que : G(r) = 1 sur A, G(r) = 0 à l’extérieur de A. Cette notion de fonction pupille est précieuse par sa généralité. Si la pupille introduisait au point r un déphasage ϕ(r), il suffirait d’écrire la fonction G sous la forme G(r) = ejϕ(r) dans A. Cette propriété est utilisée dans l’apodisation d’une pupille (cf. § 6.6). La conservation de l’énergie E issue de P0 et traversant A implique : 2 |V1 (t)| dθ1 = E, tandis que le théorème de Parseval s’écrit, en introduisant la quantité C : ejks 2 2πjν0 t 2 2 2 dr 2 |G(r)| 2 = |C| A, A |V1 (t)| dθ1 = |C| j cos δ λ e s λ A désignant l’aire de l’ouverture ; le résultat final s’écrit : 1/2 E r dr G(r) exp −2πj(θ1 − θ0 ) · · V1 (t) = A λ λ2 plan écran
230
L’observation en astrophysique
Cette équation, qui fonde ce qui suit, est le résultat fondamental de la diffraction à l’infini et s’énonce : Lorsqu’un écran est éclairé par une source à l’infini, l’amplitude du champ diffracté dans une direction est la transformée de Fourier de la fonction pupille caractérisant l’écran, les variables conjuguées étant la direction angulaire et les coordonnées réduites r/λ sur l’écran. Remarque. Si l’on dispose derrière l’écran une lentille sans aberrations, tous les rayons de même θ1 convergent en un même point du plan focal de la lentille : la transformée de Fourier est ramenée à distance finie dans ce plan focal. Il est évidemment plus commode et plus fréquent d’observer les images ou de les mesurer dans un plan situé à distance finie. Relation objet-image Considérons un objet à l’infini formé d’un ensemble de points sources P0 , émettant un rayonnement quasi monochromatique et éclairant un écran (Fig. 6.5). Un contour (C) y définit la zone de l’écran, appelée pupille, laissant passer l’onde. Un point de l’image est caractérisé par une direction θ ou, si une lentille de focale f supposée parfaite (i.e. sans aberration) forme cette image dans son plan focal, par une position R = f θ dans ce plan image. En optique géométrique élémentaire, il y a correspondance biunivoque entre les points de l’objet et ceux de l’image, d’où le nom de cette dernière.
Fig. 6.5 – Relation objet-image. Appelons K(θ0 ; θ1 ) la transmission du système, c’est-à-dire l’amplitude complexe, ramenée à l’unité d’angle solide autour de θ1 , obtenue dans l’image pour une amplitude unité, de phase nulle, au point θ 0 de l’objet. Nous désignerons par V l’amplitude complexe du champ, ignorant la dépendance temporelle pour alléger l’écriture. Source cohérente. Soit d’abord un objet ponctuel au point θ0 alors : V (θ 1 ) = K(θ0 ; θ1 )
avec V (θ 0 ) = δ(θ 0 − θ 0 ).
6. Formation des images et diffraction
231
K(θ0 ; θ1 ) est donc la réponse impulsionnelle complexe du système, et l’éclairement de l’image est : 2 2 |V (θ1 )| = |K| . Si le système optique conjuguant plan objet et plan image est parfait, on a : K(θ0 ; θ 1 ) = K(θ1 − θ0 ), et l’image d’une source hors axe se déduit par translation de l’image d’une source sur l’axe (isoplanétisme). Même avec un système imparfait, mais raisonnablement corrigé des aberrations géométriques, cette condition est généralement satisfaite dans un petit voisinage d’un point (domaine d’isoplanétisme), auquel nous pouvons nous limiter. L’image d’un objet étendu s’obtient par superposition linéaire : V (θ1 ) = V0 (θ 0 )K(θ1 − θ0 ) dθ0 , objet
où V0 désigne l’amplitude complexe émise par le point θ0 de l’objet, et l’expression obtenue pour la diffraction à l’infini conduit à : V (θ 1 ) = V0 (θ 0 )K(θ1 − θ0 )dθ0 , $ r % dr K(θ) = G(r) exp −2πj · θ 2 , λ λ où G(r) désigne la fonction pupille. Cette équation de convolution amène à passer dans l’espace de Fourier où la variable est alors la fréquence spatiale w, en posant : V&0 (w) = V0 (θ 0 )e−2πjθ0 ·w dθ0 , objet
et de même :
V& (w) = TF [V (θ 1 )] ,
& = TF [K] . K
L’équation de convolution devient alors : & = V&0 G. V& = V&0 K & est la fonction de transfert de modulation (ftm) de La quantité complexe K l’amplitude en éclairage cohérent. Que désigne la variable w ? Cette variable sans dimension est conjuguée de la variable angulaire θ (rd). w peut donc s’exprimer en rd−1 et être considérée comme une fréquence spatiale. L’amplitude de V&0 (w) traduit l’importance de la composante de fréquence w dans l’objet, tandis que la phase de V&0 (w) traduit la position, en translation, de cette composante dans l’image.
232
L’observation en astrophysique
La relation exprime simplement que l’amplitude complexe d’une composante de Fourier de l’image se déduit de celle de l’objet par multiplication par & qui agit donc comme un filtre spatial. le filtre K, Notons enfin que K est elle-même la transformée de Fourier de la fonction pupille, exprimée en coordonnées réduites r/λ. La figure 6.6 résume ces notions sur un exemple.
Fig. 6.6 – Fréquences spatiales d’une grille. La grille, de transmission sinusoïdale G(r), est éclairée par une onde plane monochromatique. Sa figure de diffraction à l’infini est ramenée dans le plan focal d’une lentille. Cette figure se résume à trois pics de Dirac, autocorrélation de la transformée de Fourier de G(r), convolués par la réponse impulsionnelle associée à l’extension finie de la lentille.
Source incohérente. Ce cas est évidemment le plus fréquent, puisque les sources étendues de rayonnement en astrophysique, qu’elles soient thermiques ou non thermiques, ne présentent généralement pas de cohérence spatiale à grande échelle. La méthode reste semblable, à ceci près qu’on additionne les intensités au lieu d’additionner les amplitudes, et dans le cas isoplanétique, il vient : 2 I(θ 1 ) = I0 (θ 0 ) |K(θ1 − θ 0 )| dθ 0 . objet
Avec les mêmes notations pour les transformées de Fourier (Appendice I), il vient : & & I(w) = I&0 (w)H(w), & avec I(w) et I&0 (w) transformées de Fourier de l’éclairement de l’image et de la luminance de l’objet, et l’opérateur désignant la convolution : ! 2 & H(w) = TF |K| = TF {KK ∗ } = G(λw)G∗ (−λw). Le résultat obtenu permet donc de déduire l’éclairement de l’image à partir de la structure de l’objet et de celle de la pupille, lorsque seule intervient la diffraction.
6. Formation des images et diffraction
6.1.4
233
Le filtrage spatial d’une pupille
L’intensité dans l’image présente un spectre de fréquences spatiales qui se déduit de celui de l’objet par une transformation ou filtrage linéaire, le filtre ne dépendant que de la fonction pupille (complexe dans le cas général) G(r/λ), exprimée en fonction de la variable spatiale réduite w = r/λ. Fonction de transfert de modulation La diffraction par une pupille de dimension finie crée donc un filtrage spatial de l’objet. Dans le cas particulier (et fréquent) d’une pupille présentant une symétrie centrale, l’autoconvolution est identique à l’autocorrélation et l’on peut écrire : dr & H(w) = G (λw + r) G∗ (r) 2 · λ plan pupille En normalisant à l’aire de la pupille, dans les mêmes unités, il vient : T&(w) =
& H(w) G(r) G∗ (r)
dr λ2
·
La fonction T&(w) est appelée fonction de transfert de modulation en intensité du système considéré. On la désignera souvent par ftm (Modulation Transfert Function ou mtf en anglais), l’ambiguïté avec la ftm en amplitude étant à lever par le contexte. Le plan des fréquences spatiales w(u, v) est souvent appelé plan (u, v) La fonction |K|2 = H(θ) est appelée fonction d’appareil ou réponse impulsionnelle du système, ou encore fonction d’étalement de point (fep). H(θ) dépend évidemment de la forme de la pupille. Des lobes latéraux, plus ou moins importants, peuvent exister, diminuant la concentration d’énergie dans le noyau central de l’image. Une approximation fréquente lorsque H(θ) est suffisamment compacte et présente la symétrie circulaire, consiste à la caractériser par une largeur à mi-hauteur, ou largeur à mi-puissance Δθ du faisceau (en anglais, Half Power Beam Width ou hpbw), ce qui fournit un ordre de grandeur de la résolution angulaire. Exemple. En revenant au schéma de la figure 6.6, si la modulation de la grille de G est limitée à une pupille de largeur finie a (pupille-fente), il vient : $x% $x% G(r) = Π , GG∗ = Λ , r = (x, y), a a $ u% T&(w) = Λ λ , w = (u, v), a $a % H(θ) = sin c2 θx . λ
234
L’observation en astrophysique
Échantillonnage d’une image Une conséquence très importante du théorème de filtrage que nous venons d’établir est la suivante : puisque les pupilles physiques ont toujours des dimensions finies dans le plan pupille, la fonction T sera nécessairement à support borné. Dans chaque direction du plan w existe une fréquence de coupure wc = (u2c + νc2 )1/2 . La pupille agit comme un filtre passe-bas sur les fréquences spatiales de l’objet. La coupure wc est, à dimensions physiques égales, d’autant plus basse en fréquence que la longueur d’onde est élevée. Puisque la TF de I(θ) est à support borné, I(θ) sera complètement déterminée par un échantillonnage discret du plan θ. Si wc est la plus grande fréquence spatiale contenue dans I(θ), le théorème de Shannon (cf. § 9.1) indique que I peut être échantillonnée avec un pas au moins égal à Δθ = 1/2wc . Ceci ne signifie pas que le support de I(θ) soit borné. Néanmoins, dans la pratique, I0 (θ) est à support borné, I(θ) l’est aussi, et un nombre discret et fini de points d’échantillonnage suffit. Remarque. Si I(w) ne contient pas d’information sur l’objet pour w > wc , elle peut néanmoins contenir du bruit à des fréquences supérieures à wc : la granularité d’une plaque photographique n’a aucune raison d’avoir la même fréquence de coupure que l’optique qui forme l’image sur cette plaque. Pupille circulaire Le rôle des pupilles circulaires en astronomie est suffisamment marquant pour le décrire. Soit r0 le rayon de la pupille, utilisée en lumière quasi monochromatique de longueur d’onde λ. On a : r G(r) = Π , 2r0 Il s’agit d’une pupille symétrique, la ftm est réelle, autoconvolution et autocorrélation sont identiques et : 1/2 r r r2 2 2 G(r)G(r) = πr0 Arccos · − 1− 2 π 2r0 r0 4r0 La ftm s’écrit : 2 2 1/2 λw λ 2 w λw Arccos , − 1− T&(w) = π 2r0 r0 4 r02 et est représentée à la figure 6.7. On note la fréquence de coupure wc = 2r0 /λ, la symétrie circulaire et l’atténuation progressive avec la fréquence croissante. La réponse impulsionnelle est la distribution d’intensité produite dans l’image lorsque la pupille est éclairée par une source ponctuelle, J1 désignant
6. Formation des images et diffraction
235
Fig. 6.7 – Fonction de transfert de modulation d’une pupille circulaire (Airy). On a utilisé la variable réduite u = 2πr0 θ/λ. la fonction de Bessel de première espèce : I0 (θ) = δ(θ), $ r % ⎤2 ⎡ 0 2J1 2π θ λ ⎦ · I1 (θ) = ⎣ r0 2π θ λ Cette fonction est souvent appelée fonction d’Airy 9 , elle montre des anneaux successifs. Un télescope de 6 m de diamètre utilisé à λ = 0.5 μm présente une coupure à wc = 60 arc sec−1, tandis qu’un radiotélescope de 100 m de diamètre utilisé à λ = 18 cm (raie du radical OH) coupera les fréquences spatiales au-delà de la fréquence bien plus basse wc = 3 × 10−3 arc sec−1. La plupart des montages de télescopes comprennent une pupille de diamètre D partiellement masquée par une obstruction centrale due au miroir secondaire de diamètre D . La fonction pupille s’écrit alors : G(r) = 0
pour
G(r) = 1
pour
D D et r > , 2 2 D D , · r∈ 2 2
r<
Il est aisé de calculer alors les nouvelles expressions de la ftm et de la réponse impulsionnelle.
Critère de résolution de Rayleigh10 . L’image de deux sources ponctuelles identiques distantes de θ est formée de la superposition incohérente de deux 9 Sir
George Biddell Airy (1801-1892), astronome et physicien britannique. Strutt (baron Rayleigh, 1842-1919), prix Nobel de physique 1904 pour sa découverte de l’argon. 10 John
236
L’observation en astrophysique
fonctions d’Airy identiques. On fixe arbitrairement la limite à laquelle les deux sources sont séparées ou résolues lorsque : θ > θ0 = 0.61
λ , r0
valeur pour laquelle le maximum de l’une coïncide avec le premier zéro de l’autre. Cette valeur angulaire est souvent utilisée pour caractériser le pouvoir de résolution spatiale ou pouvoir séparateur d’une pupille. Il s’agit d’un critère moins fin que la donnée de la ftm. Dans certains cas, il est possible de résoudre deux sources ponctuelles plus proches que θ0 . En effet, si l’on sait a priori avoir affaire à deux objets non résolus, par exemple, les deux compagnons d’une étoile double, et que la mesure est faite avec un excellent rapport signal-à-bruit (100), alors le profil I1 (θ) différera de façon mesurable du profil que donnerait une source unique, même si la séparation des compagnons est inférieure à θ0 . Cette remarque illustre l’intérêt d’une connaissance a priori de certaines propriétés de l’objet, utilisées lors de la reconstruction de celui-ci à partir de l’image (cf. § 9.6). Apodisation. Il est possible de modifier la distribution d’intensité dans la réponse impulsionnelle en jouant sur la fonction pupille G(r) dont elle découle directement. Si l’on remplace G(r), dans la région où elle vaut l’unité, par une transmission complexe exp jϕ(r), qui ne modifie pas l’amplitude mais introduit seulement un déphasage dépendant du point r (écran de phase), il est possible, par un choix judicieux de la fonction ϕ(r), de réduire significativement les lobes secondaires de la fep (« pieds » de diffraction) : ceci se paie naturellement par un élargissement du lobe central, l’énergie devant être conservée. Une telle opération porte le nom d’apodisation (cf. Exercice 6.1), traitée plus en détail en 6.6. Vue d’ensemble de la diffraction pupillaire Le tableau 6.1 résume les différentes correspondances de Fourier entre grandeurs liées à la formation d’image. Occultations lunaires. Il existe un cas intéressant de diffraction, conduisant à une résolution angulaire élevée et n’étant pas liée à la taille du télescope : il s’agit du phénomène d’occultation d’une source astronomique par le bord lunaire, lorsque le mouvement propre de la Lune conduit celle-ci à passer devant cette source. Si la source est ponctuelle, l’onde monochromatique, diffractée à l’infini, produit des franges (franges de bord d’écran), observables comme une variation de l’intensité Io (t) reçue au cours du temps par un télescope. Si la source est étendue, I(t) résulte du produit de convolution de Io (t) par le profil angulaire de la source (intégré dans la direction parallèle au bord), dans
6. Formation des images et diffraction
237
Tab. 6.1 – Grandeurs liées à la formation de l’image. Objet O(θ) Image I(θ) Fonction d’étalement de point fep(θ) I(θ) = O(θ)fep(θ)
fep(θ)
& Spectre spatial O(w) & Spectre spatial I(w) Fonction de transfert de modulation ftm(w) & & I(w) = O(w) · ftm(w) Pupille G(r) [unités spatiales] Pupille G(λw) [unités de fréquence spatiale] Autoconvolution G(λw)G(–λw) [pupille non centro-symétrique] Autocorrélation G(λw) ⊗ G(λw) [pupille centro-symétrique] ftm(w) Autoconvolution normalisée
(Les éléments des colonnes de droite et de gauche forment des paires de Fourier.)
la direction normale au bord lunaire (la dépendance temporelle étant restituée par la vitesse de balayage de la Lune). On voit que la méthode permet de restituer ce profil angulaire à une dimension, en atteignant des résolutions élevées. Celles-ci sont fixées par l’échelle de Fresnel de la diffraction de bord d’écran, soit (λ/2DT erre−Lune )1/2 , allant de quelques secondes d’angle aux radiofréquences, à quelques millisecondes d’angle dans le proche infrarouge. Avant l’avènement de l’interférométrie astronomique, les occultations lunaires ont permis de déterminer la taille de radiosources et d’enveloppes d’étoiles dans l’infrarouge (par exemple l’objet galactique IRC+10216).
Pupilles non connexes et filtrage fréquentiel passe-bande Dans la section qui précède, nous avons donné un formalisme qui permet de déterminer la ftm, ainsi que la distribution d’intensité dans l’image donnée par un système optique dont la pupille d’entrée possède une forme quelconque. Ces résultats généraux ont été appliqués au cas particulier d’une pupille circulaire, dont on peut ainsi déterminer la limite de résolution angulaire. Examinons maintenant un autre cas d’importance majeure en astronomie, celui où la pupille est formée de deux ouvertures circulaires (souvent appelées sous-pupilles), de diamètre d, placées à distance (centre à centre) D l’une de l’autre, avec D > d si bien que la pupille est non connexe. La ftm de cette pupille (Fig. 6.8b) est simplement donnée par la quantité G(r) ⊗ G(r) après normalisation. Cette fonction T&(w) se présente comme un filtre spatial, qui laisse passer d’une part les fréquences voisines de zéro, d’autre part une bande de fréquence, étroite si D >> d, centrée sur la fré2d quence D λ , de largeur maximale λ . La réponse impulsionnelle est la transformée de Fourier de G⊗G, c’est-à-dire une modulation sinusoïdale de l’intensité, ayant pour enveloppe la fonction d’Airy d’une pupille individuelle (Fig. 6.8c). Autrement dit, l’image d’un point source, placé à l’infini, à travers une optique
238
L’observation en astrophysique
Fig. 6.8 – a) : Schéma de la pupille utilisée par Michelson et Pease sur le télescope
de 2.5 m du Mt. Wilson (Californie) ; b) : pupille G(r) ; c) : T&(w) = G ⊗ G, ftm de cette pupille.
possédant cette pupille d’entrée, est une série de franges étroites, qui modulent l’intensité d’une fonction d’Airy plus étalée. Si maintenant l’objet est donné par la répartition d’intensité I(θ), de spectre spatial I&o (w), le spectre spatial de l’image est simplement donné par l’opération de filtrage : & I(w) = T&(w).I&o (w). & La transformée de Fourier de I(w) est la distribution d’intensité I(θ) dans l’image finale. On remarque que la quantité observée I(θ) est formée d’une modulation de l’intensité (franges), dont la visibilité est égale à I&0 (w)/I&0 (0). On doit noter que cette visibilité V(w) est une quantité complexe. Le facteur de modulation des franges est donné par le module |V| de celle-ci, et vaut 1 pour une source ponctuelle. On peut donc dire que cette pupille, agissant comme un filtre, mesure la cohérence spatiale de l’onde incidente, entre deux points distants de D. Synthèse d’ouverture. Pour chaque valeur du vecteur D séparant les ouvertures (module et direction), cette pupille se comporte comme un filtre spatial passe-bande qui explore le plan w(u, v) des fréquences spatiales. Ce n’est plus l’image qui est explorée point par point, mais sa transformée de Fourier, & = D/λ). Contrairement chaque valeur de D conduisant à une valeur de I(w
6. Formation des images et diffraction
239
au cas d’une pupille circulaire, qui transmet, avec une atténuation plus ou moins grande, toutes les fréquences spatiales et produit ainsi une image qui « ressemble » à l’objet, ceci ne se produit plus dans le cas présent où le filtrage spatial effectué par la pupille est beaucoup plus radical. Les notions, habituelles dans l’espace image, de résolution angulaire et de champ se transposent ici dans l’espace fréquentiel. Les fréquences les plus élevées sont |w| = Dmax /λ, Dmax désignant la séparation maximale des souspupilles ; la largeur en fréquence d’un élément d’information fréquentielle, appelé aussi fréquel, est de l’ordre de δw = 2d/λ. À supposer que toutes les valeurs de w soient explorées entre 0 et Dmax /λ, il devient possible de calculer l’image par l’expression : ! & I(θ) = TF I(w) , & I(w) n’étant connue que sur le support borné |w| < Dmax /λ. On a ainsi reconstitué toute l’information qu’aurait fournie dans l’image une ouverture de diamètre Dmax ; le terme de synthèse d’ouverture désigne cette reconstitution d’une pupille de grande taille à partir de couples de pupilles plus petites. Nous en voyons plus loin les applications considérables. On notera que, de même qu’il suffit d’échantillonner une image en un nombre fini de points lorsque son contenu en fréquences spatiales est borné & (théorème de Shannon, cf. § 9.1.3), il suffira ici d’échantillonner I(w) en un nombre discret de fréquences w. Au lieu de combiner les rayonnements dans un plan image commun aux deux télescopes, il est également possible de superposer de façon cohérente les deux pupilles, ce qui est désigné par l’expression interférométrie dans le plan pupille. Du point de vue du contenu d’information, les deux opérations sont strictement équivalentes : toute l’information présente à l’entrée de la pupille de chaque télescope est également contenue dans l’image, et réciproquement. Le choix entre l’une ou l’autre méthode d’analyse de la cohérence dépend plutôt de considérations de commodité expérimentale, de format de détecteur, de l’importance de la turbulence atmosphérique (cf. § 6.4).
6.2
L’atmosphère terrestre et la perte de cohérence
L’étude de la formation d’une image montre l’importance de la cohérence spatiale dans l’analyse du problème. Que devient l’image d’un point source à l’infini (le cas le plus simple), lorsque l’onde plane incidente voit sa cohérence modifiée par des perturbations de phase ? C’est ce que se propose d’étudier cette section, pour rendre compte des phénomènes perturbateurs produits par la traversée de l’atmosphère terrestre. Celle-ci, comme présenté au chapitre 2,
240
L’observation en astrophysique
présente des fluctuations d’indice de réfraction, qui selon la longueur d’onde sont dues aux inhomogénéités de température ou de densité électronique. Examinons ces effets de façon empirique, dans le cas particulier des longueurs d’onde du visible ou du proche infrarouge. On observe plusieurs effets distincts : la scintillation, fluctuation d’éclat d’une étoile, lorsqu’elle est observée avec l’œil ou une pupille de tout petit diamètre, correspond à un étalement ou une concentration de l’énergie du front d’onde (Fig. 6.9). On remarque aussitôt que la scintillation n’est observée que sur les étoiles (sources quasi ponctuelles), et non sur les planètes brillantes, qui sont des sources plus étendues (dizaine de secondes d’angle ou plus). L’agitation de l’image dans le plan focal de l’instrument correspond à une variation, au cours du temps, de l’angle du plan tangent moyen au front d’onde, angle qui détermine la position du centre de l’image.
Fig. 6.9 – Les principaux effets, sur l’image, de la turbulence atmosphérique. On a schématisé l’onde plane incidente, la région turbulente, les rayons lumineux normaux à la surface d’onde perturbée et la pupille (grisé), ainsi que la surface réduite de cohérence (σ).
Enfin, l’étalement de l’image, qui conduit à des images de dimension largement supérieure (de l’ordre de la seconde d’angle) à celle qu’imposerait la diffraction, est dû à une perte de cohérence spatiale sur la pupille d’entrée. C’est cet étalement qui est principalement responsable de la perte de résolution angulaire. Nous allons développer le formalisme11 permettant d’interpréter et de quantifier ces effets observationnels bien connus. Ce formalisme trouve sa pleine application pour les corriger par l’optique adaptative. 11 Une analyse complète se trouve dans Roddier F., « The Effects of Atmospheric Turbulence in Optical Astronomy », Prog. Optics, XIX, 281, 1981. On y trouvera notamment les détails et justification des calculs qui suivent. Voir aussi Woolf N.J., ARAA, 20, 367, 1982 et Adaptive optics in astronomy, Roddier, F. Ed. Cambridge Univ. Press (1999).
6. Formation des images et diffraction
6.2.1
241
Les perturbations du front d’onde
Nous étudions le comportement de la cohérence d’une onde monochromatique soumise à l’effet d’un milieu à indice de réfraction aléatoire n(r, t), au sein duquel elle se propage. Nous traitons le processus comme ergodique et stationnaire (cf. Appendice II) cette dernière hypothèse pouvant être, d’ailleurs, assez loin de la réalité. Désignons par τc le temps caractéristique de corrélation de l’indice (de l’ordre de quelques millisecondes dans la troposphère), une observation faite pendant un temps court devant τc « gelant » la turbulence et deux observations distantes d’un temps grand devant τc étant considérées comme indépendantes. Notons que la période des ondes électromagnétiques considérées (10−9 à 10−15 s) est totalement négligeable devant τc . Considérons (Fig. 6.10) une onde plane ψ∞ = 1 abordant une couche turbulente d’épaisseur Δh, suffisamment petite pour que la diffraction sur les éléments turbulents soit négligeable sur Δh. L’onde est quasi monochromatique. Considérons une propagation rectiligne (approximation géométrique) où l’onde à la sortie de la couche est donnée par : ψh (x) = exp jϕh (x) h+Δh n(x, h)dh ϕh (x) = k h
k=
2π · λ
Fig. 6.10 – Perturbation de front d’onde par une couche turbulente d’épaisseur Δh. La phase ϕh de l’onde à la sortie est une variable aléatoire, dont nous déterminons la statistique spatiale à partir des propriétés de la variable aléatoire n(x, h). Nous supposons l’ergodicité du phénomène (cf. Appendice II), ce qui permet d’utiliser la même notation pour les moyennes prises sur le temps et sur l’espace. Les moments d’ordre 1 (excursions de phase supérieures à 2π) et 2 s’écrivent, les moyennes étant ici prises sur l’espace :
ψh (x) = 0,
Bh (x) = ψh (x + ξ)ψh∗ (ξ) = exp j [ϕh (x + ξ) − ϕh (ξ)] .
242
L’observation en astrophysique
La phase en sortie ϕh (x) peut être considérée comme résultant d’un grand nombre de perturbations indépendantes de phase, dès que Δh L, échelle externe de la turbulence. La distribution de ϕh est donc gaussienne (théorème de la limite centrale), de moyenne nulle. Si u est une variable aléatoire gaussienne réelle, de moyenne nulle, on démontre aisément que : 1
exp ju = cosu = exp − u2 , 2 et par conséquent : 1 1 2 |ϕh (x + ξ) − ϕh (ξ)| = exp −( Dϕ ). Bh (x) = exp − 2 2 Nous introduisons la fonction de structure de la phase : Dϕ (x) = |ϕh (x + ξ) − ϕh (ξ)|2 , qui s’écrit encore :
Dϕ (x) = 2 ϕ2h (ξ) − 2 ϕh (ξ)ϕh (x + ξ) .
L’expression de la phase en fonction de n permet alors d’écrire : h 2
ϕh (ξ)ϕh (x + ξ) = k δh dz n(x + ξ, z + ζ)n(ξ, ζ) dξdζ. 0
Utilisant l’expression (cf. § 2.6) de la fonction de structure de l’indice dans un milieu à turbulence homogène et isotrope : 2 2 Dn (x, z) = |n(x + ξ, z + ζ) − n(ξ, ζ)| = Cn2 (|x| + z 2 )1/3 , il vient alors, après intégration : Dϕ (x) = 2.91 k 2 Cn2 Δh x5/3 . Rappelons que Cn2 est la constante de structure de l’indice de réfraction. La fonction de corrélation spatiale de l’amplitude complexe à la sortie de la couche turbulente s’écrit donc :
ψh (x + ξ)ψh∗ (ξ) = exp(−1.45k 2 Cn2 Δh x5/3 ). Les couches turbulentes pouvant être très éloignées de la pupille d’entrée de l’instrument, il nous faut déterminer l’effet de la propagation sur cette fonction. Le champ de l’onde à altitude nulle (h = 0) résulte de la diffraction de Fresnel (c’est-à-dire à grande distance) du champ présent à la sortie de la couche. On montre que la fonction de corrélation Bz (x) est invariante par diffraction de Fresnel (exercice 6.15), et donc : 1 B0 (x) = Bh (x) = exp − Dϕ . 2
6. Formation des images et diffraction
243
Un certain nombre de conclusions importantes découlent de ces calculs : – À faible distance derrière la couche, seule la phase est perturbée. Les effets de perturbation de la phase seront l’étalement et l’agitation de l’image. À plus grande distance, phase et amplitude sont perturbées : le phénomène de scintillation apparaît alors. Il est souvent légitime de négliger la fluctuation de l’amplitude |ψ0 (x)| lorsque la turbulence n’est pas trop importante (ceci sera quantifié plus loin). – À la sortie de la couche, le front d’onde perturbé présente une fonction de corrélation de l’amplitude complexe, qui traduit la distribution aléatoire de la phase. Cette fonction B0 (x) a un profil qui est isotrope dans le plan et qui est « presque gaussien », ce qui permet de définir une longueur de corrélation xc déduite de :
ψh (x + xc )ψh∗ (x) 1 ∼ , 2 e |ψh (0)| soit :
xc ∼ (1.45k 2 Cn2 Δh)−3/5 .
Avec des valeurs typiques de 10−12 cm1/3 pour la quantité Cn2 Δh, à λ = 0.5 μm, il vient une longueur de corrélation xc = 9.6 cm. Nous constatons immédiatement une très forte réduction de la cohérence spatiale de l’onde incidente. Rappelons le calcul ci-dessus (cf. § 6.1.2), montrant qu’à une étoile de diamètre apparent 0.1 seconde d’angle est associé un front d’onde où le rayon de cohérence atteint 32 cm à cette même longueur d’onde 0.5 μm. – On note le caractère chromatique de la cohérence, puisque xc varie comme λ6/5 . La longueur de cohérence croît plus vite que λ, favorisant l’infrarouge comparé au visible. – Lorsque la turbulence s’étend sur toute l’épaisseur de l’atmosphère, on montre que les calculs précédents restent valides, à condition de remplacer : ∞ Cn2 Δh par l’expression Cn2 (z)dz, 0
dont on calcule la valeur à partir de la répartition verticale de la turbulence (cf. § 2.6). Connaissant celle-ci, par exemple grâce à des sondages par ballon ou sodar, il est possible, pour un site donné, d’isoler l’effet, et donc l’importance, des différentes couches. – Si l’on transpose les effets décrits ci-dessus aux radiofréquences, par exemple λ = 1 cm, la valeur de xc obtenue atteint plusieurs centaines de mètres, et ne perturbe donc pas la formation de l’image, même avec les plus grands diamètres de radiotélescopes. Mais des fluctuations de
244
L’observation en astrophysique phase peuvent subvenir lors de la combinaison interférométrique de deux télescopes très éloignés (cf. § 6.5.1).
6.2.2
L’image perturbée
Nous nous limitons, dans ce qui suit, à une perturbation de la phase et négligeons les perturbations d’amplitude conduisant à la scintillation12 . Une onde incidente initialement plane ψ∞ = 1 arrive perturbée sur la pupille, sous la forme ψ0 (r, t). En l’absence de perturbation, l’image serait limitée par la diffraction, et se déduirait de la fonction pupille G(r), comme défini plus haut (cf. § 6.1). L’onde incidente étant plane, nous obtiendrions comme image la réponse impulsionnelle de la pupille (fonction d’Airy dans le cas d’une pupille circulaire). Dans le cas perturbé, il suffit, pour calculer l’image, de remplacer la fonction pupille par une nouvelle fonction pupille instantanée, qui est maintenant complexe et aléatoire au cours du temps : G(r)ψ0 (r, t). Dans ce cas perturbé, la réponse impulsionnelle est alors une distribution d’intensité donnée par la transformée de Fourier de l’autocorrélation de cette pupille. L’image d’une source ponctuelle est donc une distribution aléatoire d’intensité dans le plan focal, dont le temps d’évolution caractéristique est le temps de cohérence atmosphérique τc . Image en pose longue Lorsque le temps de mesure (ou d’intégration, par exemple par un récepteur photographique ou photo-électrique) est grand devant τc , l’intensité observée en chaque point de l’image est simplement la valeur moyenne de l’intensité instantanée : I(θ) = I0 (θ)T (θ, t) . La ftm moyenne T& s’écrit comme la fonction d’autocorrélation moyenne normalisée de la pupille : 1 G(s)G(s − w) ψ(s, t)ψ ∗ (s − w, t) ds, T&(w) = '' 2 G (s)ds w=
r · λ
12 S’agissant de la scintillation, on comprend que seules les sources quasi ponctuelles scintillent : chaque point d’une source étendue produit, après l’écran de phase, une figure de diffraction propre, avec des variations d’intensité. Les figures dues aux différents points, ayant traversé des inhomogénéités différentes, se compensent pour donner une intensité quasi constante au cours du temps.
6. Formation des images et diffraction
245
La valeur moyenne de la ftm traduit donc directement le moment du second ordre de l’amplitude complexe du front d’onde. Limitons-nous au cas simple d’une pupille circulaire, de diamètre D xc . Dans ce cas, la ftm moyenne, que nous désignons ici par B0 (w) s’écrit :
T&(w) ≈ B0 (w) = exp −1.45k 2 Cn2 Δh(λw)5/3 .
La figure 6.11 illustre l’effet de filtre spatial joué par la turbulence moyennée : l’image a perdu ses hautes fréquences. La réponse impulsionnelle est la TF de
T&. Bien que le profil d’image n’ait pas d’expression analytique, on voit que sa dimension angulaire, au lieu d’être de l’ordre de λ/D, devient de l’ordre de λ/xc : l’image est étalée par la perte de cohérence spatiale sur le plan pupille. En outre, l’effet de moyenne temporelle a fait disparaître l’agitation de l’image, tout au moins tant que l’hypothèse d’ergodicité reste remplie.
Fig. 6.11 – ftm de la pupille perturbée. En trait plein : ftm idéale ; en tireté : pose longue.
On constate immédiatement que l’augmentation de D, diamètre de l’instrument, ne fournit pas une résolution supérieure à celle d’un instrument de diamètre de l’ordre de xc , soit quelques centimètres aux longueurs d’onde du visible ! On voit apparaître sur la figure une fréquence caractéristique r0 /λ que nous précisons maintenant. Paramètre de Fried13 r0 (λ). Pour comparer avec plus de précision l’image d’Airy, décrite par l’intensité IA (θ) et limitée par la diffraction, avec l’image en pose longue I, calculons le diamètre r0 d’une pupille circulaire limitée par la diffraction qui donnerait une image de même résolution que celle de l’image dégradée par la traversée de l’atmosphère. Nous avons jusqu’ici relié intuitivement cette quantité à la largeur à mi-hauteur de la fonction d’étalement de l’image. Une meilleure, et plus quantitative définition de la résolution R, est 13 D.L. Fried, opticien (États-Unis), qui a développé dans les années 1960 la théorie de la propagation en milieu aléatoire.
246
L’observation en astrophysique
conventionnellement la suivante : R = T&(w)dw B0 (w)dw = T F [IA (θ)] dw. On montre que la quantité r0 , appelée encore paramètre de Fried ou dimension de l’aire de cohérence (sous-entendu spatiale), est donnée par l’expression : r0 (λ) = 0.423k
2
∞
−3/5 Cn2 (z)dz
∞
6/5
= 0.185λ
0
−3/5 Cn2 (z)dz
.
0
Cette quantité se calcule directement à partir de la turbulence et suffit à définir l’image perturbée, une tache dont le diamètre est de l’ordre de λ/r0 . Cette valeur angulaire Δθ = λ/r0 est souvent appelée angle de seeing ou simplement seeing (« voyant » en anglais, terme passé dans le français astronomique courant). C’est donc la taille des images d’étoiles sur une plaque photographique ou un ccd, lorsqu’une longue pose a été effectuée. Notons ce point essentiel, à savoir que cette dimension angulaire λ/r0 est fortement chromatique. Elle varie comme λ6/5 : par exemple, r0 (0.5 μm) = 10 cm conduit à r0 (20 μm) = 8.4 m. Ainsi, un télescope tel qu’un de ceux du vlt (8.2 m), très fortement perturbé dans le visible, ne l’est pratiquement plus dans l’infrarouge moyen. À diamètre fixé, un télescope donnera des images plus proches de la limite de diffraction dans l’infrarouge que dans le visible. Image en pose courte Considérons maintenant l’image instantanée, répartition d’intensité observée pendant un temps d’intégration court devant τc . L’atmosphère peut donc être considérée comme figée. La présence du milieu turbulent produit une ftm complexe, de phase aléatoire, dont la valeur moyenne est nulle dès que la fréquence dépasse la valeur r0 /λ. Seule la valeur moyenne du module de la ftm peut éventuellement être non nulle. Formons donc :
2 1
&
ψ ∗ (s)ψ(s − w)ψ ∗ (s − w)ψ(s )
T (w) = 2 A × G(s) G(s − w) G(s ) G(s − w) ds ds . avec s = r/λ variable courante dans le plan pupille, A aire de la pupille en unité r/λ. On voit apparaître le moment du quatrième ordre de l’amplitude complexe ψ. Si |w| r0 /λ, on peut considérer que ψ(s) et ψ(s − w) sont décorrélés et écrire pour l’expression entre sous l’intégrale :
= ψ ∗ (s)ψ(s ) ψ(s − w)ψ ∗ (s − w) B02 (s − s ).
6. Formation des images et diffraction
247
D’où :
2 1
&
B02 (s − s ) G(s) G(s − w) G(s ) G(s − w) ds ds
T (w) 2 A 1 G(s) G(s − w) ds B02 (u) G(s − u) G(s − u − w) du. 2 A Si, par ailleurs, la condition D r0 (λ) est satisfaite, alors : 2 B0 (u) G(s − u) G(s − u − w) du ∼ B02 (u) du = σB02 (0) = σ, 2 où σ est l’aire de cohérence de Fried, σ = 0.342 rλ0 . Il vient donc l’expression remarquable, illustrée par la figure 6.12 :
G(s) G(s − w) ds
2 σ & σ
&
= T0 (w),
T (w) A A A où T&0 (w) est la fonction de transfert de la pupille non perturbée. Les fréquences spatiales élevées, comprises entre la fréquence de coupure longue pose r0 /λ et la fréquence de coupure D/λ de la pupille non perturbée, sont transmises, mais affaiblies dans un rapport constant. On notera bien que le carré
|T&(w)|2 est simplement proportionnel à T&0 et non à son carré T&02 .
Fig. 6.12 – ftm de la pupille perturbée : pose courte. Noter la transmission atténuée, mais non nulle aux hautes fréquences. Les ordonnées sont logarithmiques. Quelle est donc l’image instantanée I(θ, t) d’une source quasiment ponctuelle, telle qu’une étoile non résolue, qui est donnée par l’instrument utilisé ? Dire l’étoile « non résolue par cet instrument » revient à énoncer que l’onde, en absence de turbulence, est cohérente sur une dimension très largement supérieure à celle de la pupille d’entrée. I(θ, t) est alors la TF d’une réalisation instantanée de la grandeur aléatoire T&(w). C’est une distribution aléatoire d’intensité dans le plan focal (Fig. 6.13, cf. aussi Fig. 6.28c). La présence
248
L’observation en astrophysique
de tavelures (en anglais, speckles), zones brillantes ou sombres), y manifeste l’existence de fréquences spatiales élevées. D’une image à l’autre, ces tavelures évoluent de façon aléatoire et leur superposition au cours du temps produit l’image moyenne discutée plus haut. On peut encore interpréter cette image comme la figure de diffraction à l’infini (diffraction de Fraunhofer ) des défauts aléatoires de phase créés sur la pupille par la traversée du milieu turbulent. Tavelures de laser. Un faisceau laser, donc cohérent, diffusé par une surface présentant des irrégularités de surface et observé à l’infini, provoque sur la surface diffusante le même aspect granuleux dû aux interférences aléatoires des ondes diffusées.
Fig. 6.13 – Tavelures. Noter la distribution de la cohérence sur la pupille et celle de l’intensité dans l’image, ainsi que les dimensions respectives des différents motifs. En observant l’image de Bételgeuse (α Ori) avec un grand télescope, Antoine Labeyrie14 avait noté en 1970 la présence de ces structures et en avait déduit que l’information aux fréquences élevées était dégradée, mais n’avait pas entièrement disparu dans l’image, ce qui offrait une possibilité de la reconstituer. Cette observation fondamentale est à l’origine de l’interférométrie des tavelures, puis de toute une série de méthodes parallèles (par exemple shift-and-add, cf. § 9.6) ; elle a par la suite (depuis les années 1980) contribué au développement de l’optique adaptative, présentée dans la section suivante. Champ isoplanétique. Considérons les images instantanées des deux composantes 1 et 2 d’une étoile double, de séparation angulaire α. Chaque image possède des tavelures, qui correspondent chacune à un front d’onde perturbé par des couches atmosphériques légèrement différentes, selon l’angle α. En (1 (w) et T (2 (w) fonction de sa valeur, les deux ftm instantanées simultanées T seront plus ou moins semblables. Quantitativement, leur corrélation moyenne 14 Antoine Labeyrie, astronome français, né en 1944, a été le pionnier du renouveau des méthodes d’observation à haute résolution angulaire dans le visible et l’infrarouge lors des dernières décennies du xxe siècle. La structure « en grappe de raisins » des images d’étoiles avait été notée dès les années 1940 par l’astronome français Jean Rösch (1915-1999) au Pic-du-Midi, mais celui-ci n’en avait pas tiré de conséquences particulières.
6. Formation des images et diffraction
249
au cours du temps CT (α) ∝ T1 ⊗ T2 est une mesure de cette ressemblance. La largeur à mi-hauteur, par exemple, de CT (α) définit l’angle d’isoplanétisme αo de l’atmosphère dans l’état considéré. Un calcul, semblable à celui conduisant à r0 (λ), permet de montrer que : α0 (λ) = 0.314
r0 (λ) cos γ) , ¯ h
¯ une altitude l’angle γ désignant la distance zénithale de la direction visée, et h pondérée de la distribution verticale de turbulence. Dans le cas simple où n’existerait qu’une seule couche turbulente mince à l’altitude h, il est immédiat d’inférer qu’alors, à la verticale, αo (λ) = ro (λ)/h. Comme ro , le champ d’isoplanétisme, défini par αo , est fortement chromatique. On comprend intuitivement que, toutes choses égales par ailleurs, ce champ dépend fortement de la répartition en altitude des couches turbulentes. Si la turbulence est limitée aux couches proches du sol (comme au Dôme C en Antarctique), αo est plus grand. Des valeurs typiques sont, à 0.5 μm, αo ≈ 5 à 10 secondes d’angle. Ces considérations sont de grande importance en optique adaptative. En effet, lorsqu’un traitement d’image est mis en œuvre après l’observation, nous montrons § 9.6 combien celui-ci diffère lorsque l’effet de l’instrument est une simple convolution de l’objet dans tout le champ observé (isoplanétique) et lorsque ce n’est plus le cas (hors de ce domaine). L’impact d’une zone ou couche turbulente sur la propagation, et donc sur l’image, n’intéresse pas que la propagation atmosphérique. Les radio-astronomes ont observé une scintillation interplanétaire et interstellaire, affectant l’intensité reçue d’une source par le radiotélescope. Comme pour l’ionosphère, ce phénomène est causé par les fluctuations de densité électronique dans le plasma interplanétaire ou interstellaire, l’intensité de la fluctuation dépendant de la taille angulaire de la source. C’est grâce à de telles mesures qu’en 1950 fut donnée la première limite supérieure de la dimension de la radiosource Cygnus A, découverte peu auparavant.
Interférométrie des tavelures L’interférométrie des tavelures 15 est une méthode de restitution de l’image non perturbée, ou de certaines de ses caractéristiques. Cette méthode a joué un rôle important dans les années 1975-1990, qu’elle a presque entièrement perdu avec l’avènement de l’optique adaptative, auquel elle a néanmoins puissamment contribué. Il se peut qu’elle retrouve néanmoins son intérêt dans l’infrarouge moyen observé depuis le sol avec de grands télescopes. Soit un objet source quelconque I0 (θ) à déterminer. Son image est donnée par la convolution : I(θ) = I0 (θ)T (θ), 15 Voir
Labeyrie A., « Stellar Interferometry Methods », ARAA, 16, 77, 1978.
250
L’observation en astrophysique
et l’on a :
2
2
2
&
&
&
T (w) .
I(w) = I0 (w)
Si les conditions de stationnarité sont réalisées, il suffit de déterminer
|T&(w)|2 en observant un objet ponctuel (en pratique, un objet non résolu par le télescope utilisé), dans une direction quelconque, mais à r0 identique, pour pouvoir écrire : ⎡
⎤1/2
& 2 I(w)
⎢
⎥
&
observé ⎥
I0 (w) = ⎢
2 ⎣
⎦ ·
T&(w)
observé
On restitue ainsi le module du spectre spatial de l’objet, jusqu’à la fréquence de coupure de la pupille D/λ, à la seule condition que |T&(w)|2 ait pu être déterminé avec un bon rapport signal à bruit. Il est d’ailleurs équivalent (théorème de Wiener-Khintchine, cf. Apppendice I)) de déterminer la fonction d’autocorrélation moyenne de l’image. Dans le visible, cette méthode a permis d’atteindre la résolution limitée par la diffraction, en particulier pour séparer des couples binaires ou des étoiles multiples ou pour déterminer des diamètres stellaires : à λ = 0.5 μm, la résolution ultime, limitée par la diffraction, d’un télescope de 5 m atteint λ/D = 20 millisecondes d’angle. Dans l’infrarouge, la croissance de r0 avec λ implique que le facteur d’atténuation πr02 /A s’améliore, augmentant ainsi le rapport signal à bruit (A étant l’aire de la pupille collectrice). & Notons que la méthode de restitution du seul module |I(w)| n’est pas sans défaut : sans importance pour la mesure de la séparation d’un couple, elle ne permet pas la restitution de l’objet I(θ), qui nécessite & la connaissance de l’amplitude et de la phase de I(w) sauf dans le cas très particulier d’un objet à symétrie circulaire. On peut montrer que & l’information de phase arg I(w) est présente dans l’image et peut être restituée par des méthodes appropriées16 . L’interférométrie différentielle des tavelures, ou simplement interférométrie différentielle, s’intéresse à un objet dont la morphologie dépend de la longueur d’onde λ : ceci est le cas de la plupart des objets astronomiques, bien entendu, mais on traite ici le cas où, à deux longueurs d’onde très voisines λ1 et λ2 , les quantités O(θ, λ1 ) et O(θ, λ2 ) diffèrent fortement. Cela se rencontre par exemple lorsqu’on observe une étoile à la longueur d’onde λ1 correspondant au spectre photosphérique continu, et λ2 à une raie chromosphérique. Les deux spectres I(w, λ1 , t) et I(w, λ2 , t) diffèrent fortement par leurs dépendances en λ, mais sont 16 Voir par exemple : Diffraction-limited imaging with large telescopes, Alloin D. & Mariotti J.M. Ed., Kluwer, 1989.
6. Formation des images et diffraction
251
totalement corrélés du point de vue temporel s’ils sont mesurés simultanément. Ils peuvent donc être comparés sans perte d’information en w, donc sans perte de résolution angulaire sur l’image finale. On parvient ainsi à atteindre la résolution λ/D du télescope et même à obtenir une super-résolution supérieure à λ/D en disposant d’informations a priori sur l’objet O(θ, λ) et d’un bon rapport signal à bruit dans la mesure des spectres.
6.2.3
L’impact de l’atmosphère sur l’interférométrie
En configuration interférométrique (cf. § 6.4), en l’absence de perturbation de l’onde, il est en principe possible de mesurer la quantité complexe & = B/λ) en phase et en amplitude, pour différentes valeurs de w, donc de I(w reconstruire une image de l’objet. Dans le cas de réseaux de télescopes, et particulièrement d’une paire de sous-pupilles 1 et 2, il importe d’examiner comment l’atmosphère affecte la différence de phase aléatoire qu’elle produit entre les centres de ces sous-pupilles, soit δφ1,2 (t) = φ2 (t) − φ1 (t). Il est clair que, dans une atmosphère stationnaire, sa valeur moyenne δφ1,2 (t) est nulle. On caractérisera en revanche l’excursion de phase par la variance (ou son écart-type) :
| δφ1,2 (t)2 | = σφ2 . Dans le cas d’une turbulence Kolmogorov, cet écart-type σφ augmente lorsque la distance entre sous-pupilles augmente. On montre, par la même méthode que ci-dessus, qu’il vaut alors σφ = 2.62
D1,2 ro (λ)
5/6 ·
Cet écart-type sature à une valeur maximale lorsque cette distance D1,2 dépasse l’échelle externe de turbulence Lo , cette saturation donnant d’ailleurs un moyen simple de mesurer Lo dans un site donné. Nous verrons plus bas combien cet effet, qui translate aléatoirement les franges d’interférence obtenues entre les sous-pupilles, perturbe l’observation astronomique au sol, aux radiofréquences comme aux fréquences optiques. Des méthodes, dites de clôture de phase ou fermeture de phase permettent de s’affranchir dans une certaine mesure des effets nuisibles de ce bruit de phase. Son effet quantitatif sur la ftm complexe est une rotation aléatoire de phase. La ftm instantanée devient : T&(w) exp [jΔϕ1,2 (D, t)] ,
Δϕ1,2 (D, t) écart de phase aléatoire.
Aux radiofréquences, ce sont principalement les irrégularités ionosphériques qui introduisent des fluctuations de phase sur le front d’onde (Fig. 6.14) ; aux longueurs d’onde millimétriques et infrarouges, d’une part, et visibles, d’autre part, les fluctuations de l’indice sont dominées par celles
252
L’observation en astrophysique
de la vapeur d’eau ou de l’air, comme déjà vu ci-dessus. La vapeur d’eau n’est toutefois pas sans influence aux radiofréquences, particulièrement aux courtes longueurs d’onde (cm et mm). De nombreuses méthodes ont été mises au point pour restituer la phase du signal, dégradée par l’atmosphère mais essentielle à la formation correcte d’une image (cf. § 9.6).
Fig. 6.14 – Évolution de la phase (en degrés) due aux fluctuations de l’ionosphère, λ = 6 cm. Noter l’écart-type petit devant 180◦ .
6.3
L’optique adaptative
Les méthodes d’interférométrie des tavelures montrent que l’information à haute fréquence spatiale : D r0 ≤ |w| ≤ , λ λ de l’objet n’est pas entièrement absente de l’image, malgré l’effet de filtre spatial de l’atmosphère. Est-il possible d’effectuer en temps réel une restitution des fréquences spatiales filtrées par l’atmosphère ? Sous certaines conditions, la réponse est positive et conduit au concept d’optique adaptative 17 . Son principe est simple : mesurer d’abord en temps réel sur la pupille G(r) le front d’onde déformé : ψ(r, t) = ψ0 eiϕ(r,t) , donné ici pour une source ponctuelle à l’infini, sans modulation de l’amplitude ψ0 (absence de scintillation en turbulence modérée), ϕ(r, t) étant la perturbation de phase introduite par l’atmosphère. On suppose naturellement que cette source, objet astronomique, est temporellement incohérente. À l’aide d’un dispositif mécanique ou électro-optique, on va ensuite introduire une conjugaison de phase ϕ (r, t) pour restituer une onde :
ψ (r, t) = ψ(r, t)e−jϕ (r,t) . 17 On trouvera sur www.ctio.noao.edu/atokovin/tutorial/, sous la signature d’A. Tokovinin, une excellente analyse détaillée des notions présentées succintement ici, traduite également en allemand et en russe.
6. Formation des images et diffraction
253
S’il était possible de réaliser rigoureusement une correction ϕ = −ϕ, ∀(r, t), le dispositif serait parfait et l’image serait restituée telle qu’elle aurait été observée en l’absence de traversée de l’atmosphère. Différentes limitations instrumentales vont néanmoins conduire à un résidu de défaut de phase : δϕ(r, t) = ϕ(r, t) − ϕ (r, t). et donc à une image corrigée mais présentant des écarts par rapport à la fep idéale, qui est limitée seulement par la diffraction de la pupille. Les problèmes rencontrés par l’optique adaptative sont de divers ordres : mesure du front d’onde perturbé ψ(r, t), dispositif créant la correction de la phase ϕ , évaluation de l’image finale, choix de la source de référence et performances ultimes accessibles. Nous les examinons tour à tour. En dotant l’œil d’une optique à focale variable (accomodation), la nature a réalisé le premier dispositif optique qui soit adaptatif et maintienne la qualité de l’image rétinienne. En 1953, l’astronome Harold Babcock (États-Unis) propose de corriger les déformations des images du Soleil en analysant le front d’onde et en introduisant des corrections de phase en temps réel, mais il ne réalise pas le dispositif. En 1957, le physicien V.P. Linnick (URSS), indépendamment semble-t-il, fait une proposition semblable. Il introduit l’idée d’un miroir correctif segmenté, et même celle d’une source de référence artificielle portée par un avion (cf. infra). L’idée connaît ensuite une longue éclipse, autant parce qu’il semble s’agir d’un rêve inaccessible qu’à cause de la difficulté d’exécuter suffisament vite les calculs en temps réel. Vers 1970, elle est reprise sous le sceau du secret par l’armée aux États-Unis, mais ce sont les Européens, stimulés par la réalisation tout juste engagée du Very Large Telescope, qui publient en 1990 la première image astronomique – une étoile double – corrigée par optique adaptative.
Entre 1990 et 2006, on assiste à un développement très rapide de l’optique adaptative, qui désormais équipe pratiquement tous les grands télescopes terrestres, en particulier pour leurs observations dans le proche infrarouge, et devient une technique clé pour les futurs télescopes de 30 à 50 m. En outre, de nombreux concepts nouveaux émergent, qui sont abordés ci-dessous.
6.3.1
Mesure du front d’onde
Cette mesure est la première étape de l’optique adaptative. Il est commode de représenter le front d’onde en le décomposant sur un ensemble de vecteurs formant une base propre de la pupille d’entrée (généralement le miroir primaire du télescope) : ∞ ϕ(r, t) = ai (t)Qi (r), i=1
où les Qi sont les vecteurs de la base (modes spatiaux ). Il existe une infinité de telles bases orthonormées. L’une des plus utilisées est celle des polynômes de
254
L’observation en astrophysique
Zernike Zi , qui décrit les aberrations optiques classiques en termes de phase, et non en termes de rayons comme étudié au paragraphe 5.1. Les polynômes de Zernike sont définis par : √ √ + m (r) 2 cos(mθ) Zm,n,pair = n + 1Rn m = 0, √ √ m Zm,n,impair = n + 1Rn (r) 2 sin(mθ) ! √ 0 Z0,n = n + 1Rn (r) m = 0, avec : (n−m)/2 m (r) = Rn
s=0
(−1)s (n − s)! r n−2s , s ! [n + m)/2 − s]! [(n − m)/2 − s]!
où m est la fréquence azimutale et n le degré radial.
Le tableau 6.2 donne le classement, l’expression et les aberrations optiques classiques équivalentes aux premiers polynômes de Zernike. Par convention, les indices m, n sont remplacés par un indice séquentiel unique. Cette base est orthogonale sur une pupille circulaire : $r% 1 G(r)Zi Zj dr = δij · avec G(r) = Π π 2 Notons toutefois que cette relation d’orthogonalité ne vaut pas rigoureusement pour une pupille de télescope, lorsqu’elle est masquée d’une obstruction centrale due au miroir secondaire. Soit alors ϕ(r, t) = ϕ(Rρ, θ, t), R étant le rayon de la pupille. Les coefficients ai de la projection de ϕ sur la base sont donnés par : G(r)ϕ(ρ, θ, t)Zi (ρ, θ)dr. ai (t) = En présence d’atmosphère turbulente, les ai sont des variables aléatoires du temps, ergodiques si la turbulence est stationnaire. La base Zi n’est pas parfaitement adéquate pour projeter les effets d’une turbulence Kolmogorov : en effet, les coefficients ai ne sont pas statistiquement indépendants, comme le montre le calcul des covariances ai aj = 0 pour certaines valeurs de i, j. Le choix d’une autre base préservant la non-corrélation des coefficients (polynômes de Karhunen-Loève) peut alors s’imposer. En turbulence développée (Kolmogorov), on peut calculer exactement la variance de chacun des coefficients, ainsi que le résidu de variance ΔN si l’on admet que la conjugaison de phase a été parfaitement réalisée pour les valeurs i≤N : N ∞ 2 2 ΔN = ϕ2 − ai = ai . i=2
N +1
6. Formation des images et diffraction
255
Tab. 6.2 – Premiers polynômes de Zernike et aberrations optiques.
Par convention, l’indexation n, m des polynômes Z est ici remplacée par une indexation séquentielle Zi .
La figure 6.15 donne la variance et les résidus pour les premières valeurs de N ; elle permet d’évaluer ce qui subsiste comme défaut de phase après correction. Pour N grand (N > 10−20), on a l’expression asymptotique : ΔN = 0.2944N
−
√ 2
3
D r0
5/3 ·
On notera sur la figure 6.15 que les premiers modes contiennent une proportion considérable de la variance totale : les corriger imparfaitement rend superflues les corrections des ordres suivants, et c’est l’une des difficultés à vaincre lors de la construction d’un système adaptatif. Les propriétés angulaires sont importantes : est-il possible d’utiliser le front d’onde venant d’une source située dans une certaine direction pour corriger l’image d’une autre source, observée dans une direction différente ? Ceci peut également être caractérisé : si deux sources dans les directions θ1 et θ2 sont observées, on s’intéresse alors à la décorrélation angulaire (anisoplanétisme) :
ai (θ 1 , t)aj (θ 2 , t) . La corrélation décroît d’autant plus vite que N est grand et que la longueur d’onde λ est courte : à λ = 1 μm, le champ d’isoplanétisme des dix premiers
256
L’observation en astrophysique
Fig. 6.15 – Variance (en rd2 ) des coefficients de Zernike a2i , due à une turbulence Kolmogorov à échelle externe L0 infinie, selon le numéro i du polynôme. On a reporté également le résidu d’erreur de phase ΔN (résidu de Noll ), après une correction parfaite des N premiers modes. Les valeurs de a2i et de ΔN sont exprimées en unité [D/r0 (λ)]5/3 , où D est le diamètre de la pupille et r0 la taille de cohérence de l’atmosphère à la longueur d’onde λ où est étudiée la phase. On se souvient qu’au premier ordre les différences de phase résultent de différences de chemin optique qui, dans l’atmosphère terrestre, sont achromatiques.
polynômes est de l’ordre de la dizaine de secondes d’angle pour une turbulence moyenne. La mesure de la phase perturbée fait appel à des analyseurs de front d’onde, selon des principes connus pour vérifier la qualité du polissage des pièces optiques, à ceci près qu’ici l’analyseur doit nécéssairement fonctionner en lumière temporellement incohérente : interféromètres à décalage (shearing interferometer, en anglais) ; plus couramment, analyseur par segmentation de la pupille en sous-pupilles (Shack-Hartmann), mesurant le gradient ∇ϕ de la phase ; analyseurs de courbure, mesurant le laplacien Δϕ ; analyseur pyramidal, à grande dynamique. Quelle que soit la technique d’analyse choisie, il suffit d’échantillonner la phase de façon discrète sur le front d’onde, soit en N points régulièrement disposés sur la pupille. Plus N est grand, moins les erreurs résiduelles de phase seront importantes. En pratique, si cette mesure de la phase ϕ(r, t) est faite à une longueur d’onde particulière λo , on choisit
6. Formation des images et diffraction
257
un échantillonnage dont le pas est de l’ordre de ro (λo ), soit N = (D/ro )2 . Par exemple, pour un télescope de 10 m fonctionnant à λo = 1 μm avec ro = 50 cm, le nombre convenable de points de mesure requis conduit à un l’analyseur ayant N = 202 = 400 points d’analyse. On note aussi qu’au facteur 2π/λ près, ϕ(r, t) est achromatique : ceci a pour conséquence favorable que la valeur de λ0 retenue pour la mesure résulte de commodités expérimentales (cf. infra) et que la correction peut être appliquée à une longueur d’onde différente. Correction de basculement (ou tip-tilt). La figure 6.15 montre qu’une fraction considérable de l’erreur de phase vient des deux premiers termes (n = m = 1, cf. Tab. 6.2), qui correspondent à l’agitation du centroïde l’image dans le plan de celle-ci. Cette fluctuation est qualifiée de basculement ou tip-tilt. On pourrait donc améliorer déjà significativement l’image en se contentant de corriger cette seule fluctuation. Ceci a d’ailleurs été mis très tôt en œuvre pour l’observation du Soleil, notamment par H. Babcock dès 1953. Plus récemment, les techniques de traitement a posteriori d’images en pose courte (cf. supra et § 9.6) ont utilisé le recentrage d’image qui accumule des poses courtes après les avoir chacune recentrées : on obtient ainsi des images équivalentes à une longue pose, mais de bien meilleure résolution angulaire. Il est possible de faire la correction de tip-tilt en temps réel, à l’aide d’un simple miroir, basculant sur deux axes qui maintient fixe le centroïde de l’image, les angles de basculement étant déterminés en permanence par un senseur de tip-tilt. On réalise ainsi un dispositif encore rudimentaire d’optique adaptative, efficace et peu coûteux. Un tel dispositif, utile dès que ro ≤ D, est même désormais commercialisé pour équiper des télescopes d’amateur et en améliorer significativement les images.
6.3.2
Dispositif correcteur de phase
L’optique adaptative fait appel à un schéma de base qui est indiqué par la figure 6.16. Un miroir mince, dont la surface est déformée par des actuateurs mécaniques, réfléchit l’onde à corriger. Idéalement, ce serait le miroir primaire, mais son inertie trop importante ne rend pas possible une correction assez rapide. La possibilité, apparue récemment (2006) de faire la correction sur le miroir secondaire du télescope est particulièrement attractive (Fig. 6.17, cahier couleur). Quel que soit le choix de miroir correcteur, on forme sur ce miroir une image de la pupille, et on introduit la correction de phase ϕ (r, t) calculée par un ordinateur, déduite de la mesure faite par le senseur de front d’onde. Différentes configurations de miroirs sont utilisées : miroirs à actuateurs, miroirs bimorphes à modification locale de courbure, micromiroirs (Micro-Electro-Mechanical-System ou mems). La précision de restitution de phase recherchée consiste généralement à rendre l’erreur résiduelle de phase inférieure à λ/4 (critère de Rayleigh), quoique certaines applications (exao,
258
L’observation en astrophysique
Fig. 6.16 – Schéma de base d’une optique adaptative. Un ordinateur est placé entre l’analyse et la commande. Le tireté représente une lame séparatrice et/ou dichroïque partageant la lumière entre senseur de front d’onde (λ0 ) et caméra mesurant l’image corrigée (λ). Le senseur de front d’onde ne fonctionne pas nécessairement à la même longueur d’onde que la caméra formant l’image corrigée.
cf. infra et § 6.6) puissent requérir une valeur inférieure. Raisonnant en termes de polynômes de Zernike, cette contrainte fixe le degré le plus élevé à corriger. Dans le cas particulier d’un senseur de Shack-Hartmann, possédant N sous-pupilles, le miroir doit également posséder N degrés de liberté et la correction est alors acquise jusqu’au degré 2N des polynômes. On retrouve donc l’expression de N , ici le nombre de degrés de liberté : 2 D N (λ) ≈ · r0 (λ) On remarque que la variation rapide de r0 (λ) en λ6/5 conduit à une décroissance très rapide de N avec λ : la correction est beaucoup plus aisée dans l’infrarouge. Une seconde contrainte imposée au miroir déformable est sa bande passante : en effet, il est placé dans une boucle d’asservissement qui doit répondre
6. Formation des images et diffraction
259
parfaitement aux variations temporelles de la phase, lesquelles possèdent le temps caractéristique τc (λo ), fixé par l’atmosphère et variant également comme λ6/5 . Un asservissement devant toujours posséder une bande passante largement supérieure (un facteur dix environ) à celle du phénomène à corriger, soit environ 10/τc, le miroir déformable doit répondre à des fréquences de plusieurs kHz.
6.3.3
Image finale
La qualité de l’image finale ne peut être complètement évaluée qu’en donnant son profil I(θ), pour pouvoir le comparer à celui de l’image idéale. La correction n’étant jamais parfaite, l’image instantanée possède un profil présentant des fluctuations aléatoires (résidus de tavelures ou speckles), tandis que celles-ci sont moyennées sur l’image longue pose. Quand la correction est raisonnablement bonne, le profil en pose longue fait généralement apparaître un cœur très proche du profil d’Airy (limite de diffraction), entouré d’un halo dû aux résidus de phase non corrigée δϕ (Fig. 6.18). Lorsque ce résidu augmente, la proportion d’énergie présente dans le cœur s’atténue progressivement au profit du halo, jusqu’à retrouver l’image longue pose non corrigée, classique en présence de seeing et décrite plus haut. On parle alors de correction totale ou partielle : cette correction est quantifiée par le rapport de Strehl. Le rapport de Strehl S de l’image d’une source ponctuelle est défini comme le rapport de l’intensité maximale de l’image corrigée à l’intensité maximale que présenterait une image parfaitement limitée par la diffraction à la longueur d’onde considérée. Il est donné par l’expression : 2 & S(w)d w S= , 2 & Tdiff (w)d w et varie depuis la valeur 1, pour une correction parfaite, à moins de 10−3 , pour une image fortement tavelée. La figure 6.19 montre le résultat d’une correction adaptative effectuée sur une étoile double.
6.3.4
Sensibilité et sources de référence
Le fonctionnement de la boucle d’asservissement d’une optique adaptative est conditionné par la qualité de l’information reçue du senseur de front d’onde et transformée en commande des degrés de liberté du miroir actif. Le rapport signal à bruit de ce signal de commande est donc critique. Il dépend évidemment de la magnitude de la source observée d’une part, de la sensibilité du détecteur équipant l’analyseur d’autre part. On conçoit qu’il existe une magnitude limite au-delà de laquelle il n’est plus possible de fermer la boucle :
260
L’observation en astrophysique
Fig. 6.18 – Image d’une étoile brillante non résolue (fep), obtenue avec le système macao (Multi Applications Curvature Adaptive Optics) équipant chacun des quatre télescopes du vlt (8.2 m) depuis 2003. Le miroir est à courbure déformable et comprend N = 60 actuateurs. Le rapport de Strehl obtenu ici est S = 0.62, dans la bande photométrique K (2.2 μm). L’image met clairement en évidence le premier anneau d’Airy et on peut distinguer faiblement le second. (Document European Southern Observatory.)
ce point est le talon d’Achille de l’optique adaptative, limitant son usage à des objets relativement brillants, et a conduit à la mise au point de l’étoile laser ou source de référence artificielle. Les longueurs d’onde d’analyse, λo , et de mesure de l’image de l’objet étudié, λ, peuvent différer, avec toutefois la condition λo ≤ λ, de façon à mesurer corrrectement les fréquences spatiales élevées. Le détecteur idéal, associé au senseur de front d’onde, doit avoir un rendement quantique η aussi proche que possible de l’unité et un temps de réponse compatible avec la turbulence atmosphérique, caractérisée par des temps de corrélation τc ≈ 1−100 ms selon la valeur de λ0 et la cause de la turbulence (vent, convection). On utilise des diodes à avalanche (η ≈ 0.8), des eb-ccd
6. Formation des images et diffraction
261
Fig. 6.19 – Optique adaptative. Image d’un système binaire (magnitude mV = 13.1,
séparation 0.59 ) dans un télescope de 3.6 m à la longueur d’onde de 1.65 μm (Observatoire Européen Austral, La Silla, Chili). À gauche, image affectée de la turbulence atmosphérique (seeing de 1.7 ). À droite, image corrigée, temps de pose de 10 s, résolution finale de 0.12 (largeur à mi-hauteur de l’image), un pixel = 50 millisecondes d’angle. Système adaptatif Come-On Plus, 1993. (Cliché dû à J. L. Beuzit, Observatoire de Paris et ESO.)
fonctionnant en mode comptage (η ≈ 0.08) ou des ccd rapides à très faible bruit, d’ailleurs difficiles à réaliser (η ≈ 0.6) (cf. § 7.4.6). La spécification d’un système d’optique adaptative débute en fixant la valeur du nombre de modes que l’on souhaite corriger à une longueur d’onde donnée et dans des conditions de turbulence données. Ceci fixe le nombre N d’actuateurs du miroir déformable et le nombre de sous-pupilles (pratiquement identique) de l’analyseur. Une fois connues les propriétés de l’analyseur, il est aisé de calculer le rapport de Strehl obtenu pour une source de magnitude mλo donnée : plus la source est faible, moins il est possible de corriger des modes (ou fréquences spatiales) élevés, puisque le rapport signal à bruit de la mesure de la variance de ces modes va en diminuant. La figure 6.20 indique, avec des hypothèses raisonnables, les performances de correction en fonction de la magnitude de l’objet observé. On y constate qu’une correction de bonne qualité requiert une magnitude mV inférieure à 13-14. Les performances des senseurs conduisent d’ailleurs souvent à choisir pour l’analyseur la bande photométrique R plutôt que la bande V. Notons ici que le diamètre du télescope utilisé n’intervient pas : en effet, c’est l’intensité lumineuse disponible dans chaque sous-pupille de l’analyseur
262
L’observation en astrophysique
Fig. 6.20 – Sensibilité de l’optique adaptative. En ordonnée, rapport de Strehl S sur une image corrigée à la longueur d’onde λ = 2.2 μm (bande photométrique K), avec des conditions de turbulence moyenne. En abcisse, magnitude mV (donc longueur d’onde d’analyse λo = 0.55 μm) de la source utilisée par l’analyseur de front d’onde. On suppose ici un senseur équipé d’un détecteur possédant un rendement quantique élevé (ccd, η = 0.6) et un bruit de lecture très faible (2e− rms). (D’après Gendron E., thèse de doctorat, 1995.)
qui est déterminante, et celle-ci ne dépend que de la valeur du paramètre de Fried ro (λ). Choix d’une référence Tout le raisonnement ci-dessus est parti de l’hypothèse intitiale : la source observée est ponctuelle (ou tout au moins non résolue à la limite de diffraction du télescope). Est-il possible d’utiliser l’optique adaptative pour corriger l’image d’une source S étendue et résolue ? La réponse est positive, toutefois deux cas peuvent se présenter : • Il existe au voisinage immédiat de la source S une autre source R (dite référence), ponctuelle, suffisamment brillante, et suffisament proche de S pour que la corrélation entre les ondes ψS (r, t) et ψR (r, t) soit importante : R est dans le champ d’isoplanétisme de S, champ dont on a donné ci-dessus la valeur, soit quelques dizaines de secondes d’arc dans des conditions convenables d’observation. L’analyseur de front d’onde calcule la correction à λo en observant R, et la caméra forme l’image à λ de l’objet S étudié.
6. Formation des images et diffraction
263
• Si la possibilité précédente n’existe pas, la seule solution serait d’utiliser S elle-même comme référence. Mais est-ce possible alors que S est résolue ? Bien qu’apparemment paradoxale, la réponse est positive, tout au moins si la dimension angulaire de S est significativement inférieure à la taille du champ isoplanétique. On peut en effet alors considérer S comme formée d’un ensemble de sources ponctuelles, reçues par l’analyseur, et subissant toutes la même perturbation de phase : la mesure faite par l’analyseur détermine donc bien celle-ci, globalement pour S. Dans la pratique, c’est le champ accepté par chacune des sous-pupilles de l’analyseur – 2 à 3 secondes d’angle généralement –, qui fixe la dimension maximale de S acceptable pour que le système d’optique adaptative fonctionne. • Comment peut-on appliquer l’optique adaptative à l’observation du Soleil, qui est un objet de très grande dimension ? L’idée ici est d’utiliser pour référence des détails de très petite taille, présents sur la surface solaire et suffisamment contrastés par rapport à leur voisinage : granules, facules, taches. Les résultats sont spectaculaires18. Référence artificielle : étoile laser Connaissant le champ d’isoplanétisme pour une longueur d’onde λo donnée, ainsi que la densité d’étoiles de magnitude adéquate pour atteindre une valeur donnée du rapport de Strehl S, il est aisé de montrer que la couverture du ciel obtenue par un dispositif d’optique adaptative est faible, de l’ordre de quelques pourcents au mieux. Ceci permet néanmoins un très grand nombre d’observations précieuses d’étoiles et d’objets galactiques, mais ne couvre qu’une faible quantité d’objets extragalactiques, peu brillants et ne possédant que rarement une étoile proche assez brillante pour servir de référence, surtout au voisinage du pôle galactique. Il a fallu donc imaginer la création d’une référence ou étoile artificielle, que l’on puisse disposer à volonté non loin de l’objet S dont on veut obtenir une image à haute résolution. Cette idée, émise par V.P. Linnik en 1957, puis oubliée, fut proposée par R. Foy et A. Labeyrie (France) en 1987, sous la forme suivante. On met à profit l’existence, dans l’atmosphère terrestre, d’une couche située à environ 80 km d’altitude et contenant une densité élevée d’atomes de sodium (Na). Ces atomes sont déposés, et régulièrement renouvelés, par l’apport de particules météoritiques bombardant la Terre. Si un faisceau laser, de longueur d’onde λ = 589.3 nm, est dirigé depuis le sol vers cette couche, il excite localement la transition de résonance du sodium, qui possède une section efficace d’absorption particculièrement élevée. L’émission spontanée des atomes revenant à leur état fondamental est observable du sol et fournit une source quasi ponctuelle, monochromatique (donc aisée à distinguer par filtrage spectral du fond lumineux atmosphérique). Cette source, sorte d’étoile artificielle donc, 18 On en trouvera de beaux exemples sur le site de National Solar Observatories (nso, États-Unis), à l’adresse www.nso.edu.
264
L’observation en astrophysique
devient utilisable comme référence pour un analyseur de front d’onde, si la puissance du laser utilisé est suffisante pour qu’elle ait une magnitude adéquate. Alignée sur le télescope, elle peut être positionnée avec une grande précision au voisinage immédiat de la source observée. C’est sur le télescope de 3.5 m de Calar Alto (Max Planck Institut für Astronomie, Espagne) que fonctionna en 1996 la première étoile laser proprement astronomique, les militaires des États-Unis en ayant de leur côté poursuivi la réalisation. Bien que séduisante, l’idée d’une étoile artificielle (Laser Guide Star ou lgs, par opposition à Natural Guide Star ou ngs) se heurte à un certain nombre de difficultés. • La lumière réémise doit traverser les mêmes couches turbulentes que celles traversées par le rayonnement issu de la source S, située à l’infini. Mais puisque la couche de sodium n’est qu’à 80-90 km d’altitude, cette condition n’est pas entièrement satisfaite, d’où un effet de cône géométrique, qui réduit la qualité de la correction. On peut partiellement corriger ceci en utilisant dans le champ plusieurs taches laser. • Dans les couches atmosphériques, la lumière laser fait un aller, suivi d’un retour de la lumière réémise, si bien que les effets de basculement du front d’onde (tip-tilt) sont subis deux fois en sens inverse, et s’annulent donc. Alors que ces effets sont ceux qui dominent dans la perturbation de l’image, ils échappent à la mesure, donc à la correction. La première parade, actuellement utilisée, consiste à utiliser une étoile naturelle pour les mesurer, en tirant avantage du grand champ isoplanétique associé au basculement (plusieurs minutes d’angle), ce qui augmente la probabilité d’y trouver une étoile de magnitude adéquate. D’autres parades, plus subtiles, sont recherchées, par exemple en utilisant les photons rétrodiffusés à différentes longueurs d’onde et le caractère très légèrement chromatique du tip-tilt affectant leurs images. • Enfin, vu la distance lointaine de la couche de sodium, la puissance requise du laser est importante (typiquement une dizaine de watts en continu), et le laser doit être porté par le télescope, précisément aligné parallèlement à son axe. C’est pourquoi on a également mis à l’étude la réalisation d’étoiles artificielles dites Rayleigh, c’est-à-dire formées par rétrodiffusion Rayleigh sur les molécules atmosphériques de la basse atmosphère. La correction qu’on en déduit n’est alors valable que pour une turbulence très proche de l’ouverture du télescope.
Malgré ces limitations, de nombreux instruments sont désormais (2006) équipés d’un laser couplé à l’optique adaptative, tels que le Keck Telescope (Hawaii) en 2004, le vlt européen en 2005 (cf. Fig 6.21, cahier couleur), le Gemini South (Chili) en 2007 et d’autres.
6.3.5
De nouveaux concepts
Le schéma décrit ci-dessus rassemble les principes et difficultés de base de l’optique adaptative. L’absolue nécessité d’utiliser celle-ci pour les télescopes,
6. Formation des images et diffraction
265
de 30 m à 50 m de diamètre, envisagés à l’avenir au sol, conduit à en rechercher l’amélioration par tous les moyens possibles. L’émergence de nouveaux sites potentiels, aux caractéristiques de turbulence très différentes, telle l’Antarctique (cf. § 2.8) où la turbulence est presque exclusivement cantonnée au voisinage immédiat du sol, modifie également en profondeur les conditions de réalisation d’un système d’optique adaptative. • Optique adaptative multiconjugée. Également désignée par mcao (Multi Conjugate Adaptive Optics), cette version d’optique adaptative part du fait que le défaut de phase ϕ(r, t) est la somme d’effets produits par les différentes couches atmosphériques traversées, et que la correction d’optique adaptative est meilleure si l’effet de chaque couche est corrigé par un miroir déformable distinct, dont la surface est optiquement conjuguée de la position de la couche (celles-ci ne se trouvant pas à l’infini, leurs images au sein du télescope sont en effet à des positions différentes). La figure 6.22 en donne le schéma de principe. En pratique, il suffit de corriger séparément deux ou trois couches, en formant autant d’étoiles artificielles (à cause de l’effet géométrique) pour améliorer significativement la correction finale.
Fig. 6.22 – Schéma de principe de l’optique adaptative multiconjuguée (mcao). Les deux miroirs déformables (DM1 et DM2) sont respectivement conjugués optiquement des deux couches atmosphériques (1 et 2) à corriger – généralement la couche voisine du sol et une autre en altitude (8 à 10 km), tandis que les fronts d’onde issus de deux étoiles laser spatialement distinctes sont analysés par deux senseurs de front d’onde (wfs). Le calculateur déduit de cette mesure les corrections à appliquer aux deux miroirs. (Schéma dû à l’amabilité de F. Rigaut, 2006.) • Optique adaptative pour basse couche. Également désignée par glao (Ground Layer Adaptive Optics), cette version est spécifiquement destinée à corriger les effets d’une turbulence proche du sol dont l’intensité, dans certains sites, domine largement la dégradation de l’image. Dans ce cas, le champ
266
L’observation en astrophysique
Fig. 6.23 – Simulation d’une optique adaptative multiconjuguée, fonctionnant dans la bande photométrique H (λ = 1.65 μm), destinée au télescope Gemini South (Chili). Le champ est de 150 secondes d’angle (2.5 minutes d’angle). De gauche à droite : a). Image non corrigée d’un champ stellaire. b). Image corrigée par une optique adaptative classique. On note le très significatif anisoplanétisme de correction, avec des images allongées dès que l’on s’éloigne de l’axe. c). Image corrigée par une optique adaptative multiconjuguée. La qualité de correction est restituée dans pratiquement tout le champ. (Document dû à l’amabilité de F. Rigaut, 2006.) isoplanétique peut être beaucoup plus grand, puisqu’en première approximation sa valeur est trivialement donnée par : αiso (λ) =
ro (λ) , H
où H est l’altitude de la couche dominante. La correction est évidemment ici plus limitée (valeur de S plus petite), mais le champ corrigé atteint aisément plusieurs minutes d’angle. Cette version d’optique adaptative est prometteuse pour son utilisation en Antarctique (Dôme C), où l’essentiel de la turbulence se trouve dans une couche proche du sol, d’une cinquantaine de mètres d’épaisseur au plus. • Optique adaptative multi-objets (moao). Cette technique est destinée à l’étude des galaxies, dont on souhaite faire des images à haute résolution, à raison d’un nombre élevé de galaxies dans un champ. Elle s’inspire de la technique de spectroscopie multi-objets décrite au chapitre 8. Un microdispositif de correction est installé, à l’aide d’un bras mobile, sur l’image de chaque galaxie19 . Chaque correcteur ne comprend qu’un petit nombre d’actuateurs, si bien que la correction reste limitée, mais peut néanmoins représenter un ordre de grandeur en résolution par rapport à l’image obtenue sans optique adaptative, suffisant pour faire une analyse spectrographique des régions de la galaxie (par exemple déterminer sa rotation). La mesure de la phase perturbée est faite simultanément sur plusieurs étoiles du champ, de façon à gagner 19 Le projet Falcon, développé à l’observatoire de Paris et devant fonctionner en 2007 sur le vlt, permet ainsi d’observer 15 galaxies simultanément, avec une résolution spectrale R ≥ 600. Voir www.onera.fr/dota/publications.php.
6. Formation des images et diffraction
267
en rapport signal à bruit, le calculateur de correction adaptant alors celle-ci à chaque point du champ à corriger. • Optique adaptative extrême (exao). Lorsque la correction donne un rapport de Strehl S supérieur à environ 0.6, le cœur de l’image, ainsi que les premiers anneaux, sont pratiquement identiques à ceux d’une image limitée par la diffraction. Toutefois, le résidu de phase non corrigé δϕ produit un halo autour de ce cœur, avec des fluctuations aléatoires d’intensité dans les images instantanées. Celles-ci se moyennent dans l’image longue pose et créent un halo uniforme, dont le niveau ne descend guère en dessous du millième de l’intensité au pic et qui va rendre impossible la détection d’un objet faible proche de l’étoile, par exemple une exoplanète. Les techniques de coronographie (cf. § 6.6) visent à cette détection, mais fonctionnent d’autant mieux que le halo est réduit. Pour réduire ce halo, il faut augmenter le nombre de modes de Zernike corrigés, c’est-à-dire le nombre N de sous-pupilles d’analyse et d’actuateurs de correction. C’est ce que se proposent les dispositifs d’optique adaptative extrême. En utilisant par exemple, dans le proche infrarouge (bandes J, H ou K) et sur un télescope de 10 m, un miroir possédant 4 000 actuateurs (mems), il paraît possible, dans un champ très réduit (environ une seconde d’angle), d’obtenir une valeur de S supérieure à 0.9, et de réduire le niveau du halo d’une étoile brillante (mR ≈ 6 − 7) à 10−7 à une distance de quelques λ/D du pic central.
L’optique adaptative représente une évolution considérable des possibilités d’observation à l’aide des grands télescopes au sol dans le visible ou le proche infrarouge. Certains ont pu dire, avec un brin d’exagération, qu’il s’agissait de la plus grande révolution dans l’observation optique terrestre depuis Galilée ! Quoi qu’il en soit, la croissance du diamètre des télescopes, au-delà des 10 m actuels, peut désormais s’accompagner d’une croissance de leur résolution angulaire. Outre le gain en résolution, la possibilité de réduire la dimension de la fep a de nombreuses conséquences : amélioration du contraste des images d’objets non résolus en présence d’un fond, donc gain en rapport signal à bruit ; coronographie ; réduction de la dimension des fentes de spectromètres à résolution spectrale égale ; possibilité d’injection directe de l’image dans des fibres optiques monomodes (applications interférométriques) ; réduction de la confusion dans des champs riches (amas globulaires par exemple), etc. La connaissance, souvent très précise, de la réponse impulsionnelle (fep) que permet l’optique adaptative autorise de pratiquer sur l’image corrigée des traitements élaborés de l’information (déconvolution), qui en améliorent la qualité. Ce point sera approfondi au chapitre 9 (§ 9.6). Concluons cette section, traitant d’un domaine en évolution rapide, par l’un des plus beaux résultats obtenus à ce jour : l’observation d’orbites d’étoiles très proches du centre de la Galaxie, conduisant à la détermination de la masse du trou noir massif qui s’y trouve vraisemblablement (Fig. 6.24, cahier couleur).
268
6.4
L’observation en astrophysique
L’interférométrie astronomique
Nous avons vu plus haut que deux sous-pupilles 1 et 2, prélevant le front d’onde de la source en deux points distants de D, fonctionnent comme un filtre spatial passe-bande et permettent de mesurer une des composantes de Fourier de la source. Faisant varier D, on explore point à point le spectre spatial de la source, ce qui en principe permet d’en reconstruire l’image, en atteignant une résolution spatiale qui n’est alors limitée que par la valeur maximale atteinte par D. C’est la limitation incontournable du diamètre du primaire d’un télescope, pour des raisons technologiques (optiques et mécaniques), qui a conduit à développer l’interférométrie astronomique. Celle-ci a débuté par une remarquable analyse formulée par Hippolyte Fizeau en 1868, suivie des premières tentatives de mesure de diamètre d’étoile par Édouard Stephan en 1874, qui n’obtint qu’une limite supérieure à cause de la trop petite taille de son télescope. C’est Albert Michelson qui, le premier, mesura d’abord le diamètre de satellites galiléens de Jupiter (1891), puis vingt ans plus tard au Mt. Wilson (Californie) avec Francis Pease, celui de plusieurs étoiles, dont Bételgeuse (α Ori) (Fig. 6.8). Seul le talent d’expérimentateur de Michelson avait semblé capable de maîtriser l’extrême difficulté expérimentale (vibrations) du maintien de la cohérence de la lumière sur les deux chemins optiques et, après ce succès, l’interférométrie optique ne chemina plus pendant un demi-siècle (à l’exception d’une forme particulière, dite homodyne, cf. infra). Durant la Seconde Guerre mondiale, des opérateurs de radar remarquèrent que les échos radars renvoyés par un avion variaient en amplitude : la cause en était l’interférence entre le signal direct et un signal réfléchi par la surface de miroir. Ce phénomène, bien connu en optique (miroirs de Lloyd), conduisit à un « interféromètre maritime » en Australie (1946) : avec une résolution de 30 minutes d’arc, l’observation du Soleil montra que l’émission variable mise en évidence venait d’une région trop petite pour que l’émission puisse être non thermique20 . La radio-interférométrie était née. C’est aux radiofréquences qu’elle se poursuivit, dès 1946, à Cambridge (uk), avec Martin Ryle21 , aux longueurs d’onde décimétriques, où le maintien de la cohérence posait infiniment moins de difficultés expérimentales. Une série de radio-interféromètres servit à cataloguer les positions des radiosources nouvellement découvertes (catalogues 1C, jusque 4C) : la longueur d’onde passa progressivement du mètre au centimètre, la sensibilité s’améliora, les bases s’allongèrent jusqu’à celle du Five-Kilometers Radio-Telescope, la synthèse d’ouverture prit naissance. 20 Cette belle observation est citée par Moran, Ann.Rev.Astron.Astroph., 2001. Nous empruntons beaucoup à cette excellente référence. 21 Martin Ryle (1918-1984), astronome britannique, prix Nobel de physiqe 1974 avec Antony Hewish, pour ses travaux en interférométrie des radiofréquences.
6. Formation des images et diffraction
269
Le développement de la technique fut rapide, et abondante la moisson de résultats, conduisant à la réalisation d’une vaste famille de réseaux de radiotélescopes. Entre 1921, date où se place l’utilisation réussie du télescope du Mt. Wilson en mode interférométrique par Michelson & Pease, et 1975, date à laquelle le jeune astronome français Antoine Labeyrie obtint ses premières franges sur l’étoile Vega, l’interférométrie optique ne fut pas tout à fait abandonnée. Le problème principal est celui de la mesure des diamètres stellaires, sur laquelle aucun progrès n’a pratiquement été fait depuis les mesures de Pease. Les idées de fermeture de phase, de réseaux de télescopes optiques, de masquage de pupille (déjà pratiqué par Edouard Stephan en 1874) furent discutées (D. Currie). À l’observatoire de Pulkovo (Crimée, urss), E.S. Kulagin publia en 1970 une mesure de l’orbite de l’étoile Capella faite avec un interféromètre de type Michelson, ayant une base de 6 m. Il précéda ainsi Labeyrie de quelques années. En parallèle, la méthode homodyne fut mise en œuvre par Robert Hanbury Brown et Robert Twiss à Jodrell Bank (uk) dès 1956, puis en Australie où ils mesurèrent le diamètre de Sirius et d’un petit nombre d’autres étoiles brillantes. Enfin, en 1972, Jean Gay (Observatoire de Paris) appliqua avec succès dans l’infrarouge moyen (10.6 μm) la technique hétérodyne des radiofréquences, une approche que développa de son côté Charles Townes22 et ses élèves à Berkeley (États-Unis). Avec ces travaux débuta le renouveau de l’interférométrie astronomique dans le domaine optique (visible et infrarouge), conduisant à des progrès considérables dans la résolution angulaire et aux réalisations de réseaux en place au début du xxie siècle et décrits plus loin. Dans cette section, à partir des principes élaborés plus haut, nous abordons les modalités de l’interférométrie astronomique. Celles-ci peuvent varier suivant la longueur d’onde, mais nous y retrouverons toujours un certain nombre de fonctions principales : sous-pupilles collectrices du rayonnement incident ; transport de l’information reçue par chacune, en amplitude et phase, jusqu’à un dispositif de recombinaison ; correction éventuelle des effets de différence de chemin optique entre les deux signaux ; détection du signal recombiné, le plus souvent sous la forme de franges d’interférence, par un détecteur adapté à la longueur d’onde du rayonnement.
6.4.1
L’obtention du signal interférométrique
Il existe plusieurs manières de recombiner le rayonnement issu des souspupilles pour obtenir et mesurer soit la figure d’interférence, soit toute autre quantité contenant la même information (Fig. 6.25). Le choix de telle ou telle méthode dépend des modalites applicables de détection du rayonnement (Chap. 7). 22 Charles Townes, né en 1915, physicien et astronome (États-Unis), prix Nobel de physique 1988 pour ses travaux sur le pompage maser, précurseur du laser.
270
L’observation en astrophysique
Fig. 6.25 – Diversité des modes de combinaison interférométrique. T1 et T2 désignent les deux télescopes distants. a) Interférométrie directe. Les ondes cheminent jusqu’au foyer commun, où la figure d’interférence (plan image ou plan pupille) se forme sur le récepteur (configurations Fizeau, Michelson ou pupille densifiée). b) Interférométrie directe par optique guidée (fibres). c) Interférométrie homodyne. Deux photomultiplicateurs, en mode comptage de photons, délivrent les courants i1 et i2 , analysés par un corrélateur. d) Interférométrie hétérodyne (radiofréquences et infrarouge moyen). Les ondes incidentes sont changées de fréquence et un corrélateur analyse les signaux de fréquence intermédiaire (if).
Combinaison directe (Fizeau) Si l’on dispose deux petites ouvertures (diamètre d) formant un masque pupillaire recouvrant le miroir primaire d’un télescope, on a exactement réalisé le filtre spatial fréquentiel que constitue un interféromètre. Un récepteur d’image (caméra), s’il en existe à la longueur d’onde utilisée, situé au foyer, mesure les franges obtenues. Cette configuration porte le nom de configuration Fizeau, et possède l’avantage d’un grand champ, celui du télescope, puisque les chemins optiques entre chaque ouverture et le point focal demeurent égaux, pour tout point du champ. Elle peut également être réalisée avec deux télescopes
6. Formation des images et diffraction
271
disjoints, mais solidaires (cas du Large Binocular Telescope, cf. § 5.2.2, ou du projet de mission spatiale européenne Darwin). Parce que les deux télescopes et leur base commune sont solidaires dans leur pointage, les chemins optiques depuis la source jusqu’au foyer commun sont identiques. Combinaison directe (Michelson) Cette configuration est la plus fréquente dans les interféromètres optiques (visible et infrarouge, par exemple le Very Large Telescope Interferometer ). Une paire de télescopes (diamètre D, formant deux sous-pupilles), disjoints et indépendants, disposés sur une base B, collectent la lumière qui est transportée par un train optique à un foyer recombiné commun, où est mesuré le degré complexe de cohérence du rayonnement (Fig. 6.26), après élimination de la différence de chemin optique par une ligne à retard. Parce que les télescopes sont indépendants, il est nécessaire de corriger l’effet de la rotation terrestre par des lignes à retard, égalisant les chemins optiques entre les sous-pupilles et le foyer recombiné. Comme la précédente, cette méthode requiert un récepteur d’image (caméra) pour analyser les franges après recombinaison. La différence tient au mode de transport des faisceaux entre les sous-pupilles et le foyer recombiné. Il faut reconstituer, avant recombinaison, une pupille de sortie qui soit homothétique de la pupille d’entrée. Le champ interférométrique est généralement faible (quelques secondes d’angle). Appelée encore interférométrie directe, cette configuration mesure directement la visibilité complexe, avec une bande spectrale qui peut être large (Δλ/λ ≤ 0.1) – c’est-à-dire une cohérence temporelle réduite, ou encore peu de franges observables au voisinage de la ddm nulle –, donc une sensibilité élevée. Son domaine spectral de prédilection est le proche infrarouge (1 à 12 μm), puisque s’y retrouvent des propriétés plus favorables des effets de phase atmosphériques : la taille du seeing ro , le temps caractéristique τc et le champ d’isoplanétisme αiso variant tous trois comme λ6/5 , tandis que les contraintes de précision mécanique et optique varient comme λ. C’est pourquoi l’utilisation dans le domaine visible est plus difficile, donc encore limitée. Combinaison hétérodyne Ici, on détecte localement, derrière les sous-pupilles 1 et 2, les champs électriques dans la direction θ (Fig. 6.25d). On en mesure l’amplitude et la phase en les faisant interférer l’un et l’autre avec un champ produit par un oscillateur local (hétérodyne, cf. § 7.5.2). Les signaux à moyenne fréquence sont amenés facilement par câble à un point commun, ou même localement enregistrés puis recombinés ultérieurement (dans la Very Long Baseline Interferometry ou vlbi). Puisqu’il s’agit de mesurer la cohérence entre les deux parties du front d’onde incident prélevées par les sous-pupilles 1 et 2, il suffit de former le produit de corrélation de ces champs pour déterminer le degré
272
L’observation en astrophysique
Fig. 6.26 – Schéma de principe de l’interférométrie optique (visible ou infrarouge) au sol (mode Michelson). Les deux télescopes pointent dans la direction θ. Les faisceaux afocaux sont acheminés (miroirs ou fibres optiques) puis recombinés dans un plan focal commun F , où divers schémas optiques de recombinaison peuvent être utilisés) (plan image, plan pupille). La visibilité complexe V y est mesurée. Une ligne à retard, variable de façon continue, compense la rotation diurne de la Terre (variation de la distance zénithale θ) : FC2 − FC1 = ΔL(t). Le résidu aléatoire de phase différentielle, dû à l’atmosphère s’applique à la visibilité V.
& complexe de cohérence, qui n’est autre que I(w) normalisée :
|γ12 (τ )| = E0 E1 (t) e2πj(ν−ν0 )t ⊗ E0 E2 (t + τ ) e−2πj(ν−ν0 )(t+τ ) . t
Par opposition au schéma de combinaison directe des faisceaux, la combinaison hétérodyne fonctionne d’abord par un changement de fréquence, lequel conserve la phase du signal, au foyer de chaque télescope, puis par recombinaison dans un corrélateur des signaux de fréquence intermédiaire. Bien que l’objectif soit le même – mesurer le degré de cohérence spatiale γ12 (τ ) – il existe une importante distinction entre les deux méthodes. Dans le premier cas, la largeur de bande utilisable est grande – typiquement Δλ/λ ∼ 10−2 à λ = 0.5 μm pour r0 = 10 cm ; dans le second cas, la largeur de bande est limitée par le mélangeur et peut valoir jusqu’à quelques GHz. Allant des radiofréquences vers l’infrarouge et le visible, on voit donc que la largeur de bande relative, ainsi donc que l’énergie détectable, diminuent comme l’illustre le tableau 6.3. La sensibilité est donc limitée, d’autant plus que la longueur d’onde est courte. De même qu’aux radiofréquences, le gain de cohérence temporelle, lorsque la bande passante relative diminue, permet une acquisition plus facile des
6. Formation des images et diffraction
273
Tab. 6.3 – Largeur spectrale en interférométrie.
(Les valeurs sont celles de la largeur spectrale relative
Δν Δλ = .) λ ν
franges et une mesure de leur visibilité, même en présence de différences de phase importantes, introduites par des différences de chemin optique d’origine mécanique ou par la turbulence atmosphérique. Ceci explique que cette technique ait pu être utilisée dans l’infrarouge moyen avec succès, d’autant plus que les lasers CO2 fournissent à 10.6 μm un oscillateur local stable et puissant. Cette méthode d’hétérodynage du signal incident est principalement appliquée en interférométrie aux radiofréquences (du submillimétrique au métrique) et dans l’infrarouge moyen23 . Elle ne s’est pas étendue à plus courte longueur d’onde. Mesure de la corrélation des photons Ici, on collecte directement le photocourant sur des récepteurs photoélectriques rapides, placés directement au foyer des sous-pupilles 1 et 2, et on mesure la corrélation temporelle entre ces deux photo-courants, transportés par câble jusqu’au corrélateur (Fig. 6.25c). Le théorème de Zernike montre que la mesure de cette corrélation donne directement la cohérence |γ12 (τ )| du rayonnement entre 1 et 2, c’est-à-dire la quantité recherchée. Dans les années 1960, cette méthode a été appliquée avec succès par Hanbury-Brown24 en Australie25 . L’avenir de ce type d’interférométrie, dite homodyne, est relativement limité, car il n’est applicable qu’à la mesure de diamètres d’étoiles brillantes, requérant des télescopes de quelques mètres de diamètre. les deux ouvertures pouvant évidemment être placées à grande distance. On note néanmoins que la méthode ne requiert aucune qualité particulière d’image au foyer des souspupilles, et n’impose donc pas d’optique adaptative : il se peut qu’elle retrouve à l’avenir un regain d’intérêt avec d’une part l’avènement de télescopes géants, 23 Voir par exemple Townes C. H., in Optical and Infrared Telescopes for the 1990s, A. Hewitt Ed., Kitt Peak National Observatory, 1980. 24 Robert Hanbury Brown (1916-2002), physicien et astronome britannique, auteur avec Richard Twiss (1920-2005), mathématicien britannique né en Inde, de l’interférométrie d’intensité, développée en Australie. 25 Une description très complète en est donnée dans Hanbury-Brown R., « The Intensity Interferometer », ARAA, 6, 13, 1968.
274
L’observation en astrophysique
l’autre part la disponibilité de photorécepteurs quantiques à très importante bande passante (GHz ou même THz). En pratique, on dispose donc de quatre schémas interférométriques différents, les deux premiers étant d’ailleurs proches. Remarquons que le langage courant tend à opposer ces méthodes, dites interférométriques (parce qu’il y apparaît des franges semblables aux franges d’Young), à l’imagerie conventionnelle telle qu’elle intervient au foyer d’un télescope classique. Nous avons montré qu’il n’y avait en réalité aucune différence : on pourrait aussi bien dire que toute image, quelle que soit la configuration de pupille, connexe ou non, est la figure d’interférence formée par l’ensemble des ondes diffractées par la pupille. La différence tient seulement au filtrage fréquentiel qu’exerce la pupille utilisée : passe-bas, elle va donner une image ressemblant fortement à l’objet ; passe-bande, cette image est formée de franges d’interférences et perd sa ressemblance avec l’objet.
6.4.2
Le transport de la lumière
Puisqu’un interféromètre comprend des sous-pupilles distantes de plusieurs dizaines ou centaines de mètres, voire davantage, le problème du transport de la lumière ou de l’information, sans perte de cohérence, se pose (cf. Fig. 6.25). De fait, il existe plusieurs façons de transporter la lumière, avec ou sans perte de sa cohérence. Après les avoir rapidement passées en revue, nous examinons l’usage des fibres optiques (Fig. 6.25b), que les progrès technologiques récents permettent d’étendre à toutes sortes de configurations optiques. Diversité des méthodes de transport Selon la longueur d’onde et les contraintes optiques de l’instrumentation réalisée, plusieurs méthodes de transport sont possibles. – Aux longueurs d’onde de l’optique (visible ou infrarouge), la conception classique fait appel, quelle que soit la longueur d’onde du rayonnement, à des miroirs ou à des dioptres. Le transport devrait idéalement se faire sous vide, pour ne subir aucune perturbation de phase. Ceci est évidemment réalisé dans l’espace, mais est fort coûteux dans les interféromètres de base hectométriques au sol, qui comprennent généralement un transport dans l’air, en veillant à la stabilité thermique des conduits de lumière. – Lorsque la combinaison hétérodyne est possible (radiofréquences ou infrarouge), le signal moyenne fréquence, en aval du dispositif de changement de fréquence, est aisément transporté par des câbles, dans lesquels les risques de perturbation de phase sont minimes. – En amont du changement de fréquence, le guide d’onde offre la possibilité de transporter un signal électromagnétique d’un point à un autre
6. Formation des images et diffraction
275
en préservant la phase. C’est généralement un tube creux, de section rectangulaire ou circulaire, dont les parois intérieures métalliques sont réfléchissantes. Il offre ainsi une alternative à la propagation à l’air libre, autorisant notamment des changements de direction progressifs du rayonnement, des mélanges entre rayonnements différents ou des couplages entre rayonnement et système de réception. Le guide d’onde est abondamment utilisé aux radiofréquences. La dimension transversale d’un guide d’onde est comparable à la longueur d’onde du rayonnement qu’il transporte, et la propagation dans un guide se traite à partir des équations de Maxwell, prenant en compte les conditions aux limites imposées par la surface réfléchissante du guide. Les progrès technologiques de miniaturisation permettent, en 2007, d’envisager la réalisation de guides d’onde creux pour le submillimétrique et même le moyen infrarouge. – La réalisation récente de fibres optiques, préservant la cohérence de l’onde (fibres monomodes) et se comportant comme des guides d’onde creux, permet dans le domaine visible et infrarouge le transport du signal, sans perte de l’information de phase, depuis les sous-pupilles jusqu’au foyer recombiné où peut être mesuré le degré complexe de cohérence. Ce mode de transport est en 2007 étudié à titre expérimental (projet ’ohana, cf. infra) mais pourrait se substituer au mode classique de transport par miroirs. Fibres optiques Le développement considérable et récent de ces composants pour les télécommunications conduit à de multiples applications astronomiques, en interférométrie et spectroscopie, dans les domaines du visible et du proche infrarouge (λ 10 μm environ), ce qui en justifie ici la présentation. Une fibre optique comprend deux cylindres concentriques, le cœur et la gaine, formés de matériaux d’indice différent (fibres à saut d’indice) ou un cylindre unique dans lequel l’indice varie continûment depuis l’axe vers l’extérieur (fibres à gradient d’indice). Lorsque la dimension a de la fibre est grande devant la longueur d’onde du rayonnement transporté, l’approximation géométrique convient : la propagation guidée y est alors décrite comme une suite de réflexions totales. Lorsque, au contraire, dimensions transversales et longueur d’onde sont du même ordre, il faut prendre en compte la diffraction et l’on se retrouve dans un cas semblable à celui du guide d’onde. La notion de mode de propagation est utile. Lors de la propagation dans le guide ou la fibre, les conditions aux limites imposent une onde stationnaire transversale, c’est-à-dire normale à l’axe du guide, l’onde progressive étant dirigée le long de l’axe. On appelle nombre de modes de la propagation, pour des dimensions données et une longueur d’onde donnée, le nombre de configurations stationnaires différentes qu’une même
276
L’observation en astrophysique fibre permet d’obtenir. Ainsi, lorsque a λ, la fibre est dite multimode et l’approximation géométrique s’applique. Lorsque a ≈ λ, la condition monomode peut être satisfaite.
Une fibre ou un guide d’onde monomode présentent la propriété de n’accepter à leur entrée et de ne laisser se propager en leur sein qu’une seule étendue de cohérence (ou mode) d’étendue de faisceau λ2 . Ils se comportent ainsi en filtre spatial. Quelques paramètres des fibres optiques sont utiles à définir : – L’ouverture numérique θ d’une fibre à saut d’indice entre cœur et gaine (respectivement nc et ng ) est telle que : sin θ = (n2c − n2g )1/2 , et l’angle θ définit le demi-angle au sommet du cône, ayant pour axe celui de la fibre, dans lequel le rayonnement est accepté par la fibre (acceptance de la fibre). – L’atténuation d’un guide ou d’une fibre se mesure en dB m−1 (ou dB km−1 ). Elle dépend des propriétés du matériau et traduit les pertes par absorption de la propagation ou des réflexions. Les pertes peuvent être inférieures à 0.1 dB km−1 . Des fibres transparentes dans l’infrarouge (verres fluorés, chalcogénures) ont été développées. La diffusion Rayleigh au sein de la fibre limite inéluctablement les performances des fibres vers le bleu et les rend inopérantes dans l’ultraviolet. – La longueur d’onde de coupure d’une fibre monomode est la longueur d’onde la plus élevée qui peut encore se propager à dimension a donnée. – L’efficacité de couplage (en %) mesure les pertes dues à l’imparfaite adaptation d’impédance entre la propagation libre dans l’air et la propagation guidée dans la fibre. Elles est comprise entre 40 et 75 % environ. – Le comportement vis-à-vis de la polarisation : certaines fibres présentent une symétrie axiale et transmettent indifféremment toute polarisation ou la lumière naturelle. Dès que cette symétrie est brisée (cœur elliptique, torsion de la fibre), la fibre propage préférentiellement une polarisation. – Les fibres présentent une dispersion, la vitesse de propagation y dépendant le plus souvent de la longueur d’onde. Cette dispersion présente un sérieux inconvénient, lorsqu’on utilise des fibres monomodes pour transporter la lumière dans les deux bras d’un interféromètre, car on est contraint d’assurer des longueurs égales de fibre, dès que l’on veut observer une source dans une bande spectrale relativement large. La réalisation de fibres sans dispersion, à partir de cristaux photoniques, est envisageable à l’avenir.
6. Formation des images et diffraction
277
Les guides et fibres optiques monomodes, qui conservent la phase, sont précieux d’une part pour le couplage direct entre télescopes réalisé en synthèse d’ouverture (cf. infra l’interféromètre ’ohana), d’autre part pour le couplage d’une seule étendue de cohérence (un seul mode) entre plan focal et détecteur – cas de l’imagerie aux radiofréquences ou de l’imagerie adaptative infrarouge, à la limite de diffraction. Aux longueurs d’onde optiques, les fibres multimodes sont utilisées pour le simple transport d’énergie lumineuse entre plan focal et instrumentation telle que spectrographes ou détecteurs (cf. § 8.3). Mais le débit atteint par les fibres de télécommunication est suffisant pour que des fibres puissent désormais (2006) être également utilisées pour transporter sur de très grandes distances le signal de fréquence intermédiaire (FI) entre radiotélescopes fonctionnant en réseau à très longue base permettant ainsi la vlbi en temps réel (cf. infra).
6.4.3
La cohérence temporelle
Nous avons raisonné jusqu’ici dans l’hypothèse d’un rayonnement monochromatique, donc de cohérence temporelle maximale. Un écart de chemin optique fixe entre les deux faisceaux 1 et 2 est, dans ce cas, sans conséquence sur la mesure de la visibilité V. Mais une observation réelle requiert une bande passante spectrale finie Δλ, impliquant une cohérence temporelle plus réduite, et donc un nombre fini de franges au voisinage de la différence de marche (ddm) nulle. Il faut alors assurer, entre les rayonnements ayant parcouru les trajets 1 et 2, des différences de marche égales (à quelques λ près dans le cas d’une bande spectrale large, le nombre de franges observables étant approximativement donné par la quantité λ/Δλ). Ceci est d’autant plus vrai que la rotation de la Terre modifie continûment cette différence de marche (Fig. 6.26). Tout interféromètre situé sur le sol de la Terre, quelle que soit la longueur d’onde, doit comprendre un dispositif de compensation (ligne à retard ) et éventuellement de suivi de franges, sauf dans le cas très particulier, et évidemment commode, où les deux sous-pupilles sont placées sur la même monture (cas du télescope lbt).
6.4.4
Les pertes de cohérence spatiale
Dans le schéma idéal présenté plus haut d’un interféromètre à deux souspupilles, la mesure de la visibilité complexe (phase et amplitude) des franges & au foyer recombiné fournit la quantité recherchée I(w), composante de Fourier normalisée du spectre spatial de l’objet. Ce cas idéal rencontre, dans un interféromètre astronomique réel, de nombreuses limitations. Bruit atmosphérique de phase. Nous avons déjà vu que la visibilité complexe V des franges peut être affectée d’un bruit de phase perturbateur, dû à des fluctuations aléatoires de chemin optique dans l’atmosphère terrestre, sur les trajets distincts suivis par les deux faisceaux en amont (Fig. 6.27) ou en
278
L’observation en astrophysique
aval des sous-pupilles. En outre, ce bruit de phase est chromatique, et réduit donc la cohérence temporelle du signal. Ces effets, dominant aux longueurs d’ondes optiques, disparaissent dans l’espace et ceci fournit l’un des arguments majeurs pour la réalisation d’interféromètres hors la surface terrestre.
Fig. 6.27 – Perturbation de phase en synthèse d’ouverture : cas des radiofréquences. L’écart perturbateur de phase dû à l’ionosphère est Δϕ2 − Δϕ1 .
Décohérence instrumentale. En outre, d’autres sources de perturbations peuvent demeurer, telles des vibrations le long du trajet optique, des effets de polarisation non symétriques, etc. Leur effet est le même, créant bruit de phase et perte de cohérence, c’est-à-dire une diminution de l’amplitude, instantanée ou moyennée sur le temps, de la visibilité V des franges. Sous-pupille non cohérente. Il a été jusqu’ici supposé implicitement que les champs électriques du rayonnement, collectés par les sous-pupilles 1 et 2, étaient ceux de l’onde émise par la source, et donc que leur mesure refléterait exactement le degré de cohérence de celle-ci. Ceci est évidemment vrai dans l’espace. Mais pour un interféromètre terrestre, ceci ne demeure vrai que dans le cas où la taille d de la sous-pupille demeure inférieure à la longueur de Fried ro (λ). Dans ce cas la cohérence du front d’onde incident est maintenue sur toute la surface des sous-pupilles. Cette situation est pratiquement celle de tous les radiotélescopes, qui ne sont pas affectés par le seeing atmosphérique quel que soit leur diamètre ; néanmoins, de grandes ouvertures d’antennes (plus de 10 m), opérant aux longueurs d’onde voisines du millimètre, peuvent souffrir du seeing (réseau interférométrique de l’iram en France, réseau alma en construction au Chili, cf. infra). Le problème est beaucoup plus sérieux aux longueurs d’onde visible et infrarouge. La première génération d’interféromètres optiques (1970-1995) a le plus souvent fonctionné avec des télescopes (sous-pupilles) de taille inférieure à ro , ou du même ordre (une dizaine de centimètres), garantissant la cohérence de l’onde incidente sur la sous-pupille. Dans un instrument de taille très
6. Formation des images et diffraction
279
supérieure, les images données par chaque sous-pupille sont affectées de tavelures, et leur superposition cohérente produit une figure d’interférence dont il & est très difficile d’extraire la mesure de I(w) ; tout au plus pourrait-on en déterminer son module, l’information de phase ayant été détruite par la perte de cohérence. L’optique adaptative permet de résoudre cette difficulté et de faire fonctionner en mode interférométrique des télescopes de très grand diamètre. En résumé, l’effet de la turbulence atmosphérique se traduit différemment selon la dimension relative D de la sous-pupille et du paramètre de Fried r0 (λ) (cf. § 6.2) : – Si D < r0 (λ), le système de franges (Fig. 6.28) apparaît là où les images données par les deux sous-pupilles se superposent. S’il existe un dispositif adaptatif élémentaire de correction de l’agitation (stabilisation du tip-tilt ), les deux images demeurent superposées et le système de frange est observable. Néanmoins, le bruit différentiel de phase entre les deux sous-pupilles le déplace en bloc et aléatoirement dans le temps. – Si D r0 (λ), la tache image a pour dimension λ/r0 (λ) et les franges y apparaissent perturbées par des tavelures (cf. § 6.2). L’analyse de l’image et la détermination de V deviennent très difficiles. Lorsque la source observée est brillante, les photons sont assez nombreux pour que la mesure du module de la visibilité soit possible, avec un rapport signal à bruit acceptable, en un temps inférieur au temps de cohérence τc , tel que les hétérogénéités atmosphériques n’aient pas eu le temps de modifier la phase instantanée entre les deux faisceaux. En revanche, si l’objet est trop faible pour satisfaire à la condition précédente, le rapport signal à bruit sur une mesure de durée τ est inférieur à l’unité : il faut alors prendre la densité spectrale de la distribution d’intensité dans chaque pose, où les franges sont invisibles, soit Si (f ), et en faire la moyenne Si (f ) sur l’ensemble des poses puis en déduire le module de la densité spectrale de l’objet à cette fréquence (Fig. 6.29). Tous ces facteurs rendent délicate l’utilisation de l’interférométrie optique sur la surface de la Terre, et impliquent des protocoles d’observation attentifs. En outre, qu’il s’agisse de perturbations ionosphériques aux radiofréquences, ou de perturbations troposphériques dans l’infrarouge ou le visible, l’omniprésence du bruit de phase ne permet de mesurer que |V|. En l’absence d’une connaissance de la phase, il n’est alors pas possible de reconstruire, à partir d’un jeu de valeurs de (w), l’image de la source, sauf dans les cas bien particuliers où il est possible d’utiliser une information connue a priori, par exemple celle d’un objet centro-symétrique, auquel cas on sait que les phases φ(w) sont nulles. Cette limitation a conduit à développer les méthodes de clôture de phase (cf. § 6.4.6).
280
L’observation en astrophysique
Fig. 6.28 – Aspects du plan focal interférométrique. a) Cohérence parfaite des fronts d’onde sur les deux pupilles. L’interférence se produit dans l’image d’Airy donnée par une pupille unique. b) Cohérence des fronts d’onde sur chaque pupille, limitée par la turbulence atmosphérique (paramètre de Fried r0 ) : les franges sont présentes dans chaque tavelure, avec une phase aléatoire. c) Figure d’interférence obtenue entre deux pupilles du Multi Mirror Telescope, distantes de 4.6 m centre à centre. λ = 600 nm ; pose = 1/60 s. Noter la présence de tavelures contenant des franges. (Cliché dû à l’amabilité de E.K. Hege et J. Beckers.)
6. Formation des images et diffraction
281
Fig. 6.29 – Densité spectrale moyenne d’un grand nombre d’images instantanées, dans une direction normale aux franges de fréquence spatiale f0 . Le pic traduit la présence des franges ; le rapport 2 S(f0 ) /S(0) est égal au module de leur visibilité à cette fréquence.
6.4.5
L’étalonnage de la ftm instrumentale
La fonction de transfert instrumentale (ftm) et sa traduction dans l’image (fonction d’étalement de point ou fep) existe dans un interféromètre ou dans un réseau comme dans un télescope. Néanmoins, le fait qu’il s’agisse d’un système passe-bande (une seule, ou plusieurs en synthèse d’ouverture) implique quelques caractéristiques, spécifiques et examinées ici. En interférométrie, il est souvent plus aisé de raisonner sur la fonction de transfert de modulation (ftm) que sur la fep. Cas de deux sous-pupilles & Pour restituer le spectre I(w) d’une source S, il est nécessaire de connaître la ftm de l’instrument qui l’observe. La façon la plus correcte de la déterminer est d’observer une source ponctuelle So , dite de référence dans le ciel, et de mesurer sur celle-ci la quantité complexe I&o (w), en amplitude et phase, c’est-à-dire simplement la visibilité complexe Vo . Supposons un moment que les perturbations atmosphériques de phase soient absentes, auquel cas la référence So peut-être distincte de S. Mais il faut en connaître précisément l’écart angulaire avec So pour corriger la phase introduite par cet écart dans la détermination de Vo . Ceci a été appliqué dès les années 1960 en interférométrie radioastronomique (longueurs d’onde décimétriques), permettant de localiser S dans le ciel à quelques secondes d’angle près, et de reconstruire son image I(θ) par synthèse d’ouverture. Les quasars fournissent des radiosources qui peuvent être ici considérées comme non résolues par l’instrument, donc ponctuelles. Aux longueurs d’onde optiques et au sol, l’hypothèse d’absence d’effets atmosphériques ne vaut plus. Les franges se déplacent en permanence sous l’effet du bruit de phase. Comment déterminer alors la ftm instrumentale (complexe) ? Ce ne demeure possible que pour son amplitude. L’observation du système de franges d’une source ponctuelle So donne généralement une
282
L’observation en astrophysique
valeur de |Vo | inférieure à l’unité, que l’on mesure avec la plus grande précision possible, et qui étalonne les pertes de cohérence internes à l’instrument. Cette source So peut être dans une direction distincte, qu’on recherchera néanmoins proche de celle de S. Plus important est de choisir So ayant une magnitude et une distribution spectrale (couleur) proche de celle de S, afin de ne pas souffrir des non-linéarités éventuelles du système. Taille angulaire finie de l’étoile de référence. La résolution angulaire atteinte par les interféromètres optiques se situe désormais en dessous de la milliseconde d’angle. Il n’existe pas d’étoiles dont la dimension apparente soit très inférieure à cette valeur, et dont la magnitude soit néanmoins suffisante pour donner un signal mesurable. Par exemple une étoile semblable au Soleil, placée à 10 pc, sous-tend un angle de 1 milliseconde d’angle. On admet donc un étalonnage utilisant une étoile résolue, mais au diamètre αo supposé connu, grâce au type spectral et à l’absence d’enveloppe. La visibilité à la fréquence w(u, v) est simplement donnée par la transformée de Fourier de la répartition uniforme de brillance du disque de l’étoile, soit (cf. § 6.1) : Vo (u) =
2J1 (παo u) · παo u
Avec les dynamiques de mesure atteintes, de l’ordre de 103 voire mieux, l’hypothèse de disque uniforme donne un Vo incorrect, car l’étoile possède généralement un assombrissement centre-bord (Center-to-Limb Variation ou clv), qui modifie l’expression ci-dessus. On est alors contraint de se donner un modèle de l’étoile, qui prévoit quantitativement l’effet clv, et de remplacer cette expression par une expression calculée supposée meilleure (cf. § 3.6). Cette limitation est sérieuse, elle peut être source d’erreurs dans la détermination du facteur Vo instrumental, donc de la visibilité V de la source S ; elle est aussi présente pour un interféromètre placé dans l’espace. En revanche, aux radiofréquences, la dimension angulaire de l’émission centrale des quasars ou des noyaux actifs de galaxie est de moins de 0.1 milliseconde d’angle (0.1 mas), alors que la résolution décimétrique d’une base ayant le diamètre de la Terre n’est « que » de 2 mas.
Cas de multiples sous-pupilles Raisonnons à nouveau dans le cas simple de l’absence d’effets atmosphériques, la pupille comprenant maintenant de multiples sous-pupilles, couvrant à un instant donné un certain nombre de fréquences spatiales. C’est le cas en synthèse d’ouverture aux radiofréquences, dans un réseau de télescopes, soit directement couplés, soit couplés en différé (vlbi). La fonction de transfert (ftm) est la fonction d’autocorrélation de cette pupille, et se comporte en filtre spatial transmettant, outre la fréquence 0 et son immédiat voisinage (ce
6. Formation des images et diffraction
283
qui correspond à la puissance totale reçue), un certain nombre de fréquences. Le réseau peut être dense ou dilué, selon que la ftm couvre presque entièrement un domaine du plan (u, v), ou au contraire un domaine très clairsemé. Dans le premier cas, l’image d’une source ponctuelle (fep) est assez proche d’une fonction d’Airy, dans le second, elle en est loin. On appelle dirty beam (en anglais, signifiant littéralement : « faisceau sale ») la fep dans ce second cas. Il est aisé d’imaginer que l’image d’une source un peu compliquée, convolution de l’objet par cette fep, est très difficile, sinon impossible à interpréter, car il y manque trop d’information aux fréquences spatiales non mesurées. Ces trous dans le filtre spatial créent des artefacts gênants dans l’image brute (lobes secondaires, pieds, images fantômes...) ou même la distordent au point de la rendre inintelligible. On désigne parfois cette image sous le nom d’« image sale » (dirty map, en anglais). fep et surtout ftm peuvent, comme ci-dessus, être déterminées par l’observation d’une source non résolue. Reconstruction d’information : procédure clean La procédure clean (nettoyer en anglais)26 fut conçue par le néerlandais Jan Högbom (1974) pour traiter les images du réseau de Westerbork, dont la fep (dirty beam) était trop dispersée. Une information supplémentaire est ajoutée à l’information, trop pauvre, extraite de la mesure, afin de restituer un objet qui soit compatible non seulement avec la mesure, mais également avec l’idée physique que l’on peut s’en faire a priori. Il est difficile d’être certain que la solution trouvée soit nécessairement unique ; on se satisfait du fait qu’elle soit très probable, compte tenu des contraintes que l’on a introduites sur l’objet27 . Ces méthodes sont, en 2007, considérablement raffinées et détaillées au § 9.6. Dans clean, la contrainte s’exprime en supposant l’objet formé d’une série de sources ponctuelles. Ceci est bien adapté, par exemple, à un champ empli de radiogalaxies ou d’étoiles non résolues. Postérieurement, d’autres méthodes d’« invention d’information probable », parfois très puissantes, sont apparues, qui s’appliquent aussi bien à l’interférométrie qu’à d’autres traitement de signaux, spectroscopiques ou autres. C’est pourquoi nous en renvoyons la présentation au chapitre 9. Supposons que l’intensité I(θ) de l’objet soit un fond presque partout nul auquel se superposent des sources localisées, de profil quelconque à déterminer. Soit T&(w) le profil instrumental (ftm), supposé déterminé indépendamment & sur une source ponctuelle, et I(w) l’observation. On forme la quantité : t1 (w) = g1 T&(w) e2jπw·α1 , 26 Voir en particulier, Bracewell R., « Computer Image Processing », ARAA, 17, 113, 1979, ainsi que Pearson T., Readhead A., « Image Formation by Self-Calibration in Astronomy », ARAA, 22, 130, 1984. 27 Schwarz U.J., Astron. Astrophys., 65, 345, 1978.
284
L’observation en astrophysique
et on choisit α1 (qui est la position de la source 1) pour minimiser, au sens des moindres carrés, la quantité : & r1 (w) = I(w) − t1 (w). Le poids g1 est un gain, pris égal ou inférieur à l’unité. Cette opération est équivalente à enlever de la carte observée la source la plus brillante, supposée ponctuelle en première approximation. Le processus se poursuit sur le résidu r1 (w), avec t2 (w), puis t3 , · · · , ti , en utilisant autant de composantes i qu’il y a de sources discernables dans la carte. On peut montrer que ri (w) tend vers zéro, ce qui implique que l’approximation : ˆ ˜ gi e2jπw.αi , I(w) = i
& tend vers la quantité à déterminer I(w). Par transformée de Fourier, on revient ˆ à une approximation nouvelle de l’image recherchée I(θ). La méthode est illustrée figure 6.30 et figure 6.31 (cahier couleur). clean est une méthode qui tient compte des limites de l’image, mais non de sa positivité, cette dernière étant également une information a priori que d’autres méthodes exploitent. clean est adaptée aux images formées de sources bien séparées, sans fond continu appréciable.
6.4.6
La clôture de phase
Les effets de perte de cohérence dus à l’atmosphère devinrent sensibles en radio-interférométrie dès que celle-ci se déplaça vers les courtes longueurs d’onde, et plus tard ces effets furent immédiatement majeurs en interférométrie optique. Pour les combattre, l’idée d’une clôture de phase fut introduite par Roger Jennison dans sa thèse (1951), puis « redécouverte » en 1974 par A.E.E. Rogers ; depuis, la méthode fut largement utilisée aux radiofréquences, et fut appliquée pour la première fois en interférométrie optique par John Baldwin (Cambridge, UK) en 1998. Il est intéressant de constater que l’idée de fermeture de phase, sous le nom d’invariance structurale, fut employée dans la cristallographie des rayons X au cours des années 1950, pour déterminer la distribution électronique dans un solide (souligné par K. Kellermann & J. Moran, op.cit.). Considérons d’abord un réseau formé de trois sous-pupilles non redondantes, disposées par exemple en triangle. Sans atmosphère et avec un instrument parfait, la phase des franges donnée par chacune des paires s’écrit 2πλ(D ij · s), où s est le vecteur unitaire pointant vers la source. Puisque , Dij = 0, la somme des trois phases est également nulle. Si une perturbation, atmosphérique ou instrumentale, affecte l’une des sous-pupilles, la somme reste nulle, la perturbation s’ajoutant sur une base et se retranchant sur l’autre. Si toutes les sous-pupilles sont affectées, le résultat est le même,
6. Formation des images et diffraction
285
Fig. 6.30 – Restitution d’un objet (simulation numérique). La fonction de transfert
T&(w) présente un domaine lacunaire dans le plan des fréquences spatiales, et la réponse impulsionnelle (fep) n’est pas « propre ». a) Restitution par TF inverse & de I(w) T&(w). b) Restitution par la méthode clean. c) Restitution par la méthode de maximum d’entropie (cf. § 9.5, où elle est présentée). Comparer (a), (b) et (c) à l’objet original I(θ). (D’après Rogers A.E., Methods of Experimental Physics. Vol. 12 C. Avec l’aimable autorisation de l’éditeur.)
et la somme des phases mesurées est égale à la somme des phases vraies de la source. Il est évidemment nécessaire que l’objet soit assez brillant pour que la mesure des franges (et donc de leur phase) puisse être faite, avec un rapport signal à bruit suffisant, pendant un temps tel que la perturbation demeure stable, donc inférieur au temps de cohérence atmosphérique τc . Ceci est appelé snapshot mode (mode instantané). Dans le cas d’un réseau non redondant à N télescopes, on mesure N (N − 1)/2 fréquences, mais on n’obtient que (N − 1)(N − 2)/2 relations indépendantes de fermeture de phase, insuffisantes donc pour reconstruire les N phases inconnues (car perturbées) de l’objet aux fréquences mesurées. Néanmoins, si N est grand, la fraction ainsi récupérée d’information de phase, égale à (N −2)/N , tend vers 100 %. Puisque le spectre de la source S est connu en amplitude et presque complètement en phase, des images de bonne qualité de S peuvent être alors reconstruites, sans hypothèse a priori sur S. Si on combine ce processus à l’usage de la procédure clean, c’est-à-dire en ajoutant de l’information a priori, il est possible d’améliorer encore la qualité de
286
L’observation en astrophysique
l’image reconstruite. On désigne alors cette combinaison par cartographie hybride (hybrid mapping). Une extension de la méthode s’est développée sous le nom de self-calibration. Toutes ces procédures connaissent des limites, qui sont les résidus d’artefacts dus à une fep mal corrigée. On atteint aujourd’hui (2006) sur les grands réseaux radio (vla, vlba) un résidu d’artefact inférieur à 0.1%. Les magnifiques images d’objets extragalactiques, que produisent ces réseaux, combinent donc une grande surface collectrice (accès aux objets faibles et poses longues), une résolution angulaire considérable (très grandes bases) et enfin une grande qualité de la fep finale (clôture de phase et procédures numériques de restitution d’image). Il n’est pas encore possible, en 2007, d’afficher des performances équivalentes pour l’interférométrie aux longueurs d’onde optiques, mais nul doute que le progrès sera rapide, les problèmes étant très similaires. Masquage de pupille. En 1874, le Français Édouard Stephan, à Marseille, suivait les idées de Fizeau et atténuait les perturbations atmosphériques en disposant sur le miroir de son télescope pointant une étoile, à distance variable sur un diamètre, deux petites ouvertures (quelques centimètres, donc de dimension inférieure au paramètre de Fried ro ), dont il observait les franges, agitées d’un mouvement de translation aléatoire (bruit de phase). Il en estimait alors la visibilité. Supposons que l’on dispose non pas deux, mais N ouvertures, de taille inférieure à ro sur la surface d’un grand miroir primaire (ou sur une image de celui-ci, reformée en aval). Aux longueurs d’onde optique, l’image d’une étoile est peu lisible, formée de N systèmes de franges, agités ; a fortiori l’image d’un objet résolu. Toutefois, si les ouvertures sont non redondantes, l’analyse de Fourier de l’image instantanée (snapshot) sépare parfaitement chacune des fréquences wi de celle-ci, et en mesure amplitude et phase. La situation est rigoureusement semblable à ce qui vient d’être décrit aux radiofréquences, et les méthodes de fermeture de phase, comme celles de restitution d’information (clean et autres) s’appliquent à l’identique, pour obtenir de la source une image de résolution λ/Dmiroir , limitée par la diffraction (Fig. 6.32, cahier couleur). On peut considérer que, dans certains cas, cette méthode concurrence l’optique adaptative, puisqu’ici la configuration instrumentale est très simple (un masque), tout le traitement se faisant ensuite numériquement.
6.5
La famille des interféromètres astronomiques
Dans cette section, nous examinons les réalisations, actuelles et à venir, de réseaux interférométriques dans différents domaines de longueur d’onde : radiofréquences, visible et infrarouge, et même certains projets pour les rayons X. Il s’agit d’outils dont le développement se poursuit à un rythme intense, afin de d’atteindre des résolutions angulaires inférieures à la
6. Formation des images et diffraction
287
milliseconde, voire la microseconde d’angle. Une microseconde d’angle (μas) correspond à une résolution de 1 000 u.a. à la distance de 1 Gpc, et requiert une base de 2 millions de km à λ = 1 cm, ou de 200 m à λ = 1 nm ! Nous donnons également quelques résultats de ces techniques d’observation.
6.5.1
Les réseaux de radiotélescopes
Bien que les travaux précurseurs de Stephan et Michelson aient été faits dans le visible avant 1921, c’est en radioastronomie que l’interférométrie astronomique a pris son essor dans les années 1950, car les précisions requises sur l’instrumentation y sont évidemment moindres qu’aux longueurs d’onde optiques, et surtout il est facile de transporter par câble des signaux hertziens en conservant l’information de phase, pour les recombiner ensuite ; enfin, la largeur en fréquence des bandes spectrales utilisées est relativement petite (∼106 à 108 Hz) par rapport à celle des bandes optiques (∼1014 Hz) ; la longueur de cohérence temporelle est donc grande, ce qui facilite l’obtention du signal d’interférence entre signaux cohérents issus d’antennes éloignées. Les radio-interféromètres terrestres28 couvrent un large spectre, depuis les longueurs d’onde décamétriques (λ = 30 m correspond à 10 MHz) jusqu’au millimétrique (1 mm correspond à 300 GHz). Même si les principes de réalisation et d’exploitation y sont largement communs, ce très large domaine conduit à présenter ici ces instruments par sous-familles. Une place particulière est donnée à l’interférométrie à très longue base (vlbi), qui à ce jour est la seule à faire également appel à l’observation depuis l’espace. Obtention du signal interférométrique (radiofréquences) Une paire de deux télescopes (antennes) distants, constituant les souspupilles 1 et 2, formant une base de longueur B1,2 ou plus simplement B, sont pointés parallèlement dans la direction θ (Fig. 6.33). Les champs électriques recueillis à leur foyer, éventuellement transportés localement par guide d’onde, subissent d’abord un changement de fréquence (fréquence intermédiaire dite if) en 1 et 2 respectivement, puis ces deux signaux if cheminent en un point commun jusqu’à un corrélateur , qui mesure leur degré de cohérence γ12 (τ ) ou, de façon équivalente, la visibilité des franges. Pour restituer la cohérence temporelle entre les signaux 1 et 2, une ligne à retard permet d’introduire à volonté un déphasage δϕ = 2πντd : la quantité τ (délai temporel) est fonction de la longueur et l’orientation de la base B, ainsi que de la rotation diurne de la Terre. La fréquence spatiale analysée est fixée par la valeur de la base B projetée sur un plan normal au vecteur d’onde incident. L’angle de visée θ(t), dont les composantes (Fig. 6.33) sont ψ(t) et ϕ(t), 28 K.I. Kellermann, J.M. Moran, « The development of high resolution imaging in radioastronomy », ARAA (2001) 39, 457-509.
288
L’observation en astrophysique
induit un décalage temporel qui s’écrit en fonction du temps : B [cos ϕ(t) cos ψ(t)] . λc La fréquence spatiale analysée, de composantes u et v, est fixée par la base projetée et vaut : τ = τd +
1/2 B 2 sin ϕ(t) + sin2 ψ(t) cos2 ϕ(t) . λ Elle est orientée suivant la direction de la base projetée sur le plan d’onde (c’est-à-dire sur le ciel). La rotation de la Terre permet donc, pour une valeur fixée de B, une exploration partielle du plan des fréquences spatiales (u, v). |w| = (u2 + v 2 )1/2 =
Fig. 6.33 – Principe d’un radio-interféromètre. La paire d’antennes, sur une base B, vise la direction θ de la source. Les angles ψ(t) et ϕ(t) définissent θ et dépendent du temps à cause du mouvement diurne. La différence de phase entre les deux antennes se calcule aisément. Un écart de phase supplémentaire, choisi pour compenser celleci, Δϕ, est ajouté électriquement (ligne à retard τd ) et les signaux sont mélangés dans le corrélateur, qui fournit le signal de franges. La cohérence temporelle des signaux est assez grande (bande passante Δν petite devant la fréquence du signal), d’où la présence d’un grand nombre de franges autour de la différence de marche nulle.
6. Formation des images et diffraction
289
La mesure de la phase des franges détermine complètement la composante complexe de Fourier. Ces mesures de phase peuvent être extrêmement précises : sur une base B = 1 km, à λ = 1 cm, une détermination de phase à 10 degrés près, sur une source connue comme quasi ponctuelle, conduira à une détermination de la position angulaire de la source, dans le système de coordonnées de la base (coordonnées terrestres), avec une incertitude : δθ =
10 λ = 0.06 seconde d’angle. 360 B
L’interférométrie radioastronomique est donc un puissant outil astrométrique. Rappelons qu’une telle mesure de phase n’est jamais absolue et qu’il faut disposer d’un réseau-repère de sources ponctuelles sur l’ensemble du ciel (généralement ici des quasars (cf. § 4.2) pour établir les phases de référence, comme explicité plus haut. Synthèse d’ouverture. La détection hétérodyne des radiofréquences présente une propriété remarquable, absente dans les interféromètres visible et infrarouge. Supposons qu’au lieu d’une paire de sous-pupilles, nous disposions d’un nombre N supérieur à 2 de celles-ci, formant de multiples bases Bi,j . Il est possible, de répartir entre plusieurs corrélateurs le signal if d’une antenne i quelconque, pour former toutes les corrélations (i, j) possibles, au nombre de N (N − 1)/2. Grâce à l’existence d’un oscillateur local, cette division du signal se fait sans perte de rapport signal à bruit, comme détaillé au chapitre 7, traitant des récepteurs (§ 7.5). Dans la pratique, tout en variant B pour explorer le plan w, on utilise un grand nombre d’antennes (réseau), dont le regroupement par paires optimise la couverture de w. Si chacun des couples possibles correspond sans recouvrement à une seule valeur de w, on parle de pupille non redondante, par opposition à la pupille très redondante formée par une ouverture circulaire classique (Fig. 6.34). Un ordinateur spécialisé réalise alors la combinaison des signaux issus de toutes les antennes, formant toutes les paires possibles de fonctions de corrélation, après avoir introduit les déphasages temporels τi,j (t) nécessaires, pour centrer la corrélation sur un instant donné, c’est-à-dire ramener l’ensemble des mesures à un même plan d’onde. C’est cette opération qui porte le nom de synthèse d’ouverture. La fréquence spatiale filtrée par une paire de télescope étant fixée par la longueur de la base B projetée sur le ciel, la rotation de la Terre fait varier cette grandeur au cours du temps, augmentant d’autant le nombre de fréquences spatiales accessibles par la couverture du plan (u, v). On désigne parfois par le terme supersynthèse d’ouverture cette combinaison de la synthèse et de la rotation terrestre. L’image I(θ) de la source est ensuite obtenue par une transformation de & Fourier numérique de I(w). Cette opération requiert d’une part l’étalonnage de la ftm du réseau (cf. supra), d’autre part un traitement de l’image qui
290
L’observation en astrophysique
est examiné plus loin (cf. § 9.6). Ce sont les progrès extraordinaires de l’informatique depuis 1980, combinés à de puissants algorithmes de traitement basés sur la théorie de l’information, qui permettent de produire d’excellentes images bien que les réseaux n’échantillonnent pas, comme le fait une pupille unique circulaire, la totalité des fréquences jusqu’à une valeur de coupure.
Fig. 6.34 – Redondance d’une pupille. À gauche : Pupille redondante : plusieurs couples d’éléments correspondent à la même fréquence spatiale w1 . À droite : Pupille non redondante. Seule la paire AB contribue à w1 , les autres couples contribuant à des fréquences différentes.
Réseaux, du métrique au centimétrique Le Very Large Array (vla). Après les réseaux de Cambridge (GrandeBretagne) et de Westerbork (Pays-Bas), qui ont joué un très grand rôle dans le développement de la radio-interférométrie (années 1960-1980) et demeurent actifs, le réseau vla du National Radio Astronomy Observatory (nrao), installé au Nouveau-Mexique (États-Unis), est devenu depuis sa mise en service en 1980, aux longueurs d’onde centimétriques, l’outil aujourd’hui le plus puissant au monde. Comprenant 27 antennes mobiles (Fig. 6.35), dont la distance peut varier jusque 30 km, il fonctionne de λ = 4 m jusqu’à λ ≈ 7 mm, fournissant à cette longueur d’onde une résolution de 20 milliarcsec (Fig. 6.36, cahier couleur). Il fournit plus de 1 000 images (format 1 024 × 4 096 pixels) par journée d’observation et possède 512 canaux spectraux. Comme l’écrit le radio-astronome Jim Moran (Center for Astrophysics, Harvard) en 2001 : « Since its completion in 1980, the vla has been used by over 2 000 scientists from hundreds of laboratories and universities around the world for more than 10 000 individual observing programs. It exceeds its design specifications by orders of magnitude in nearly all parameters and remains, today, by far the most powerful radio telescope in the world, although much of the instrumentation dates from the 1970s ». Le Giant Meter Radio Telescope, gmrt (Inde). Cet instrument, mis en service en 2001, est situé près de Pune (Maharashstra). Le réseau
6. Formation des images et diffraction
291
Fig. 6.35 – Vue aérienne des antennes du réseau de synthèse d’ouverture vla (Very Large Array). Les antennes forment un Y dont on distingue les branches N (à droite), S-E (à gauche) et S-O (en haut). Chaque bras comprend 24 stations possibles, sur lesquelles les 27 antennes mobiles peuvent venir se placer. (Cliché nrao, Associated Universities, avec l’aimable autorisation de la National Science Foundation.)
comprend 30 antennes fixes de 45 m de diamètre, dont 14 concentrées sur 1 km2 au centre, entourées de 16 autres, disposées sur les branches d’un Y, formant des bases allant jusque 25 km. Cette configuration flexible permet à un instant donné de disposer de N (N − 1)/2 = 435 bases différentes, couvrant le domaine de λ allant de 6 m à 21 cm, atteignant une résolution maximale de 2 secondes d’angle. Cet instrument, réalisé par l’Inde seule, est le plus performant des réseaux métriques actuels. Outre sa production scientifique, il permet de mettre au point les techniques destinées à un instrument futur, qui pourrait faire l’objet d’une collaboration internationale large, pour les années 2020 : le projet Square Kilometric Array (ska), destiné au rayonnement centi- et décimétrique, qui pourrait comprendre une surface collectrice totale de 1 km2 . Un concept intéressant est mis ici en œuvre : au lieu d’orienter individuellement chacune des antennes du réseau pour pointer dans la direction de la source, on fixe la direction θ, dans laquelle se trouve le maximum de la réponse impulsionnelle du réseau (pic de la fep), en modifiant la phase du signal reçu par chacune des antennes, qui peuvent donc être planes, horizontales et fixes (réseau phasé ou phased array). Cette technique est très classique dans la construction de certains radars, dont le balayage spatial est assuré sans faire tourner mécaniquement l’antenne, mais en modulant la phase du signal émis ou reçu par chacun des éléments qui la composent. Un autre projet, lofar (Low Frequency Array) est également à l’étude (2007) pour réaliser un instrument comprenant plusieurs milliers d’antennes,
292
L’observation en astrophysique
simples et peu coûteuses (car fonctionnant à grande longueur d’onde λ = 30 m), réparties sur plus de 100 km de base. La surveillance radio-interférométrique du Soleil. Le radiohéliographe de Nançay (France) est un instrument métrique, formé de deux antennes de 10 m et de seize antennes de 3 m. Il fonctionne à la fréquence de 169 MHz (λ = 1.7 m). Les combinaisons de bases possibles sont au nombre de 32, donnant ainsi des bases variant de 100 à 3 200 m. Limitée au réseau est-ouest, la résolution est bonne (∼1.2 ) dans la direction voisine de l’équateur solaire et médiocre dans celle des pôles. Un événement solaire (éruption) peut ainsi être situé en longitude solaire. La grande sensibilité des récepteurs permet de suivre, avec une constante de temps inférieure à la seconde, l’évolution rapide des sursauts solaires et, tout particulièrement, la corrélation entre les émissions radio et les émissions X ou EUV observées dans la couronne par des télescopes spatiaux (Fig. 6.37, cahier couleur). Réseaux millimétriques Les premiers interféromètres millimétriques ont été ceux de Hat Creek (Californie), Owens Valley (Californie) et Nobeyama (Japon). Ils ont été ultérieurement suivis par celui du Plateau de Bure (France) dans les années 1980. La radio-interférométrie millimétrique se heurte à des difficultés spécifiques, liées à l’absorption terrestre (H2 O), croissante à ces longueurs d’onde, et aux effets corrélatifs de la turbulence atmosphérique qui commencent à se faire sentir. En revanche, à dimension égale de base B, la résolution augmente considérablement par rapport au centimétrique. Le domaine millimétrique est très riche d’information astrophysique, notamment par la spectroscopie des molécules, aussi bien dans le milieu interstellaire galactique que dans les quasars et galaxies très lointaines : la combinaison possible de très grande résolution angulaire et de grande sensibilité à conduit, au début des années 2000, à un projet ambitieux, à participation mondiale (Europe, États-Unis, Japon), l’Atacama Large Millimeter Array (alma), dont les premières images seront disponibles vers 2010. Le tableau 6.4 montre le développement très rapide de l’interférométrie millimétrique, qui s’étend désormais vers de plus hautes fréquences en utilisant des sites de très haute altitude (Mauna Kea à Hawaii, Cerro Chajnantor au Chili) où la transmission atmosphérique permet d’observer jusque 650 μm (460 GHz). L’interféromètre du Plateau de Bure (France). Cet instrument comprend six antennes de 15 m, mobiles sur une base E-W de 1 000 m (Fig. 6.38, cahier couleur). La résolution obtenue à λ = 3 mm est de l’ordre de 2 secondes d’angle. Le site est choisi pour ses propriétés atmosphériques (altitude et hygrométrie). Néanmoins, les variations de l’indice de réfraction de l’air humide introduisent des fluctuations de phase sur le front d’onde. Ces fluctuations
6. Formation des images et diffraction
293
Tab. 6.4 – Les principaux réseaux millimétriques et sub-millimétriques. Organisation
Mise en service
Site
& partenaires
Télescopes
Base
λmin
Nb. & Diam.
(km)
(mm)
Japon
1993
Nobeyama
6 × 10 m
≤ 0.6
1à3
carma
2005
bima+ovro
9 × 6.1 m
≤2
1.0
CalTech et al.
iram
(Californie) 1985 2011
Europe + usa Smithsonian, Acad. Sinica SubMillim.Array (sma)
6 × 10.4 m 6 × 15 m
≤1
1.0
50 × 12 m
14
0.35
8×6m
≤ 0.5
0.6
(France)
cnrs+mpg+Espagne alma
Owens Valley Plateau de Bure Ll. Chajnantor 5 100 m (Chili) 2005
Mauna Kea (4 080 m)
(Données mises à jour en 2007.)
limitent la longueur d’onde de fonctionnement à 3 mm en été, tandis que l’hiver autorise l’observation à plus courte longueur d’onde (1 mm). Le réseau carma. Entré en service en 2005, ce réseau est situé en Californie. Il regroupe sur une base kilométrique deux réseaux antérieurs, bima et ovro, mis en œuvre par différentes institutions des États-Unis, d’où son nom de Combined Array for Research in Millimeter Astronomy (carma). Il comprend 23 télescopes de tailles différentes (de 3.5 à 10.4 m), désormais reliés pour former l’interféromètre millimétrique le plus performant au monde, en attendant la mise en service d’alma. Il illustre la remarquable flexibilité de combinaison interférométrique désormais atteinte aux radiofréquences. Le réseau alma (Chili). Le projet (Atacama Large Millimeter Array) rassemble Europe (eso), États-Unis (National Science Foundation) et Japon, pour construire un interféromètre couvrant un plateau (Chajnantor) d’environ 10 km de côté, situé à 5 100 m d’altitude et 20o S de latitude dans le désert d’Atacama (Andes chiliennes). Le réseau comprendra environ 50 antennes mobiles de 12 m, fournissant une surface collectrice totale de 5 000 m2 et travaillant jusqu’à une longueur d’onde de 350 μm (950 GHz). La sensibilité, la qualité d’image du réseau et la stabilité atmosphérique à cette altitude autorisent un programme scientifique extrêmement vaste, allant des exoplanètes de la Galaxie à l’étude des galaxies et quasars dans l’univers primitif (cf. Fig. 6.39, cahier couleur). Interférométrie à très longue base (vlbi) Pour atteindre aux radiofréquences la résolution requise par la taille des radiosources (milliseconde d’angle), la seule solution est d’agrandir la base B à la dimension des continents. Mais ceci implique de résoudre alors le problème
294
L’observation en astrophysique
d’un enregistrement local du signal if et de la mise en corrélation de la phase des champs incidents sur chaque ouverture, le transport du signal par câble n’étant plus possible. Cette technique particulière de couplage est appelée vlbi (en anglais Very Long Baseline Interferometry) et s’est développée à partir de 1967. Elle atteint aujourd’hui (2007) des performances extraordinaires en résolution et souplesse. Le signal (if) est enregistré localement en même temps qu’une horloge (horloge atomique ou maser à hydrogène). Les deux horloges ont été préalablement synchronisées. Les enregistrements, initialement faits sur support magnétique, aujourd’hui (2006) sur disque, sont alors convoyés au même point postérieurement à l’observation et sont « rejoués » pour interférer alors dans un corrélateur et fournir le signal interférométrique (Fig. 6.40). Demain, le signal, tout au moins aux fréquences inférieures à quelques GHz, pourra même être directement numérisé et envoyé par le réseau Internet. De nombreuses corrections doivent être apportées pour que la fonction de corrélation soit effectivement une mesure de la cohérence du champ aux deux points considérés : rotation de la Terre, dérive de phase des horloges, dérive de fréquence des oscillateurs locaux... La stabilité des horloges (mieux que 10−14 ) est telle que la limitation ultime sur des bases intercontinentales pour des poses longues est due aux fluctuations aléatoires de phase introduites par l’atmosphère terrestre. La source primaire de temps (cf. § 4.3) est dérivée soit des signaux horaires radiodiffusés par les satellites du réseau gps (Global Positioning System), dont la précision est de l’ordre de 0.1 μs après correction des irrégularités de propagation introduites par l’ionosphère terrestre, soit d’horloges à césium, dont la dérive est de l’ordre de 0.25 μs mois−1 . L’oscillateur local est un maser à hydrogène, dont la phase est asservie par l’horloge et dont la stabilité relative de phase est de 10−14 pour des durées atteignant 104 secondes. Le signal est converti en signal de fréquence intermédiaire (if), de largeur de bande Δν ∼ 0.1 MHz, impliquant une stabilité de la base de temps de l’ordre de 1/Δν ∼ 10−5 s. Les mesures vlbi utilisent la localisation plus ou moins aléatoire à la surface de la Terre des grands radiotélescopes. La couverture du plan w est donc partielle, même si la rotation de la Terre l’améliore (Fig. 6.41). La résolution du vlbi, obtenue aux longueurs d’onde centimétriques, a longtemps été un record absolu (10−3 arc sec) par rapport à toutes les autres longueurs d’onde, et ce n’est que récemment (années 1990) que la synthèse d’ouverture dans le visible a atteint des résolutions angulaires comparables. À la fin de la décennie 1980, le vlbi s’est étendu aux longueurs d’onde millimétriques, mettant à profit la mise en service de grandes antennes (30– 50 m). En outre, la stabilité des étalons de fréquence s’améliore (oscillateurs à cavité supraconductrice, dont la largeur en fréquence est ainsi réduite), la capacité en fréquence des enregistreurs progresse (>100 MHz) ainsi que le
6. Formation des images et diffraction
295
Fig. 6.40 – Schéma d’ensemble du montage classique original du vlbi. (D’après Moran J. M., Methods of Experimental Physics, Vol. 12 C.)
nombre de canaux spectraux (jusque 1 024, cf. § 8.4). On atteint ainsi dans le domaine millimétrique une résolution meilleure que 10−4 seconde d’angle. Notons une très intéressante application du vlbi à la géodésie continentale : avant le développement du gps (Global Positioning System) dans les années 1990, le vlbi a permis de mettre en évidence les lents mouvements de dérive des continents sur des distances de l’ordre de la dimension de la Terre. L’extension du vlbi à l’espace est une perspective intéressante : un télescope placé sur une orbite plus ou moins fortement elliptique autour de la Terre et couplé à des télescopes terrestres peut offrir durant son mouvement orbital un balayage du plan de fréquences spatiales déterminées par l’orbite choisie et peut ainsi conduire à la mesure de fréquences spatiales élevées, avec une bonne couverture du plan (u, v). La référence de phase à bord serait fournie par une horloge au sol, ayant une stabilité relative d’environ 10−14 , dont le signal serait transmis au satellite, puis retourné au sol par une télémétrie bidirectionnelle. Avant d’accroître arbitrairement la résolution, il convient de s’assurer que les sources étudiées sont suffisamment brillantes et compactes pour qu’un élément de résolution émette une puissance supérieure à celle du bruit instrumental. Le satellite vlbi Space Observatory Project, (vsop puis halca, Japon) fut lancé en 1997, il s’éloigne (apogée) jusque 21 400 km de la Terre. Son antenne de 10 m fonctionne à λ = 6 et 18 cm (raie du radical OH), et ses signaux peuvent être combinés à ceux donnés par les réseaux terrestres du vlba (États-Unis), du European vlbi Network ou de l’Australie.
296
L’observation en astrophysique
Fig. 6.41 – Synthèse partielle d’ouverture en vlbi. À gauche : disposition des antennes utilisées sur le continent nord-américain. À droite : carte de l’émission maser H2 O (λ = 1.35 cm ; ν = 22.2 GHz) de la source galactique jeune GL 2591, un cocon extrêmement dense situé à 2 kpc du Soleil. Noter la grande résolution angulaire et le profil du faisceau. En encart : la couverture en fréquences spatiales du plan (u, v), telle qu’elle résulte de la combinaison des paires d’antennes et de la rotation de la Terre (unités de u, ν : D/107 λ). La longueur des bases va de 228 à 3 929 km. (D’après Walker et al. Ap. J. 226, 95, 1978. Avec l’aimable autorisation de l’Astrophysical Journal.)
6.5.2
Les réseaux optiques au sol
Les trois voies possibles en interférométrie optique (visible et infrarouge) ont été décrites plus haut, avec des performances différentes : combinaison directe, hétérodyne ou homodyne des faisceaux fournis par les différents télescopes. Après l’abandon de la dernière vers 1980, c’est la première de ces voies qui emporte, au début des années 2000, une adhésion progressive, ce qui conduit aux réseaux en place au début du xxie siècle. La figure 6.43 précise comment les développements ont progressivement conduit aux réseaux des années 2000. Il ne faut néanmoins pas exclure qu’à l’avenir, dans d’autres configurations – télescopes géants au sol, réseaux dans l’espace, longueurs d’onde dans l’infrarouge lointain –, les méthodes homodyne ou hétérodyne refassent surface. Nous examinons ici les réseaux fondés sur deux de ces voies (hétérodyne puis directe), et leurs résultats.
6. Formation des images et diffraction
297
Fig. 6.42 – Réseau mondial des télescopes pouvant être combinés en mode d’observation vlbi (2007). Des réseaux régionaux sont organisés, en Europe (European vlbi Network, evn) ou aux États-Unis (Very Long Baseline Array, vlba). La plupart des instruments figurant ici sont des radiotélescopes, mais quelques-uns sont spécifiques à la géodésie terrestre, qui utilise la vlbi pour étudier la dérive des continents et leurs déformations au cours du temps. De nouveaux instruments s’ajoutent fréquemment à ce réseau (Antarctique par exemple).
Interférométrie optique : hétérodyne infrarouge L’interféromètre de l’Université de Californie isi (Infrared Spatial Interferometer ), fut installé au Mt. Wilson (Californie) dès la décennie 1980. Il comprend en 2007 trois télescopes de 1.65 m de diamètre, mobiles avec des bases allant de 4 à 70 m. Sa particularité est d’utiliser la technique hétérodyne à une longueur d’onde de 10.6 μm, un laser CO2 fournissant le signal d’oscillateur local, le mélangeur produisant comme toujours un signal IF (fréquence intermédiaire) dans une bande couvrant au maximum 0.2 à 2.8 GHz. La sensibilité de l’instrument est donc réduite du fait de cette bande spectrale relativement étroite. Néanmoins, la commodité qu’offre le transport des signaux de fréquence intermédiaire (if) par câble, selon les techniques éprouvées des radiofréquences, combinée à quelques centaine d’étoiles à enveloppes de poussière assez brillantes pour fournir des franges d’interférence avec un rapport signal à bruit satisfaisant, font de cet instrument un outil de grande qualité (Fig. 6.44). En contrepartie, il est possible de combiner ici hautes résolutions, angulaire et spectrale, une capacité jusqu’ici unique à ce type d’instrument,
298
L’observation en astrophysique
Fig. 6.43 – Progression des différentes voies de l’interférométrie optique (visible ou infrarouge) au sol, entre 1974 et 2006. Les systèmes demeurant en activité après cette dernière date sont prolongés d’un . (Schéma dû à l’obligeance de Peter Lawson et complété par les auteurs.)
qui atteint une résolution spectrale de 5 × 102 . La formation des molécules d’ammoniac NH3 ou du silane SiH4 dans des atmosphères d’étoiles évoluées (type IRC+10216) a pu être ainsi étudiée29 . Il est peu probable que l’interférométrie hétérodyne soit, au sol, une technique d’avenir pour les raisons précitées, mais dans l’espace, le tableau 6.3 montre qu’il existe un domaine de croisement avec les performances de l’interférométrie directe dans le domaine infrarouge lointain et submillimétrique, en particulier lorsqu’il s’agit d’étudier des sources émettant dans une raie spectrale. Aussi, l’avenir verra sans doute cette méthode s’appliquer avec succès dans l’espace pour ces domaines de longueur d’onde, qui demeurent encore les moins explorés du spectre électromagnétique. Interférométrie optique : type Michelson Dès le renouveau de l’interférométrie optique en 1975, le concept d’un réseau de télescopes, si efficace aux radiofréquences, devint l’objectif poursuivi (Fig. 6.45). La famille des réseaux interférométriques optiques connaît un développement rapide depuis les années 1980, les principaux problèmes techniques étant maîtrisés (Fig. 6.43 et Tab. 6.5). La disponibilité d’optiques 29 Hale, D.D. et al. « The Berkeley infrared spatial interferometer : a heterodyne stellar interferometer for the mid-infrared », Ap.J. (2000) 537, 998-1012.
6. Formation des images et diffraction
299
Fig. 6.44 – Densité spectrale du signal interférométrique (franges) obtenu par l’interféromètre hétérodyne isi, à λ = 10.6 μm, sur l’étoile α Orionis (Bételgeuse) en 1992. La fréquence des franges, proche de 100 Hz, est fixée par la rotation de la Terre, la position de la source dans le ciel et la base B (longueur et orientation). Durant le temps d’observation, l’atmosphère introduit une phase différentielle importante et variable entre les deux trajets optiques, produisant un effet « d’accordéon » (modulation de fréquence) sur les franges. Ceci se traduit par un élargissement significatif (≈ 20 Hz) du pic de densité spectrale et une diminution corrélative de son amplitude. La durée totale d’observation est de 4.5 min. (D’après Townes C.H., et al., Infrared Physics, 35, 1994.)
adaptatives, permettant de rendre spatialement cohérentes des ouvertures de grande taille (10 m), conduit à l’utilisation des grands télescopes (vlt, Keck) en mode interférométrique. Le mode interférométrique du Very Large Telescope (vlti). Mis en service à partir de l’année 2001, l’interféromètre optique associé au Very Large Telescope européen est, en 2007, l’instrument le plus flexible et le plus puissant existant. Sur le sommet du Cerro Paranal, les quatre télescopes fixes de 8.2 m sont complétés d’un réseau de quatre télescopes mobiles de 1.8 m, pouvant occuper trente stations différentes (Fig. 6.46, cahier couleur) : chaque télescope est équipé d’une optique adaptative. Au plan focal interférométrique, les faisceaux de deux à quatre (au plus, en 2007) télescopes, de l’un ou l’autre diamètre au choix, peuvent interférer, après avoir été ramenés par des lignes à retard à une différence de marche proche de zéro. Au foyer recombiné sont disposés les détecteurs de franges. La première génération d’instruments mesure
300
L’observation en astrophysique
Fig. 6.45 – Vue d’artiste d’un réseau de télescopes de diamètre de 1.5 m opérant en synthèse d’ouverture visible et infrarouge. Noter les rails permettant de varier B, ainsi que le foyer commun de recombinaison des faiseaux. La monture sphérique des télescopes est originale. (Labeyrie A., La Recherche, 76, 421, 1976. Avec l’aimable autorisation de La Recherche.)
la visibilité des franges dans la fenêtre 8-13 μm (instrument midi, résolution spectrale jusque 230) et 1-2.2 μm (instrument amber, résolution spectrale pouvant atteindre 300). En outre, il est possible de fonctionner en clôture de phase afin de mesurer des visibilités complexes (amplitude et phase) en acceptant simultanément les faisceaux issus de trois télescopes : 254 bases sont possibles, s’étendant jusque 200 m, et pouvant fournir jusque 3 025 relations de clôture. Un suiveur de franges (fringe tracker ) permet de compenser les différences de marche aléatoires produites par la turbulence atmosphérique, à condition d’utiliser une étoile dont le flux soit suffisant pour fournir un rapport signal à bruit suffisant pendant un temps de cohérence atmosphérique τc (limites en magnitude semblables à celles rencontrées en optique adaptative). Au-delà de 2009, une nouvelle génération d’instruments doit permettre la clôture de phase à quatre télescopes, une grande précision astrométrique (environ 100 microsecondes d’angle) pour la détection du mouvement réflexe des étoiles possédant des exoplanètes massives, enfin l’imagerie du voisinage du trou noir central de la Galaxie, avec une précision astrométrique recherchée de quelques dizaines de microsecondes d’angle. Le Keck Interferometer (ki). Les deux télescopes de 10 m de diamètre, situés sur le sommet de Mauna Kea (Hawaii) sont distants de 80 m et peuvent depuis 2001 être couplés de façon cohérente. Cet interféromètre a été particulièrement conçu pour l’observation des exoplanètes, et possède depuis 2005 un
6. Formation des images et diffraction
301
Tab. 6.5 – Les réseaux interférométriques optiques. Nom
susi
Site
Narrabri
Nb. télescopes
Bases
Domaine
& diam. (m)
(m)
(μm)
Usages*
5 × 0.14 m
5 à 640
0.40-0.75
I, A
2 × 1.5 m
12 à 65
0.57-0.70
|V|, S
20 à 200
1-12
I, S, A, N
(Australie) gi2t
Calern
(Regain)
(France)
vlt
C. Paranal
4 × 8.2 m
Interferometer
(Chili)
4 × 1.8 m
pti
Mt. Palomar
3 × 0.4 m
110
2-2.4
A
2 × 10 m
85
2.2-10
|V|, N
6 × 0.5 m
2 à 437
0.45-0.85
A
(Californie) Keck
Mauna Kea
Interferometer
(Hawaii)
npoi
Flagstaff (Arizona)
coast
Cambridge
5 × 0.65 m
I, S
(Royaume-Uni) iota
Mt. Hopkins
3 × 0.45 m
5 à 38
1-2.4
I, S
6 × 1.0 m
34 à 331
0.55-2.4
I, S
2 × 0.3
30
0.8 m
|V|
6 × 1.4 m
7.5 à 350
0.6-2.4
I, A, S
2 × 6.5 m
22.8
1-20
I, S
3 × 1.65 m
4 à 70
10.6
I, S
(Arizona) chara
Mt. Wilson (Californie)
mira
Mitaka
-1 & -2
(Japon)
mroi
Magdalena Mt.
(2008)
(New-Mexico)
lbt
Mt. Graham
(Fizeau)
(Arizona)
isi
Mt. Wilson
(Hétérodyne)
(Californie)
(*) Usages principaux : |V| = amplitudes spectrales ; I = imagerie ; S = spectroscopie ; A = Astrométrie ; N = nulling. (Données mises à jour en 2007.)
mode à frange noire ou nulling (cf. § 6.6), qui implique à l’évidence l’utilisation d’une optique adaptative performante. Réseaux optiques et pupille densifiée. Considérons une source S1 placée sur l’axe optique de deux (ou davantage) télescopes formant un interféromètre. Un système de franges est obtenu au foyer commun. Une source S2 , située à une distance angulaire α de S1 , est-elle alors observable ? Pour cela, plusieurs conditions doivent être réalisées. Il faut d’abord qu’elle demeure dans le champ de chaque télescope, généralement important. Il faut ensuite que le faisceau lumineux issu de S2 puisse cheminer jusqu’au foyer commun, notamment par les lignes à retard, sans être diaphragmé : cette condition fixe une valeur maximale αm , qui est fonction des dimensions de l’optique de transfert. Dans
302
L’observation en astrophysique l’interféromètre du vlt, α ≈ 2 secondes d’angle, une valeur très petite qui est la conséquence des trajets optiques hectométriques à parcourir entre télescope et foyer commun. Enfin, une dernière condition concerne la configuration des pupilles de sortie, qui doit être homothétique de celle des pupilles d’entrée, afin de garantir le contraste des franges, pour tout α ≤ αm . Cette condition, longtemps considérée comme intangible, porte même le nom de règle d’or d’un interféromètre (golden rule). Observons maintenant l’aspect du plan focal commun lorsqu’un interféromètre est formé de plusieurs pupilles d’entrée très diluées (diamètre D des télescopes très petit devant leurs séparations B) et observe une source ponctuelle en satisfaisant à la condition d’homothétie ci-dessus. La figure de diffraction de ce réseau de télescope conduit à un étalement important de la fep dans le plan focal, ce qui rend très difficile toute méthode coronographique qui voudrait éliminer le signal de cette source pour observer d’éventuels compagnons très faibles de celle-ci. Supposons maintenant que la pupille de sortie soit reconfigurée, en disposant par exemple les pupilles de sortie au contact les unes des autres. La condition d’homothétie n’est plus satisfaite, et le champ αm fortement réduit. En revanche, la pupille de sortie se rapproche de celle d’un télescope unique, et la fep présente un intense pic central, entouré de pieds secondaires : elle devient facile à masquer. On montre aisément que la réduction du champ est proportionnelle au facteur de reconfiguration, mesurant le rapprochement des pupilles par rapport à la situation homothétique. Ce remarquable principe de densification de pupille, proposé par Antoine Labeyrie en 2000, l’a conduit à la notion d’hypertélescope, pouvant comprendre, en particulier dans l’espace, plusieurs dizaines d’ouvertures de taille métrique, éventuellement séparées par plusieurs kilomètres, et fournissant néanmoins, dans un champ minuscule, une figure d’interférence très ramassée, plus aisée à détecter et à annuler si nécessaire30 .
Interférométrie optique : type Fizeau On réserve cette dénomination à une configuration dans laquelle les lignes à retard sont inutiles, puisque la condition d’égalité des chemins optiques entre les différentes pupilles et le plan focal commun est satisfaite par construction. Voici un exemple d’une telle configuration. Le Large Binocular Telescope (lbt). Cet instrument, qui entre progressivement en service depuis fin 2005, est situé sur le Mt. Graham (Arizona). Il est formé de deux télescopes de D = 8.4 m de diamètre, situés sur une même monture altazimutale, dont les axes optiques sont distants de B = 14.4 m. L’instrument est donc semblable à un télescope classique, à ceci près que la pupille d’entrée est ici non connexe, formée de deux ouvertures disjointes. La 30 Pedretti, E., Labeyrie, A., Arnold, L., Thureau, N., Lardière, O., Boccaletti, A., Riaud, P. « First images on the sky from a hyper telescope », Astron. Astrophys. Suppl., (2000) 147, 385.
6. Formation des images et diffraction
303
fréquence spatiale observable la plus élevée est donc (B + D)/λ. La ligne de base des deux télescopes demeure toujours normale à la direction incidente, donc aucune ligne à retard de compensation n’est requise – sauf de petite amplitude, pour ajuster la ddm nulle – et le champ interférométrique possède donc les mêmes limitations que celui du champ d’imagerie normale d’un télescope, soit plusieurs minutes d’angle, très supérieur à celui d’un interféromètre en configuration Michelson. Le train de miroirs est réduit au minimum : primaire, secondaire et tertiaire, puis un miroir de renvoi sur chaque faisceau suffisent à alimenter le foyer commun. Alternativement, les deux télescopes peuvent être utilisés avec deux instruments indépendants, mais sont contraints d’observer la même source, ou tout au moins la même région du ciel. Roger Angel31 a proposé un intéressant concept dit « 20+20 », dans lequel deux télescopes indépendants, de diamètre 20 m chacun (par exemple), sont mobiles sur un rail circulaire, de diamètre BM . Plaçant les deux télescopes aux extrémités d’une corde de ce cercle, de longueur B ≤ BM , disposant un plan focal commun au milieu de cette corde, et déplaçant les deux télescopes de façon à conserver la corde toujours normale à l’azimut de la direction de l’astre visé, on réalise un interféromètre de base B ajustable, fonctionnant en mode Fizeau, donc sans ligne à retard. Comme dans toutes les configurations interférométriques utilisant de grandes pupilles (D ro ), celles-ci doivent être équipées d’optique adaptive pour restituer la cohérence des ondes incidentes. Un réseau fibré : ’ohana32 Il est aisé de réaliser combien la nécessité de transporter, par des jeux de miroirs, jusqu’au foyer commun les faisceaux issus de chaque télescope rend pratiquement impossible l’obtention de très longues bases (hectométriques ou plus) sur le sol terrestre. Il est possible de contourner cet obstacle en extrayant la lumière au foyer de chaque télescope, puis de l’acheminer jusqu’au foyer commun par une fibre optique monomode, qui propage la phase de l’onde en préservant la cohérence temporelle de celle-ci (cf. § 6.4.2). En faisant le choix de fibres de longueur égale entre chaque télescope et le foyer commun, on garantit des chemins optiques égaux entre télescopes et foyer, sans effets atmosphériques. Il reste à retrouver une différence de marche nulle grâce à une ligne à retard variable, comme dans une configuration Michelson. Démontré en 2006 entre les deux télescopes Keck du Mauna Kea (Hawaii) dans le proche infrarouge33, ce concept prometteur permettrait, en réalisant le couplage de l’ensemble des grands télescopes situés sur ce sommet (Fig. 6.47), d’obtenir 31 Roger Angel, né en 1941, astronome et opticien britannique, professeur au Stewart Observatory, Tucson, créateur en Arizona du concept de lbt. 32 Cet acronyme, proposé par l’astronome français Jean-Marie Mariotti (1955-1998), signifie famille en langue hawaienne, mais aussi Optical Hawaian Array for Nanoradian Astronomy. 33 Perrin, G. et al. « Interferometric coupling of the Keck telescopes with single-mode fibers », Science (2006) 311, 194.
304
L’observation en astrophysique
Fig. 6.47 – Concentration de télescopes optiques sur le site de Mauna Kea (Hawaii). Le concept de couplage par fibres permet un couplage interférométrique de deux ou plus d’entre eux, en extrayant directement la lumière des foyers Coudé ou Cassegrain de ces télescopes. Les bases interférométriques possibles sont indiquées (à gauche), et dans le cartouche supérieur droit est indiquée pour comparaison la configuration des quatre télescopes de 8.2 m du vlt. Les cercles pointillés indiquent les deux premières configurations mises en œuvre dans la décennie 2000. (D’après Mariotti J.M., 1995 et Perrin, G., 2006. Carte due à l’Institute for Astronomy, Honolulu ; les altitudes sont en pieds. 1 pied = 0.305 m.)
des images du cœur de noyaux actifs de galaxies, telle NGC1068, avec une résolution pouvant atteindre 200 microsecondes d’angle. Quelques résultats de l’interférométrie optique L’interférométrie optique est devenue, depuis les années 2000, une technique astronomique qui se répand rapidement, grâce à des résultats que ne permet nulle autre méthode. Pour en juger, la figure 6.48 montre les performances astrométriques, obtenues dans les années 1970 avec les tout premiers interféromètres optiques, qui se limitaient à la mesure – importante – de diamètres stellaires et à celle d’orbites de systèmes stellaires doubles serrés, conduisant à la détermination de la masse de ces étoiles. La figure 6.49 montre la précision qu’il est possible d’atteindre en 2006 dans la mesure d’une visibilité, et l’exploitation de la variation de celle-ci avec la longueur d’onde pour préciser finement la distribution radiale d’intensité reçue d’une atmosphère stellaire. Dans l’exemple choisi ici, l’observation interférométrique d’étoiles Céphéides, essentielles pour la détermination des distances dans l’univers, permet d’affiner la précision de cette échelle fondamentale.
6. Formation des images et diffraction
305
Fig. 6.48 – Les toutes premières performances astrométriques (1977) de la synthèse d’ouverture dans le visible : observation du système double Capella (α Aurigae) A et B. Cercles : les deux composantes stellaires, résolues et représentées avec leur diamètre apparent. x : orbite prédite pour B (Finsen). Hachures : positions mesurées de B à différentes époques (les bases projetées sur le ciel sont indiquées à ces mêmes dates, notées en jour julien). Noter la résolution, excellente dans la direction de la base et très mauvaise dans la direction perpendiculaire. Mesures obtenues au plateau du Calern, France, avec deux télescopes de 25 cm. (D’après Blazit A. et al., Ap. J., 217, L55, 1977. Avec l’aimable autorisation de l’Astrophysical Journal.)
6.5.3
L’interférométrie optique dans l’espace
Les difficultés liées à la présence de l’atmosphère terrestre, comme celles dues à la rotation de la Terre (nécessité de lignes à retard constamment variable) ont été assez soulignées pour que l’espace apparaisse comme le lieu désirable de mise en œuvre d’interféromètres optiques, du visible à l’infrarouge lointain. Mais on ne saurait sous-estimer les difficultés d’un autre ordre qui s’y présentent : nécessité de télescopes volant en formation dès que les bases dépassent la dizaine de mètres et qu’une poutre-support n’est plus utilisable ; variation des bases pour échantillonner les fréquences spatiales ; maintien des
L’observation en astrophysique
Visibilité carrée
306
Longueur d’onde micromètre
Fig. 6.49 – Première mise en évidence, par interférométrie, de la présence de matière interstellaire autour d’une étoile Céphéide. La visibilité (en module carré) V(λ)2 de l’étoile l Carinae est tracée en fonction de λ, telle que mesurée par l’instrument midi dans la fenêtre atmosphérique autour de λ = 10 μm, sur le vlti, avec deux télescopes de 8.2 m, distants de D = 40 m, ce qui fixe la fréquence spatiale D/λ à chaque λ. La précision sur V(λ)2 est limitée par le bruit thermique et atmosphérique à ces longueurs d’onde. L’étoile, réduite à sa seule photosphère (rayon 2.70 mas), n’est pratiquement pas résolue, alors que les | V(λ) |2 mesurées indiquent la présence d’une enveloppe résolue, de rayon 8 ± 3 milliarcsec. Ces enveloppes traduisent une éjection périodique de matière par l’étoile pulsante. (Document Pierre Kervella. Voir Kervella, P. et al. Astron.Astroph. (2006) 448, 623.) trajets optiques à une fraction de longueur d’onde près. C’est pourquoi, malgré de très nombreux projets, les premiers interféromètres optiques spatialisés n’apparaîtront qu’à l’horizon des années 2010-2020. Deux de ces missions, à l’étude, sont présentées ici. La mission sim PlanetQuest (nasa). Cette mission astrométrique est destinée à l’étude des planètes extrasolaires d’une part, à la mesure ultraprécise de la parallaxe des étoiles de la Galaxie d’autre part34 . Une poutre de 9 m de long, orientable dans l’espace, porte une série de télescopes de 30 cm, dont les combinaisons forment plusieurs interféromètres. Le plan focal de recombinaison est équipé d’un détecteur ccd, sur lequel se forment les 34 Voir la description détaillée et mise à jour de la mission sim à l’adresse du Jet Propulsion Laboratory (jpl), Californie : planetquest.jpl.nasa.gov/sim/.
6. Formation des images et diffraction
307
franges, dans le domaine spectral 0.4 à 0.9 μm. L’instrument, placé en orbite autour du Soleil, s’éloignera lentement de la Terre au cours de sa mission de cinq années. La spécificité de sim (Space Interferometry Mission) est sa résolution angulaire. La résolution due à la diffraction, λ/D, est de 20 millisecondes d’angle (20 mas). Deux facteurs toutefois permettent de dépasser considérablement cette limite. Le premier est la stabilité instrumentale, puisqu’en l’absence d’atmosphère les franges sont stables à mieux que λ/100 pendant plusieurs minutes, permettant de longues intégrations temporelles, donc une sensibilité extrême (magnitude limite mV = 20). Le second facteur est le fonctionnement en mode différentiel, comparant la position de deux objets proches par le décalage observé des franges produites par l’un et l’autre. C’est ainsi que les performances spécifiées pour sim sont comprises entre 1 et 4 microsecondes d’angle (μas). La mission sim pourrait être lancée au milieu de la décennie 2010. Pour la détection des planètes extrasolaires, sim n’observe pas directement la planète, trop faible, mais mesure la distance angulaire entre l’étoile E qui pourrait l’abriter et une étoile de référence lointaine ER . Au cours du temps, l’angle entre E et ER varie pour plusieurs raisons – mouvements propres des deux étoiles, différences de parallaxes –, mais aussi si E possède une planète, tournant comme E autour du centre de masse du système. Avec une sensibilité de quelques μas, la détection de planètes, de masse comparable voire inférieure à celle de la Terre, est possible, après avoir éliminé les deux autres effets qui peuvent être indépendamment connus. Pour mesurer la distance d’une étoile de la Galaxie, sim mesure sa parallaxe au cours de l’année, par l’observation simultanée et souvent répétée de l’étoile et d’une étoile de référence, appartenant à une grille de référence répartie sur tout le ciel. Avec une résolution ultime de 4 μas, soit la parallaxe d’un objet à une distance de 250 kpc, sim peut atteindre avec une grande précision des étoiles situées dans presque toute l’étendue de la Galaxie. Avec ces deux objectifs, la mission sim complète heureusement les missions Corot et Kepler pour l’étude des exoplanètes, et la mission Gaia pour l’astrométrie (cf. § 4.2). La mission Darwin (esa). Proposé en 1993, soit peu avant la découverte de la première planète extrasolaire (1995), le concept de cette mission35 s’appuie sur la technique de nulling ou interférométrie à frange noire. Cette méthode est décrite en détail plus loin (§ 6.6), à propos des différentes techniques de coronographie. Limitons-nous ici à indiquer qu’un réseau (Fig. 6.50, cahier couleur) de quelques télescopes, de 3 à 4 m de diamètre, est placé dans un plan perpendiculaire à la direction visée, et forme en un foyer commun une frange d’interférence noire à la position de l’étoile, tandis qu’à la position 35 La complexité et le coût de cette mission sont à mettre en balance avec l’extraordinaire objectif qui est le sien, lié à la détection d’une vie éventuelle sur une exoplanète. Aussi, en 2007, est-elle à nouveau proposée à l’Agence spatiale européenne.
308
L’observation en astrophysique
suspectée de la planète l’interférence demeure constructive, conduisant à un maximum de lumière, qu’il faut alors distinguer du bruit de fond, ou de la lumière exozodiacale éventuelle, due à des poussières présentes dans le système planétaire (comme dans le système solaire). L’instrument fonctionne entre les longueurs d’onde 6.5 et 18 μm, afin de maximiser le contraste entre étoile et planète d’une part, à se trouver dans le domaine spectral où se situe la signature spectrale de l’ozone O3 d’autre part. Une faible résolution spectrale (R = 20) suffit à mettre éventuellement cette molécule, liée à la présence d’oxygène. Placé au point de Lagrange L2, il est relativement facile de le protéger ainsi du rayonnement de la Terre, du Soleil et de la Lune, puisque vus de L2 ces trois objets demeurent pratiquement alignés au cours du temps. Interférométrie et rayonnement X Maintenir l’égalité des trajets optiques à une faible fraction de la longueur d’onde est déjà difficile aux longueurs d’onde du visible. Comment imaginer de pouvoir le faire à des longueurs d’onde mille fois plus courtes, de l’ordre du nanomètre, afin de résoudre l’émission X se produisant au voisinage immédiat d’un trou noir ? C’est ce défi que se propose de résoudre un concept de mission spatiale appelée maxim36 , étudiée par la nasa. L’environnement du trou noir de la galaxie M87 (cf. Fig. 6.36), d’une masse M = 108 M , est une source X intense. Le trou noir possède un rayon de Schwarzschild de 1011 m, ce qui demanderait à la distance de 18 Mpc une résolution de 0.05 μas pour le résoudre. L’obtention de franges d’Young à l’aide de rayons X au laboratoire est acquise37 , et découle naturellement de leur nature ondulatoire. Dans l’espace, considérant un rayonnement X autour de 1 keV (λ ≈ 1 nm), une résolution angulaire de 200 μas est accessible à l’aide d’une base B = 1 m, et des télescopes de 100 cm2 fournissent une sensibilité comparable à celle de missions comme Einstein et Rosat. Mais la difficulté tient à la détection des franges. D’une part, il faut amplifier leur séparation en faisant interférer les faisceaux (deux ou davantage, selon le nombre de pupilles utilisées) sous un très petit angle : pour obtenir un interfrange de 100 μm avec des X de longueur d’onde 1 nm, l’amplification requise est de 105 , donc requiert un angle de 10−5 rd. La distance entre la structure portant les miroirs et le plan focal est donc de 105 B, soit 100 km au moins. Comme dans les missions Darwin ou Lisa, il faut réussir une navigation de précision entre satellites indépendants (vol en formation), ici entre la structure portant les miroirs et celle portant les détecteurs. D’autre part, il faut une sélectivité spectrale suffisante pour ne pas être contraint de se situer à la ddm zéro et trouver les franges : une résolution spectrale de 102 à 103 est requise dans ce but, elle conduit à des franges observables sur plusieurs millimètres. 36 Les différents concepts de la mission maxim sont maxim.gsfc.nasa.gov/docs/pathfinder/pathfinder.html. 37 Voir casa.colorado.edu/ wcash/interf/cuxi/FringeWriteup.html.
décrits
sur
6. Formation des images et diffraction
309
Dans une seconde étape, on peut imaginer d’augmenter la base, en séparant les satellites portant chacun des miroirs collecteurs. Ces missions ambitieuses, dont l’étude technologique est complexe, ne se produiront guère avant les années 2020-2030.
6.6
L’imagerie à très haute dynamique
En faisant l’image de certains objets astronomiques, il arrive de rencontrer des situations particulières, où le contraste d’intensité entre diverses parties du champ observé est extrêmement élevé – pouvant dépasser 106 . C’est, par exemple, le cas de la couronne solaire au voisinage de la photosphère du Soleil, celui de disques circumstellaires ou d’exoplanètes non loin d’une étoile, de noyaux actifs de galaxies. Le terme générique de coronographie désigne l’ensemble des méthodes qui visent à obtenir l’image d’un champ de faible brillance autour d’une source intense en masquant efficacement celle-ci. On les qualifie également d’imagerie à haut contraste, ou à très haute dynamique (ithd).
6.6.1
Coronographie et apodisation
Dans le cas d’une source quasi ponctuelle (étoile ou noyau actif de galaxie), entourée de structures (disques, planètes) très proches d’elle angulairement, la famille de techniques utilisables relève bien du domaine de la haute résolution angulaire, d’autant qu’optique adaptative et interférométrie y interviennent de façon privilégiée. Les dynamiques recherchées peuvent être considérables, et atteindre 109 -1010 . Coronographie a pour racine latine corona, la couronne ; c’est en effet la couronne solaire dont Bernard Lyot38 , l’inventeur de cette technique, chercha à détecter l’image dans les années 1940-1950, en masquant le disque solaire, un million de fois plus brillant que la couronne, pour révéler la flamboyance de celle-ci. Après les travaux de Lyot, dont l’idée puissante aura été de placer un masque non seulement dans le plan focal, mais aussi dans un plan conjugué de celui de la pupille, la seule innovation notable durant quelques décennies fut celle apportée par Jacquinot39 : il eut l’idée de diminuer l’amplitude des pieds de la figure de diffraction de la source brillante en modulant la transmission de la pupille ; c’est le principe de l’apodisation déjà brièvement exposé § 6.1. Ce n’est qu’au début des années 2000, à la suite de la découverte des premières planètes extrasolaires, que ce domaine connaît un extraordinaire 38 Bernard Lyot (1897-1952), astronome français. À partir d’images prises à l’observatoire du Pic-du-Midi, Lyot produisit un film magnifique, Flammes du Soleil, qui révéla au grand public l’activité coronale du Soleil. 39 Pierre Jacquinot (1910-2002), opticien français dont les travaux conduisirent notamment au spectromètre à transformée de Fourier (cf. § 8.3).
310
L’observation en astrophysique
renouveau : l’ambition de former l’image de telles planètes en orbite autour de leur étoile devient un moteur puissant qui conduit à une explosion d’idées et de concepts nouveaux. On doit bien en réaliser l’extrême difficulté : il s’agit de capter et d’identifier, à une distance angulaire typique de 0.1 seconde d’angle d’une étoile, les photons d’un compagnon d’éclat 1010 fois (25 magnitudes) plus faible, ces valeurs correspondant au cas d’un système Soleil-Terre situé à 10 pc de l’observateur (cas d’école fréquemment utilisé). Le problème général Dans quasiment toutes les solutions imaginées, le principe du masquage ou de l’extinction de la source brillante demeure la règle, car la moindre fuite de ses photons est catastrophique ; en outre, les ailes de sa figure de diffraction, qui s’étendent loin, sont source de bruit de photon. Au moyen du formalisme de Fourier, exprimons d’abord le problème de façon générale en considérant le système optique décrit par la figure 6.51 (partie inférieure) où : a) la pupille d’entrée permet d’introduire une modulation d’amplitude de l’onde incidente ; b) un masque de phase et/ou d’amplitude est placé dans le plan focal sur l’axe de la source brillante ; c) une image de la pupille est formée à nouveau sur un diaphragme pupillaire, afin de bloquer la lumière diffractée résiduelle. Soit u(x, y) l’amplitude dans le plan pupille (1 dans la pupille, 0 en dehors s’il n’y a pas de modulation), l’amplitude dans le plan focal est alors : v(x, y) = u ˜(x, y), u ˜ étant la transformée de Fourier de u. L’application du masque focal revient à écrire : v(x, y) = u˜(x, y)[1 − M (x, y)], où M est un complexe dont le module (≤1) et l’argument décrivent respectivement l’atténuation et le déphasage introduits par le masque ; en particulier, M vaut 1 là où le masque est opaque et M = 1 − exp jπ là où le masque déphase de π. Dans le plan pupille conjugué, l’amplitude devient alors : ˜ ) × D, w = v˜ = (u − uM où D est la fonction diaphragme. L’amplitude w résulte ainsi de la différence entre l’onde directe et l’onde diffractée, différence à laquelle est appliquée finalement le diaphragme pupillaire. Le problème général qu’on se pose en imagerie à très haute dynamique est de rendre w nul ou minimum à l’intérieur du diaphragme. Si on considère l’espace de ces paramètres libres que sont la modulation d’amplitude de l’onde transmise par la pupille, les modulations d’amplitude et de phase de l’onde transmise par le masque focal, l’amplitude de l’onde transmise par le diaphragme pupillaire et la forme de ce dernier, on comprend mieux qu’une multiplicité de solutions, la plupart approchées, ait été proposée. Cependant, on peut considérer deux grandes familles de solutions qui se basent sur ce schéma : celles qui jouent sur un masque focal, regroupées sous le terme de coronographie, et celles – rassemblées sous le nom d’apodisation – qui
6. Formation des images et diffraction
311
Fig. 6.51 – Configuration du coronographe de Lyot. En haut : sans diaphragme pupillaire, des ailes de la fep apparaissent dans le plan image final à cause de la lumière diffractée (rayons extérieurs). En bas : l’introduction du diaphragme pupillaire permet de bloquer cette contribution. On notera la lentille placée au plan focal B qui permet de former une nouvelle image de la pupille (en C) et la lentille dans le plan de cette image qui permet de former (en D) une image conjuguée du plan focal.
cherchent à reconfigurer la fep, soit sur un support borné, soit en ménageant dans le champ final des régions à faible brillance résiduelle. Enfin, on désignera sous le terme général de méthodes interférométriques toutes les autres solutions, qui utilisent une configuration optique plus sophistiquée que celle de la figure 6.52 et par lesquelles l’on vise explicitement à produire des interférences destructives pour éteindre la source brillante. Coronographie Le problème que se posait Lyot à propos de la couronne solaire était de réduire considérablement la lumière du disque solaire, diffractée et diffusée par tous les défauts de l’optique. – Le coronographe de Lyot. La première idée, naturelle, est d’interposer dans le plan focal un masque opaque légèrement surdimensionné par rapport à l’image de la photosphère solaire. Ce que note alors Lyot,
312
L’observation en astrophysique
Plan pupille
)
Plan image
)
)
)
)
)
)
Plan diaphragme
)
)
)
)
)
Fig. 6.52 – Décomposition de l’amplitude de l’onde dans les différents plans d’un système coronographique. Du haut vers le bas : a) plan pupille ; plan image : b) fep, c) masque et d) leur produit ; plan du diaphragme décomposé en ses différents éléments : e) onde directe, f ) onde diffractée, g) différence, h) effet du diaphragme pupillaire. À gauche : cas d’un coronographe de Lyot (pastille opaque). À droite : cas d’un coronographe de Roddier & Roddier (pastille déphasante de π). (D’après Soummer 2003.)
c’est que la diffraction par le masque lui-même, mais aussi par tous les petits défauts de l’optique – poussières ou défauts de phase – est source d’un important fond diffus.
6. Formation des images et diffraction
313
En effet, imaginons une particule opaque de dimension d dans le plan focal : elle diffracte une onde provenant d’une direction donnée dans un angle solide de demi-angle caractéristique θ = λ/d. Si d est, par exemple, de l’ordre de la taille de la tache de diffraction, soit f λ/D (f est la focale du télescope et D son diamètre), alors θ = D/f , c’est-à-dire le même angle que celui du faisceau géométrique. La convolution des deux angles solides (géométrique et diffracté) fait qu’une partie notable de la lumière se retrouve à l’extérieur du faisceau géométrique (de l’ordre de 75 % dans notre exemple). Si on interpose dans un plan conjugué de celui de la pupille un masque opaque percé d’une ouverture circulaire de dimension légèrement plus petite que la pupille géométrique, alors l’essentiel de cette lumière diffractée est bloqué, tandis que la lumière d’un autre point du champ, non affecté par notre particule, suit le trajet de l’optique géométrique et n’est pratiquement pas affectée. La figure 6.51 illustre cette configuration. Examinons plus précisément ce résultat au moyen du formalisme de Fourier introduit ci-dessus. Dans l’expression ˜ ) × D, w = T F (v) = (u − uM D et M sont ici des fonctions porte – ou chapeau haut-de-forme – (de valeur 1 à l’intérieur du rayon de la pastille ou du diaphragme, ˜ est une fonction sinus cardinal d’autant plus large 0 en dehors). M que le masque est étroit. La partie gauche de la figure 6.52 illustre l’évolution de l’amplitude de l’onde dans les différents plans successifs et notamment les différentes composantes de l’amplitude dans le plan pupille (plan C) : l’onde directe (e), l’onde diffractée par le masque (f ), leur différence avant (g) et après (h) l’interposition du masque. On constate que le maximum d’intensité (module carré de l’amplitude) est concentré au niveau du rayon de l’image de la pupille sous forme d’un anneau brillant : c’est ce qu’avait remarqué Lyot. On comprend alors pourquoi le diaphragme pupillaire doit être sous-dimensionné par rapport à l’image géométrique de la pupille pour que la lumière diffractée soit efficacement bloquée.
– Coronographe de Roddier & Roddier40 . Ces astronomes ont eu l’idée de remplacer le masque focal d’amplitude par un masque de phase, c’està-dire une pastille transparente dont l’épaisseur produit une différence de marche. Si celle-ci vaut λ/2, elle introduit alors un déphasage de π, autrement dit un changement de signe de l’amplitude. La relation établie pour le masque de Lyot devient alors : v(x, y) = u˜(x, y)[1 − 2M (x, y)], 40 François Roddier, né en 1936 et Claude Roddier, née en 1938, astronomes et opticiens français.
314
L’observation en astrophysique et dans le plan pupille conjugué : ˜ ) × D. w = T F (v) = (u − 2uM Si la taille du masque de phase est judicieusement choisie (rayon = 0.53 λ/D), alors l’extinction est très efficace et l’amplitude de w peut-être encore réduite par rapport à la solution de Lyot, comme l’illustre la partie droite de la figure 6.52. On peut interpréter l’efficacité accrue de cette solution en considérant que l’onde incidente a été partagée en deux parties, d’amplitudes intégrées à peu près égales, l’une des deux subissant un déphasage de π : l’interférence destructive de ces deux ondes produit l’effet d’extinction recherché.
– Coronographe de Rouan41 . Cette solution est également fondée sur le principe d’un masque de phase produisant des interférences destructives. Le masque, qui affecte l’ensemble du champ focal, consiste en la juxtaposition de quatre quadrants dont deux, diagonalement opposés, présentent un déphasage de π (Fig. 6.53-a). On montre alors qu’une source parfaitement centrée à la croisée des quadrants est totalement éteinte, c’est-à-dire que w = 0 uniformément dans la pupille, la lumière diffractée étant intégralement rejetée à l’extérieur de celle-ci. La condition d’une pupille pleine – pas d’obstruction centrale du télescope en particulier – est cependant requise pour que la propriété soit ˜ vraie. C’est l’un des cas recherchés où w = 0. En effet, le terme uM 1 se réduit ici au produit de convolution P upille xy , qui n’est autre que 1 l’intégrale de la fonction xy sur un domaine correspondant à un disque excentré, comme illustré sur la figure 6.53-b. En utilisant la puissance d’un point par rapport à un cercle, on montre de façon élégante (Jean Gay, 2002) que cette intégrale est strictement nulle quel que soit l’excentrement. Plusieurs coronographes basés sur ce principe ont été installés sur des télescopes : deux dispositifs, fonctionnant à 2.2 μm, sur le système d’optique adaptative naco du vlt, trois autres dans la caméra miri (Mid Infra-Red Instrument, l’un des quatre instruments focaux du télescope jwst (James Webb Space Telescope) que développe la nasa en collaboration avec l’Europe. Ce dernier instrument (lancement ≈ 2014) se donne pour objectif la détection directe de planètes extrasolaires géantes dans le domaine 11-16 μm. L’instrument sphere (Spectro-Polarimetric High-contrast Exoplanet Research, destiné en 2010 au vlt, vise avec de tels composants un objectif analogue, mais à plus courte longueur d’onde. 41 Daniel
Rouan, né en 1950, astronome français.
6. Formation des images et diffraction
315
(a)
(b)
Fig. 6.53 – Coronographe à masque de phase à quatre quadrants. Dans le plan focal, l’image de l’étoile à éteindre est placée au centre de symétrie du masque. a) Schéma du composant. b) Fonction à intégrer pour obtenir l’amplitude dans la pupille. On comprend que l’intégrale puisse être nulle, quel que soit l’excentrement. – Masque à encoche. Cette solution met aussi en jeu un masque focal mais ici, c’est la transmission qui est modulée par un masque, dit à encoche (notch filter en anglais) dont la transmission radiale varie comme ˜ est une fonction porte et que 1 − sin r/r. On peut alors vérifier que M sa convolution avec u est plate dans une région importante, qui recouvre ˜ ) est donc nulle sur la une partie de la pupille. La quantité (u − uM majeure partie de la pupille, comme recherché, à l’exception d’une région annulaire sur laquelle est appliqué le diaphragme pupillaire. On notera que ce masque peut également n’avoir de modulation que dans une seule dimension. On note différentes limites à l’utilisation de masques focaux : ˜ soit les plus semblables (condition d’annulation a) Pour que u et uM ˜ soit proche d’une fonction δ, par conséquent à de w) il faut que M support étroit, donc que le masque focal – son conjugué de Fourier– soit à support large, ce qui ne s’accorde guère avec le fait qu’on recherche à former une image du champ au plus près de la source centrale. Le masque de phase à quatre quadrants fait exception qui, de fait, est de grande dimension car il s’étend sur tout le champ, mais qui conserve une bonne « transmission » près de l’axe. b) Le formalisme utilisé suppose que le front d’onde est parfaitement plan, ce qui dans la pratique n’est jamais le cas à cause des défauts
316
L’observation en astrophysique de l’optique et des perturbations atmosphériques. En particulier, l’utilisation d’un système d’optique adaptative est absolument requise dans le cas d’observations depuis le sol, car il est essentiel que la fep de la source brillante soit quasi cohérente et qu’elle soit maintenue très précisément sur l’axe du masque focal. C’est de fait la principale limitation des coronographes actuels (2007), y compris de ceux qui seront utilisés prochainement dans l’espace. Des méthodes pour réduire les conséquences de cette limitation sont exposées ci-dessous. c) Dans les systèmes à masque de phase, le déphasage introduit n’est pas indépendant de la longueur d’onde puisqu’on le réalise en général au moyen d’une lame d’épaisseur e et d’indice n (φ = 2πen/λ). Le composant n’est alors efficace que dans une bande spectrale étroite centrée sur la longueur d’onde λ = 2en. Diverses solutions ont été proposées pour rendre achromatique le déphasage de π. L’une des plus prometteuses, proposée par Mawet et collaborateurs, est sans conteste l’utilisation de réseaux d’ordre zéro ou zog (Zero Order Grating), des composants obtenus, via des nano-techniques, par gravure sur un substrat de sillons dont le pas est plus petit que la longueur d’onde (ils sont dits sub-lambda). On montre que de tels réseaux présentent des propriétés biréfringentes avec une différence d’indice entre axes ordinaire et extraordinaire, laquelle peut être rendue linéaire avec λ, ce qui revient à avoir un déphasage achromatique entre deux polarisations perpendiculaires. Il suffit alors de disposer sur deux quadrants opposés des sillons suivant une direction, et sur les deux autres quadrants des sillons perpendiculaires. Quel que soit l’état de polarisation de la lumière incidente, le déphasage de π recherché est bien introduit. Dans cette même ligne d’idées, mentionnons la solution très élégante de l’Achromatic Groove Phase Mask (agpm) qui reprend le principe du zog mais dans une géométrie à symétrie circulaire des sillons sub-lambda : l’effet de différence de marche différentielle entre deux polarisations perpendiculaires est bien obtenu, comme dans le zog à quatre quadrants, mais l’effet de frontière entre quadrants disparaît, ce qui est un avantage non négligeable. La figure 6.54 donne une idée plus précise des solutions fondées sur l’utilisation de zog.
Apodisation Pour cette famille de techniques, on jouera plutôt sur la fonction u dans ˜ ). l’équation w = T F (v) = (u − uM Deux buts sont recherchés : i) faire que les pieds de la fep de la source brillante ne s’étendent pas, ou au moins décroissent de façon plus abrupte que dans une tache d’Airy classique (où l’intensité décroît en moyenne en θ−3 ) ; ii) arrondir le profil u de la pupille pour qu’il épouse au mieux le profil de ˜ . En effet on a l’onde diffractée, c’est-à-dire le produit de convolution uM ˜ est à support large, aussi le vu qu’un masque focal étroit implique que M
6. Formation des images et diffraction
317
Fig. 6.54 – Coronographe à masque de phase à quatre quadrants dans une version zog. Les quadrants sont gravés de sillons au pas p < λ, au moyen de nanotechniques. La biréfringence de forme ainsi introduite permet d’obtenir le déphasage de π recherché entre quadrants, comme l’illustrent les deux schémas détaillant les composantes du champ électrique. produit de convolution est-il décrit par une fonction plus proche d’une cloche que d’un chapeau haut-de-forme. – Pupille à contour non circulaire. Une première solution est de considérer des formes d’ouverture particulières telles que, dans une ou plusieurs directions privilégiées, le profil de la fep décroisse beaucoup plus rapidement que la tache d’Airy. C’est en particulier le cas d’une pupille carrée : dans les directions correspondant aux diagonales, le profil de la brillance de la fep varie en effet en θ4 , alors qu’il ne décroît que comme θ2 dans toute autre direction. Une autre solution proposée par Kasdine et Spergel est de considérer des ouvertures en forme de gaussienne : la figure 6.55 présente une telle pupille, la fep correspondante et le profil de brillance dans la direction optimale. D’autres combinaisons où plusieurs gaussiennes de profils différents sont juxtaposées sont également possibles.
Fig. 6.55 – Configuration du coronographe de Kasdine-Spergel. Pour toutes ces solutions, la partie du champ à fort contraste, c’est-à-dire où l’on peut rechercher des structures à faible niveau, est limitée : on doit
318
L’observation en astrophysique en particulier envisager de faire tourner le télescope sur son axe optique pour explorer tout l’environnement d’une source.
– Masque pupillaire à transmission variable. Si M est une fonction en tout ou rien (1 ou 0), alors Aime et Soummer montrent que l’équation ˜ ) × D = 0 constitue en fait un problème aux valeurs w = (u − uM propres dont la solution est un couple [u = Φ, Λ ] où la valeur propre (si elle existe) est Λ = 1/. De telles solutions existent dans le cas du coronographe de Roddier-Roddier ( = 2) pour une ouverture circulaire ou rectangulaire : la fonction Φ est alors une fonction mathématique particulière, à savoir une prolate sphéroïdale linéaire ou circulaire. Dans le cas du coronographe de Lyot ( = 1), il n’y a pas de solution exacte, mais on définit des solutions approchées à partir de ces mêmes fonctions, solutions dont l’efficacité est d’autant plus grande que le masque est large. Ce qui est remarquable dans ce cas, c’est le fait que l’amplitude de l’onde diffractée par le masque est proportionnelle à l’amplitude dans la pupille d’entrée : on peut donc réitérer le processus en mettant en série des couples identiques masque focal/diaphragme pupillaire, chacun introduisant un même facteur de réduction de la lumière stellaire : l’extinction croît donc de façon exponentielle avec le nombre d’étages. Ce concept est à l’étude pour l’instrument sphere destiné au vlt. La difficulté de réalisation d’un masque où la transmission doit varier suivant une loi très précise semble pouvoir trouver une solution avec l’utilisation de matériaux dits hebs (High Energy Beam Sensitive) qui peuvent s’opacifier de façon stable sous l’effet d’un bombardement électronique énergétique. En pilotant par un ordinateur le balayage d’un faisceau électronique fin sur un film hebs, préalablement déposé sur une lame de verre, on peut obtenir un masque avec un profil de transmission précis.
Dans cette même famille des masques pupillaires apodisants, on doit citer la très élégante solution du piaa (Phase Induced Amplitude Apodization) proposée par Olivier Guyon. Pour pallier l’inconvénient de la dégradation de résolution et de transmission équivalente (un masque pupillaire absorbant nécessairement de la lumière) induit par une modulation d’amplitude classique, Guyon propose de jouer sur la forme des surfaces optiques pour concentrer ou diluer les rayons lumineux dans la pupille de sortie d’un système afocal, comme l’illustre la figure 6.56. L’effet d’apodisation sur la psf est le même que celui d’un masque pupillaire mais sans ses inconvénients : la surface collectrice du miroir primaire du télescope est utilisée intégralement. Les surfaces optiques capables de produire les distributions de brillance recherchées sont très asphériques, et comme le montage
6. Formation des images et diffraction
319
optique ne respecte plus les conditions de Gauss, le champ utile devient très petit. Ce n’est cependant pas un problème sérieux, les structures recherchées – comme des exoplanètes – étant toujours très proches, angulairement parlant, de l’axe optique où se trouve la source brillante. De plus, en utilisant après le passage par un masque coronographique un système optique identique mais inversé – une simple pastille de Lyot convient parfaitement, la fep obtenue étant à support borné –, on rétablit les propriétés d’isoplanétisme du champ. La difficulté principale de cette solution est la production des surfaces asphériques, particulières, dont le rayon de courbure doit varier sur plusieurs ordres de grandeur le long d’un diamètre.
Fig. 6.56 – Configuration du coronographe de Guyon.
Solutions interférométriques Les dispositifs mettant en jeu des masques de phase, quoique inspirés par les principes de Lyot, utilisent déjà le principe d’une interférence destructive de l’onde provenant de la source brillante. On présente dans cette dernière partie les méthodes qui visent explicitement à créer de telles interférences destructives, sans reprendre le schéma masque focal + diaphragme pupillaire, proposé à l’origine par Lyot.
320
L’observation en astrophysique
– Le coronographe interférométrique achromatique. C’est en fait une telle méthode, proposée par les astronomes français Jean Gay et Yves Rabbia, qui a inauguré le renouveau de la coronographie à la fin des années 1990. Le concept du coronographe interférométrique achromatique (cia) repose sur l’idée d’un interféromètre de Michelson afin de faire interférer de façon destructive l’onde de la source brillante avec elle-même, l’idée nouvelle étant de retourner l’onde dans un des bras de l’interféromètre, en la faisant passer par le foyer d’un système optique. Seule l’onde strictement sur l’axe restera parallèle à son homologue dans l’autre bras et pourra donc uniformément interférer de façon destructive avec celle-ci ; en revanche, une onde avec une petite incidence θ (celle provenant d’un compagnon proche, par exemple) se croisera avec son homologue, à la sortie recombinée, suivant un angle 2θ, prévenant toute interférence efficace. De plus, si l’on se rappelle que le passage par un foyer introduit un déphasage de π – donc un changement de signe de l’amplitude –, alors les deux bras de l’interféromètre peuvent être strictement égaux, ce qui simplifie la conception, mais surtout permet une interférence destructive quelle que soit la longueur d’onde, un avantage appréciable qui justifie la qualification d’achromatique dans le nom du dispositif42 . Le Visible Nulling Coronagraph (Lyon, 2005) est une autre variation sur le thème de l’interférence destructive. Dans ce concept qui met également en jeu un interféromètre de type Michelson, on retrouve de fortes analogies avec le cia, la différence principale étant que l’un des deux faisceaux n’est pas retourné mais simplement un peu translaté d’une distance B (ramenée au niveau de la pupille d’entrée, c’est-à-dire le diamètre du télescope) : les pupilles se recouvrent largement suivant une figure en œil de chat. Le déphasage de π, pour assurer l’interférence destructive sur l’une des deux sorties de l’interféromètre, est introduit par un ajustement de la différence de marche dans l’un des bras. L’effet de la translation d’une pupille par rapport à l’autre est alors analogue à celui obtenu dans un interféromètre à frange noire à deux télescopes dont la base serait simplement B : le champ du télescope est modulé par une série de franges alternativement sombres (éteintes) et brillantes (transmissive), la source à atténuer étant placée sur une frange sombre. L’avantage supplémentaire apporté par cette configuration est que l’opération peut être répétée en injectant la sortie éteinte dans un deuxième interféromètre semblable, mais appliquant une telle séparation/translation dans une direction perpendiculaire. Le profil d’extinction devient alors une fonction en θ4 , plus efficace pour atténuer l’étoile. La figure 6.57 précise le principe de cette solution. 42 Le concept pourrait évoluer vers un dispositif très compact, le ciaxe qui, pour assurer les fonctions recherchées, utilise de façon astucieuse des réflexions sur des dioptres dans deux lentilles épaisses. Il s’agit néanmoins d’un système optique d’une réalisation extrêmement difficile et qui n’a pas encore pu voir le jour en 2007.
6. Formation des images et diffraction
321
On notera qu’il s’agit tout de même, au final, d’un système optique très complexe à mettre en œuvre.
Fig. 6.57 – Schéma et principe du Visible Nulling Coronagraph de Lyon et Shao. S = séparatrice, M = miroir dièdre.
Enfin pour conclure cette partie liée aux solutions interférométriques monopupille, on citera deux méthodes qui complètent les instruments imaginés pour éteindre la source brillante. La limitation majeure que toutes ces solutions rencontreront effectivement quand elles devront être mises en œuvre pour atteindre les performances extrêmes, exigées par la détection de planètes extrasolaires, telles que celles mentionnées en introduction, sera l’impossibilité de distinguer une planète réelle d’une tavelure (speckle) due aux défauts résiduels, même très petits, de l’optique. Des défauts de l’ordre de seulement une dizaine de picomètres sur le front d’onde d’un très grand télescope peuvent en effet très aisément simuler une planète semblable à la Terre !
322
L’observation en astrophysique
– La Self Coherent Camera. Dans cet instrument, proposée par Pierre Baudoz, on met à profit le fait que les photons stellaires et les photons planétaires sont incohérents entre eux. Si on fait interférer l’image coronographique finale avec un faisceau, détourné en amont, de pure lumière stellaire, les tavelures résiduelles seront modulées par un système de franges, tandis que la tache que forme la planète potentiellement présente ne le sera pas. Une analyse fine de ces franges, par des méthodes utilisant une transformée de Fourier, permettrait alors, en principe, de lever les ambiguïtés. – Annulation des tavelures. Une autre méthode pour réduire des tavelures résiduelles, proposée par Traub et Bordé (2005), consiste à les mesurer puis les annuler à l’aide d’un miroir déformable. Dans un premier temps, on applique à ce dernier une série bien choisie de formes d’onde d’amplitude très petite, de l’ordre des défauts résiduels du front d’onde après passage par le coronographe, quel qu’en soit le type. On est alors capable par une analyse de la série d’images finales, augmenté d’un peu d’algèbre linéaire, de synthétiser la bonne forme d’onde à appliquer au miroir pour corriger ces défauts résiduels. En quelques itérations, le processus doit converger. Cette solution est fondée sur une propriété remarquable du champ électrique dans la pupille après passage par un coronographe : en première approximation il est directement proportionnel à la phase perturbée Φ, car dans le développement limité de l’amplitude en entrée, exp jΦ ≈ 1 + jΦ, seul le premier terme disparaît suite à l’action du coronographe. Dit autrement, un coronographe parfait n’est capable d’éteindre que la partie cohérente de l’image de la source brillante.
Laquelle de ces méthodes sera capable de mener à bien le pari de former l’image d’une planète en orbite autour d’une étoile de la séquence principale ? Nul en 2007 ne s’avancerait à répondre à cette question. L’activité dans cette branche instrumentale demeurera vive dans les années à venir et, au-delà de la conception d’un système optique théoriquement excellent, la question de sa mise en œuvre dans un monde réel devient une préoccupation majeure. Une opinion claire se dégage déjà sur un point essentiel : seul un système complet (télescope + optique adaptative dite extrême + instrument focal), totalement dédié à cet objectif, doit être envisagé pour obtenir un jour l’image d’une sœur de la Terre.
6.6.2
L’interférométrie à frange noire
Une variante de la coronographie est présentée ici : il s’agit encore d’utiliser des propriétés d’interférence pour réduire l’extrême contraste d’intensité existant entre deux objets très proches – le plus souvent un couple étoile-planète –,
6. Formation des images et diffraction
323
et distinguer le plus faible ; mais ici la solution passe par la recombinaison interférométrique de plusieurs télescopes. La dénomination d’interférométrie à frange noire pourrait d’ailleurs être avantageusement remplacée par celle d’interférométrie coronographique, qui est employée § 9.6. Principe Cette méthode d’interférométrie à frange noire complète heureusement la coronographie classique : en effet, celle-ci est une technique dont le domaine d’application est avant tout celui du visible et de l’infrarouge proche. Car c’est seulement à ces longueurs d’onde que la résolution angulaire d’un grand télescope est de l’ordre de grandeur de l’angle sous-tendu par une orbite planétaire typique de 1 u.a. à une distance de 10 pc. S’il existe bien des signatures spectrales de la vie dans ce domaine du visible – pour schématiser, celle de l’oxygène et celle de la fonction chlorophyllienne –, cependant le contraste étoile/planète y demeure extrêmement élevé (typiquement 1010 ). En revanche, dans le domaine de l’infrarouge moyen, ce contraste est beaucoup plus favorable puisqu’il se situe plutôt au alentours de 106.5 . En outre, un ensemble de biosignatures moins ambiguës que celles observables dans le visible a été identifié : il s’agit de celles de l’ozone (bande à 9.7 μm), du dioxyde de carbone et de la vapeur d’eau (Fig. 6.58). Il a été montré que la présence simultanée de ces trois signatures pourrait constituer une indication très forte de la présence d’une vie, similaire à la vie terrestre : c’est la recherche de ce triplet qui est la pierre angulaire du programme Darwin (cf. supra), étudié par l’esa, tandis que le programme tpf-i de la nasa poursuit un but analogue, mais semble mis en veilleuse depuis la fin 2006. Une résolution angulaire de 0.1 seconde d’angle à 15 μm signifie soit un télescope monolithique de diamètre 30 m, dont la faisabilité est très loin d’être démontrée dans l’espace, soit un interféromètre de base supérieure à 30 m. C’est cette seconde voie qui a été privilégiée dans le projet Darwin proposé dès 1996 par Alain Léger et ses collaborateurs, en faisant l’hypothèse que des engins spatiaux pouvaient être maintenus dans un vol en formation stable et reconfigurable sans trop de difficultés. Il n’en reste pas moins que le problème de l’éblouissement par la lumière de l’étoile est aussi critique avec un interféromètre et qu’un procédé de blocage analogue de la coronographie doit être mis en œuvre. L’interféromètre de Bracewell. La solution à ce difficile problème avait été proposée par Ronald Bracewell43 dès 1978 dans un article fondateur, proposant le principe de l’interférométrie à frange noire (nulling interferometry). Ce principe, illustré par la figure 6.59, consiste à produire des franges d’interférences, projetées sur le ciel, en recombinant de façon interférométrique deux télescopes séparés d’une distance B. Si l’on s’arrange pour que d’une part 43 Ronald Bracewell (1921-2007), radio-astronome né en Australie, professeur à l’université de Stanford (Californie), a apporté de remarquables contributions à l’interférométrie des radiofréquences et au traitement du signal.
324
L’observation en astrophysique
Longueur d’onde
Fig. 6.58 – Le spectre infrarouge moyen de la Terre montre trois motifs spectraux dus à l’ozone, la vapeur d’eau et le dioxyde de carbone qui, s’ils sont observés ensemble, constituent une biosignature, a priori dépourvue d’ambiguïtés. En haut : spectres infrarouges (observés et modélisés) de la Terre vue à distance ; En bas : spectres de laboratoire de différents constituants atmosphériques. Voir aussi la figure 9.20.
l’étoile se retrouve sur une frange sombre, d’autre part le demi-interfrange corresponde à la distance séparant l’étoile de la planète recherchée, alors le contraste est optimal. Cependant on ne peut envisager de fonctionner à une longueur d’onde unique car l’éclat de la planète est extrêmement faible et l’information spectrale recherchée se situe dans un domaine vaste en longueur d’onde (5 à 17 μm pour l’instrument Darwin). Dans un interféromètre classique, seule la frange centrale brillante – celle correspondant à une différence de marche nulle – serait commune à toutes les longueurs d’onde, les systèmes de franges des différentes longueur d’onde se superposant et se brouillant mutuellement pour toute autre position dans le ciel. L’idée puissante de Ronald Bracewell fut d’insérer un déphasage de π, ne dépendant pas de la longueur d’onde, donc dit achromatique, dans l’un des bras de l’interféromètre : c’est alors une frange noire qui devient commune à tous les systèmes de franges. La placer sur l’étoile permet alors de réaliser une extinction efficace de celle-ci, sans limitation en bande spectrale. On remarque que le signal mesuré est la somme du flux de la (ou des) planète(s), des résidus de la lumière de l’étoile, enfin de la lumière zodiacale, locale au système planétaire observé. Cette dernière est en général appelée en abrégé exozodi. Elle correspond à la diffusion du rayonne-
6. Formation des images et diffraction
325
Fig. 6.59 – Le principe de l’interférométrie à frange noire (nulling interferometry), proposé par Bracewell. ment de l’étoile par un disque de poussières de taille micronique, résidu du disque protoplanétaire, et constitue une source puissante, d’une luminosité bien supérieure à celle de la ou des planètes. Pour distinguer la fraction propre à la planète, il faut pouvoir moduler le signal de celle-ci. Bracewell proposait de faire tourner l’interféromètre autour de l’axe de visée : la planète parcourt alors une trajectoire sur le système de franges projeté sur le ciel, devenant tantôt visible, tantôt éteinte, de sorte que seul le signal, modulé à la fréquence de rotation et conforme au patron attendu, traduise la contribution de la planète.
Difficultés Plusieurs difficultés se sont faites jour quand débuta l’étude plus détaillée de la mise en œuvre des principes énoncés par Bracewell, pour les appliquer à la détection des exoplanètes. Il est instructif d’analyser brièvement ces difficultés. – Taille angulaire non infiniment petite de l’étoile. L’interféromètre « annuleur », même s’il ne permet pas de résoudre à proprement parler le disque de la photosphère, laisse s’échapper des photons des zones les
326
L’observation en astrophysique plus périphériques de celle-ci : la cuvette d’extinction n’est en effet pas un créneau, mais bien une fonction parabolique de la distance angulaire, représentée par le développement limité de (1-cos θ). Certes, peu de photons s’échappent, mais le contraste planète / étoile est tel qu’ils sont malgré tout prépondérants et que leur bruit statistique devient une limitation rédhibitoire. Il est nécessaire de produire une extinction plus efficace, variant en θn avec n > 2. On montre qu’on doit alors faire appel à plus de deux télescopes. Plusieurs configurations permettant d’atteindre ce but ont été trouvées, de façon généralement empirique. La croix d’Angel, l’une des plus simples, produit une cuvette en θ4 . Elle met en jeu quatre télescopes placés aux extrémités d’une croix, un déphasage de π étant introduit sur l’un des deux télescopes dans chaque branche de la croix. D’autres configurations font appel à des télescopes de tailles différentes. Enfin, on peut également considérer des configurations où le déphasage n’est pas π mais une fraction de 2π, comme dans la configuration à trois télescopes actuellement retenue pour le projet Darwin. Récemment, il a été montré qu’une puissance arbitraire θn pouvait être obtenue en combinant 2n télescopes et en associant un déphasage de π à la moitié d’entre eux, choisis en suivant une série binaire fournie par la suite de Prouhet-Thué-Morse44 . Elle est telle qu’aucune sous-suite finie n’est répétée plus de deux fois consécutivement dans la séquence.
– Déphasage achromatique de π. Pour obtenir un signal de grandeur significative, il faut analyser un intervalle spectral assez large, ce qui requiert un dispositif pour obtenir le déphasage égal à π de façon aussi achromatique que possible dans tout l’intervalle. En 2007, plusieurs voies sont explorées et font l’objet de démonstrations en laboratoire. – Une première solution consiste à insérer un jeu de lames transparentes dans chaque bras de l’interféromètre, avec des matériaux et des épaisseurs choisis pour que la variation de la différence de marche avec la longueur d’onde soit linéaire sur le domaine spectral concerné. La différence de phase devient alors bien achromatique. – Une deuxième solution est fondée sur une propriété de la réflexion de Fresnel sur un miroir à 45o : seule la composante du champ électrique située dans le plan du miroir subit un changement de signe. Le dispositif consiste à faire subir au faisceau des réflexions sur deux couples symétriques de périscopes (jeu de trois miroirs successifs à 45o d’incidence), de sorte que les deux composantes s et p du champ électrique subissent au final un renversement sur une voie par rapport à l’autre comme l’illustre la partie centrale de la figure 6.60. 44 La suite de Prouhet-Thué-Morse est définie par la récurrence t = 0, t 0 2k = tk et t2k+1 = 1 − tk et débute par 01101001100101101001011001101001 · · ·
6. Formation des images et diffraction
327
Fig. 6.60 – Différentes configurations interférométriques étudiées pour le projet Darwin et leur impact sur la modulation du signal de la planète.
– Enfin la troisième voie exploite également la propriété particulière du déphasage de π au passage d’un foyer que subit une onde électromagnétique. Il suffit que, sur l’un des bras seulement de l’interféromètre, le faisceau passe par le foyer d’un miroir sphérique pour obtenir un déphasage de π achromatique. On notera que les deux dernières solutions ne permettent pas d’autres déphasages que celui valant π.
– Séparation des signaux entre planète et lumière exozodi. En effet la symétrie de révolution de celle-ci ne correspondrait qu’à un système planétaire observé vu de face, donc très peu probable. La distribution de brillance elliptique de l’exozodi produit donc en général une modulation par le système de franges, analogue à celle d’une planète. C’est là où le choix de la configuration interférométrique prend toute son importance : suivant la structure du système de franges, ou plutôt des maxima et minima de la carte de transmission, les modulations de signal produites soit par un objet isolé comme une planète, soit par une structure centrosymétrique comme l’exozodi seront plus ou moins distinctes. En 2007, les études s’attachent à définir les configurations qui permettraient la discrimination la plus efficace. – Stabilité temporelle de l’annulation du flux stellaire. Cette dernière difficulté est peut-être la plus sérieuse. En effet tout écart à π, même très petit, du déphasage produit de très importantes fluctuations relatives des fuites de la lumière stellaire, qui dominent très largement le bruit de photon de la lumière exozodiacale, ce dernier fixant la limite fondamentale des performances en détection. Cette question fait l’objet d’une attention toute particulière dans les expériences de simulation.
328
L’observation en astrophysique
Exercices Exercice 6.1. Démontrer qu’un rayonnement quasi monochromatique est tel que : |γ12 (τ )| = |γ12 (0)| si τ τc . On posera V (t) = f (t) exp(2jπν0 t), avec f (t) lentement variable, de temps de corrélation τc . Réponse Avec la notation proposée : Γ12 (τ ) = V1 (t)V2∗ (t + τ ) = f1 (t)f2∗ (t + τ ) exp(−2jπν0 τ ) , l’approximation quasi monochromatique, soit ici τ τc , implique : f2 (t + τ ) ≈ f2 (t), d’où Γ12 (τ ) = Γ12 (0) exp(−2jπν0 τ ). Ainsi, en module et après normalisation : |γ12 (τ )| = |γ12 (0)| , si τ τc . Exercice 6.2. Dans une expérience d’interférence en lumière quasi monochromatique (trous d’Young), exprimer la visibilité υ des franges en fonction des champs V1 (t) et V2 (t) des deux sources. Montrer que : |γ12 (τ )| = υ. Réponse Au point Q observé et à l’instant t, le champ observé est en amplitude la superposition de deux sources : V (Q, t) = V1 (t − τ1 ) + V2 (t − τ2 ), où τ1 et τ2 sont les temps respectifs de parcours de la lumière depuis les sources jusqu’au point Q. L’intensité observée est I(Q, t) = V (Q, t)V ∗ (Q, t), soit : I(Q, t) = I1 (Q, t − τ1 ) + I2 (Q, t − τ2 ) + 2Re V1 (t − τ1 )V2∗ (t − τ2 ) . L’hypothèse quasi monochromatique indique ici : τ1 et τ2 τc = 1/Δν. La relation précédente est alors simplifiée, en posant τ = τ1 − τ2 : I(Q, t) = [I1 (Q, t) + I2 (Q, t)] + 2 I1 (Q, t)I2 (Q, t) |γ12 (τ )| . Donc, finalement, en déplaçant le point Q et en changeant la valeur de τ , l’intensité présente une modulation (franges) de visibilité : 2 I1 (Q, t)I2 (Q, t) |γ12 (τ )| / [I1 (Q, t) + I2 (Q, t)] . Soit simplement |γ12 (τ )| dans le cas où I1 (Q, t) = I2 (Q, t).
6. Formation des images et diffraction
329
Exercice 6.3. Vérifier que le degré de cohérence d’ordre n d’une onde quasi monochromatique satisfait à : |γn (τ )| = 1. Exercice 6.4. Un objet est une grille dont la luminance est représentée par : θx · a & (a) Quel est le spectre spatial I(w) de cette grille ? (b) Une source astronomique (par exemple étoile en formation, noyau de galaxie) a pour profil : θ2 I(θ) = I0 exp − 2 a = 0.1 arc sec. 2a I(θ) = I0 sin 2π
Quel est son spectre spatial ? (c) Une enveloppe circumstellaire, optiquement mince, entourant une étoile, est telle que la luminance de l’ensemble soit représentée par : θ2 I(θ) = I0 exp − 2 + I1 δ(θ − θ0 ). 2a L’étoile a un rayon de 1012 cm à une distance de 400 pc (1 pc = 3 × 1016 m), l’enveloppe un rayon de 1015 cm. Quel est le spectre spatial ? (d) Une étoile est double, l’une des composantes ayant une intensité double de l’autre. Analyser dans ces quatre cas l’effet de filtrage de l’image que produira une pupille de taille croissante, la longueur d’onde étant fixée. Réponse Les spectres spatiaux sont les transformées de Fourier des luminances. (a) Grille de brillance : ˆ I(w) = i/2I0 a/2 {δ(a/2(u − 1/2), ν) − δ(a/2(u + 1/2), ν)} . (b) Source gaussienne : & I(w) = I0
(2π)a exp(−2π 2 a2 w2 ).
(c) Enveloppe circumstellaire (on se sert du résultat précédent et de la linéarité de la tf) : ˆ I(w) = I0 (2π)a exp(−2π 2 a2 w2 ) + I1 exp(−2iπθ0 w). (d) Binaire : I(θ) = 2I1 δ(0) + I1 δ(θ − θ 0 ), ˆ I(w) = I1 (2 + exp(−2jπθ0 w)), et le module présente donc des franges.
330
L’observation en astrophysique
La taille limitée de la pupille a pour effet de couper ces spectres spatiaux à la fréquence spatiale D/λ. Dans le plan image, l’image restituée est la convolution de l’image source par la psf : fonction d’Airy d’autant plus large que la pupille est petite. Exercice 6.5. Soit un objet I(θ) dont le spectre spatial I& (w) présente la symétrie circulaire (étoile, granulation solaire, etc). Montrer que toute l’information spatiale peut être obtenue avec un télescope simplifié, dont la pupille se limite à une fente : $ x % $y% G(r) = Π Π , D a, D a ce télescope remplaçant alors un télescope conventionnel de diamètre D. Exercice 6.6. Un télescope (D = 3.6 m) forme l’image d’une source à la longueur d’onde λ = 0.5 μm. Son ouverture est f /D = 100. Quel serait le pas x optimal d’échantillonnage de l’image, si celle-ci était effectivement limitée par la diffraction ? Le grain de la plaque photographique réceptrice crée un bruit de récepteur, blanc, jusqu’à une fréquence correspondant à des grains de taille 3 μm. Montrer que le choix d’un pas fini x a pour effet d’augmenter la densité spectrale de bruit dans le domaine de fréquence contenant l’information utile. Exercice 6.7. Une étoile se présente comme un disque, supposé de luminance uniforme, à la longueur d’onde λ0 : θ I(θ) = I0 Π · θ0 Calculer son spectre spatial. Montrer que si l’image est formée par une pu& pille de diamètre D, telle que θ0 = α λD0 , (α < 1), la détermination de I(w) sur (0, wc ) permet néanmoins de déterminer θ0 à condition que l’on suppose a priori que l’étoile est un disque de luminance uniforme (super-résolution). Réponse & Le spectre spatial de l’étoile est I(w) = I0 (1/πθ0 w)J1 (πθ0 w). Le pic central de la fonction de Bessel J1 s’étend à des fréquences spatiales plus grandes que celles que prélève le miroir : on ne dispose donc que d’un échantillonnage tronqué de cette fonction, affecté par ailleurs d’un certain bruit. Cet échantillonnage permet de remonter à la valeur du paramètre θ0 par une méthode d’ajustement (moindres carrés ou validation croisée) si l’on connaît a priori & la forme de I(w). Dans le plan objet, cela signifie que la taille de la structure est plus petite que la tache de diffraction.
6. Formation des images et diffraction
331
Exercice 6.8. Interféromètre spatial de Michelson. Prenant une pupille formée de deux ouvertures (d), distantes de D, avec d D, et un objet de & spectre I(w), observé à la longueur d’onde λ au zénith : (a) Écrire la fonction de transfert T&(w). En donner une expression approchée simplifiée en termes de distribution de Dirac. & (b) Exprimer la visibilité des franges en fonction de I(w). Réponse La fonction de transfert est l’autocorrélation de la pupille. Ici, on considère le cas limite de deux ouvertures ponctuelles : G(w) = δ(0) + δ(D/λ). Alors, pour tout autre décalage que 0 et ±D/λ, le produit G(w+r/λ) G∗ (r/λ) est nul. D’où la formule : 1 D 1 D & T (w) = δ(0) + δ w − + δ w+ · · 2 λ 2 λ Le spectre spatial de l’objet après ce filtre est donc : ˆ + 0.5I(D/λ) ˆ ˆ I(0) + 0.5I(−D/λ). ˆ ˆ Soit, pour un cas symétrique, des franges dont la visibilité est I(D/λ)/ I(0). Exercice 6.9. L’interféromètre d’intensité (Hanbury-Brown, ARAA, 6, 13, 1968) est fondé sur le principe suivant : deux télescopes, distants de x, reçoivent les photons (λ = 0.5 μm) de la même source, sur deux photomultiplicateurs délivrant les courants I1 (t) et I2 (t). (a) Montrer que la fonction de corrélation croisée de ces courants, formée dans un corrélateur introduisant un délai τ : C(τ ) = I1 (t)I2 (t + τ ), contient une information sur la structure spatiale de l’objet observé. (On passera par l’intermédiaire du degré complexe de cohérence du rayonnement.) (b) Avant corrélation, I1 et I2 sont filtrés par deux filtres électriques passef bas, de fonction de transfert H(f ) = Π( 2Δf ). Si Δf ∼ 106 Hz, quelle est l’erreur tolérable sur la longueur des câbles électriques amenant chaque signal au corrélateur ? Comparer à la précision nécessaire dans un interféromètre de Michelson, travaillant à la même longueur d’onde, avec un intervalle spectral Δλ = 1 nm. Exercice 6.10. Soit un miroir parabolique formant sur son axe l’image d’un point à l’infini. (a) Le miroir effectivement réalisé s’écarte de la parabole idéale par une erreur décrite par ε(r) = ε0 cos 2π xa , a = D/n, ε0 = λ/5, avec n 1. Montrer
332
L’observation en astrophysique
que tout se passe, pour l’image, comme si la fonction pupille G(r) était remplacée par une nouvelle fonction G (r), complexe (écran de phase). En déduire la réponse impulsionnelle (image d’un point) de ce miroir imparfait. (b) Même question si ε(r) est une fonction aléatoire, de densité spectrale constante jusqu’à une fréquence caractéristique s0 = 1/10λ. (c) Pourquoi adopte-t-on comme critère de qualité d’une surface la valeur de l’écart-type σε < λ/20 ? (d) Pourquoi le spectre spatial de la variable aléatoire ε(r) a-t-il une importance ? Exercice 6.11. Calculer la longueur de cohérence du signal électromagnétique transmis par chaque antenne d’un radio-interféromètre fonctionnant à λ = 18 cm et prélevant dans le rayonnement incident une bande de fréquence Δν = 1 MHz. Cette longueur est-elle modifiée par le changement de fréquence réalisé à l’aide de l’oscillateur local disposé sur chaque antenne ? Réponse La longueur de cohérence est l = cτ = c/Δν = 3 m. L’autocorrélation du champ est la transformée de Fourier de sa densité spectrale de puissance. Ainsi, si celle-ci est tronquée sur une largeur Δν, le temps de cohérence correspondant est : τc = Δν −1 . Et donc la longueur de cohérence vérifie : lc = cτc = 3 m. Celle-ci n’est pas affectée par le changement de fréquence réalisé par l’oscillateur local. Exercice 6.12. Soient N antennes que l’on se propose d’aligner pour former une configuration de synthèse d’ouverture. Les intervalles entre antennes sont choisis multiples d’une longueur a. Pour des valeurs de N = 2, puis 3, 4, ..., 6, rechercher les distances qui permettent de réaliser la pupille non redondante assurant la meilleure couverture en fréquence spatiale, par combinaison de paires d’antennes. Compte tenu de la rotation de la Terre, faut-il disposer cet alignement est-ouest ou nord-sud ? Exercice 6.13. Un objet est observé dans le visible (λ = 0.5 μm) avec une résolution spectrale R = λ/Δλ croissante (de 1 à 105 ). Le fond du ciel, au sol, présente une émission continue de luminance 1 Rayleigh Å−1 (§ 2.3). Dans un diagramme diamètre D du télescope (de 1 à 20 m) – magnitude V de l’objet, tracer pour différentes résolutions R le lieu des points tels que le bruit dû au fond du ciel soit égal au bruit de signal : champ d’observation = 1 arc sec ; rendement quantique × transmission totale = 0.5. Qu’en déduire sur l’intérêt d’un grand télescope pour la haute résolution spectrale ? Exercice 6.14. Un télescope infrarouge est utilisé à la limite de diffraction, à λ = 100 μm, avec une résolution spectrale λ/Δλ = 10. Calculer la puissance reçue au foyer, dans l’étendue de faisceau correspondant à la limite de diffraction, adoptant Tmiroir = 300 K, ε (émissivité) = 0.1 et l’approximation de Rayleigh-Jeans. Comparer à la sensibilité d’un récepteur de
6. Formation des images et diffraction
333
nep = 10−16 W Hz−1/2 (la définition de la puissance équivalente de bruit ou nep est donnée en 7.1). Quelles conclusions tirer de la comparaison ? Réponse L’étendue de faisceau s’écrit SΩ, où l’angle solide observé vérifie à la limite de diffraction : Ω = (λ/D)2 . Cette condition implique donc une étendue de faisceau π/4λ2 , indépendante du diamètre du télescope. Par ailleurs, l’éclairement de corps noir à la température T , dans l’approximation de Rayleigh-Jeans, vérifie : Bν (T ) = 2kT /λ2 , exprimé en W m−2 sr−1 Hz−1 . Pour effectuer la comparaison avec la sensibilité du détecteur, écrivons alors la puissance reçue par étendue de faisceau en W Hz−1/2 , à la longueur d’onde et la résolution considérées (Δν = c/λ2 Δλ) : ε2kT π c c επkT = = 3.410−16 WHz−1/2 . λ2 4λ2 λ2 Δλ 2 Rλ Donc avec les caractéristiques observationnelles données, la sensibilité du détecteur n’est pas le facteur limitant. Exercice 6.15 Invariance de la fonction de corrélation de l’amplitude complexe par diffraction de Fresnel. Soit ψz (x) l’amplitude complexe d’un front d’onde à la cote z, fonction de la variable x dans le plan d’onde. Montrer que l’amplitude complexe dans le plan de cote 0 est donnée par la convolution : x2 1 ψ0 (x) = ψz (x) exp jπ . iλz λz Réponse On utilisera la même méthode que dans ce chapitre, assurant la conservation de l’énergie totale. Montrer que l’on a : B0 (x) = ψ0 (ξ)ψ0∗ (x + ξ) = Bz (x) = ψz (ξ)ψz∗ (x + ξ). On passera par les transformées de Fourier pour transformer la convolution en multiplication. Exercice 6.16. Paramètre de Fried. Adoptant, pour l’image d’Airy d’une pupille circulaire, l’expression IA (θ) donnée dans ce chapitre, calculer la valeur exacte du paramètre de Fried r0 (λ), en effectuant l’intégration : B0 (w)dw = T&A (w)dw T&A (w) = T F {IA (θ)} , avec B0 (w) égal à la ftm en pose longue. (Le résultat r0 (λ) est donné dans le texte.)
334
L’observation en astrophysique
Exercice 6.17. L’étoile T Tauri est observée dans le proche infrarouge comme formée de deux sources, l’une émettant également dans le visible, l’autre aux radiofréquences, distantes de 0.9 arc sec, selon un axe nord-sud, avec un rapport d’intensité α. & Montrer que la connaissance de |I(w)|, déterminée par interférométrie des tavelures, ne permet pas à elle seule de décider quelle est la source située au nord. (Dyck H.M. et al., Ap. J., 255, L103, 1982.)
Chapitre 7 Les récepteurs du rayonnement Ce chapitre s’intéresse aux dispositifs employés pour transformer l’information, transportée par l’énergie incidente et issue des objets astronomiques, en signal exploitable par l’astrophysicien. Ces dispositifs sont appelés récepteurs, ou détecteurs. La terminologie varie selon les habitudes et les communautés : les radioastronomes utilisent systématiquement le terme de récepteur, sans doute à cause de la tradition des télécommunications (radio et télévision). Dans les domaines allant de l’infrarouge aux rayons X, c’est plutôt le terme détecteur qui est usuel, en particulier pour qualifier les ccd, qui sont devenus les détecteurs les plus courants, mais on peut également utiliser le mot récepteur. Enfin, dans le domaine des hautes énergies (rayonnement γ), le terme détecteur est le seul employé : ici, c’est la tradition de la physique nucléaire, où l’on détecte les particules, qui a naturellement imposé le terme. Dans tous ces cas, il s’agit bien d’un sous-système qui assure la même fonction : transformer le rayonnement électromagnétique incident en un signal, généralement électrique, faisant l’objet de la mesure.
Ils reposent sur des principes physiques profondément différents selon la nature du porteur d’information étudié, et selon l’énergie que ce dernier transporte. Le rayonnement électromagnétique occupe évidemment une place prépondérante, et l’essentiel du chapitre lui revient. Toutefois, nous examinerons également les récepteurs associés à la mesure des neutrinos et à celle des ondes gravitationnelles, car ces deux domaines représentent une « nouvelle astronomie » dont les potentialités de découverte, pour n’être pas immédiates, n’en sont pas moins considérables. Une description technique de l’immense variété des récepteurs utilisés serait fastidieuse et sujette à une obsolescence rapide. Nous avons choisi de présenter d’abord les propriétés générales des récepteurs et les principales familles de processus physiques qui sont à la base de tout dispositif de détection.
336
L’observation en astrophysique
Nous examinons ensuite les principaux récepteurs utilisés en astronomie en 2007, faisant un choix dans une vaste panoplie. Ici, une classification par grands domaines de longueur d’onde est imposée par la diversité des technologies employées et l’étendue de la gamme des énergies à détecter (un facteur 1016 ou davantage entre le rayonnement γ et les radiofréquences). Nous nous attachons particulièrement à mettre en évidence la distance qui peut demeurer entre une réalisation pratique et les limitations fondamentales, liées aux propriétés statistiques du rayonnement et mises en lumière au début de ce chapitre. Ceci donne l’occasion de mesurer les extraordinaires progrès en performances (sensibilité notamment) accomplis depuis les années 1960. Évolution causée souvent par les besoins propres à la médecine, à la défense, aux télécommunications, mais dont l’astronomie bénéficie, quand elle-même n’en est pas le moteur, comme cela a pu se produire parfois (plaques photographiques, photomultiplicateur de Lallemand1 dès 1936). La grande diversité des outils ainsi mis à la disposition de l’expérimentateur suppose que celui-ci dispose de critères de choix pour un programme donné d’observation. Nous tentons donc une comparaison des divers récepteurs quant à leur utilisation optimale. Dans la pratique, la frontière est souvent difficile à placer entre le récepteur proprement dit et l’ensemble du système de détection et d’analyse du rayonnement, tel qu’il a été présenté au chapitre 1 : la sélectivité spectrale, par exemple, peut être obtenue par l’emploi d’un spectromètre situé en amont du récepteur (Chap. 8), mais elle peut aussi résulter d’une sélectivité intrinsèque du récepteur. Enfin, le couplage entre le récepteur proprement dit et le télescope ou collecteur de rayonnement peut être amélioré par des dispositifs particuliers : fibres optiques, dispositifs d’amplification, etc. Nous en donnons quelques exemples, qui permettront de constater une évolution très marquée et déjà mentionnée : un instrument d’observation astronomique devient un système intégré dont les différents éléments sont en étroite interaction et concourent tous aux performances finales. Ce point est repris au chapitre 9, où sont présentés quelques exemples de celles-ci dans des instruments en fonctionnement.
7.1
Propriétés générales des récepteurs
En nous référant au sous-système « détection » au sein du système d’observation, nous pouvons représenter le signal issu d’un élément de détection du récepteur (celui-ci peut en effet en comprendre un grand nombre) par l’expression très générale : " # x(t) = x0 (t) + f Φ(ν)dν I(θ, ν, t)P (θ) dθ . Δν
ΔΩ
1 André Lallemand, (1904-1978), astronome français, qui développa de façon remarquable le principe du photomultiplicateur au bénéfice de l’astronomie.
7. Les récepteurs du rayonnement
337
I(θ, ν, t) est l’intensité spécifique du rayonnement parvenant au récepteur ; P (θ) est la réponse angulaire du récepteur (champ, lobes...). Φ(ν) est la réponse spectrale du récepteur. x0 (t) est, le cas échéant, le signal que délivre le récepteur en l’absence de tout signal incident. Il est appelé signal d’obscurité (en anglais, dark signal ). La fonction f peut être considérée comme caractérisant la relation entréesortie du détecteur. Le cas le plus favorable est évidemment celui où cette fonction est linéaire. Il est également possible de considérer I comme l’intensité à l’entrée du système d’observation, les fonctions P , Φ, f caractérisent alors l’ensemble de ce système et pas seulement le récepteur. Si le détecteur est tel que f (I) = 0 pour I < Is , le détecteur est dit présenter un seuil de sensibilité Is . De même, si f (I) ≈ Cte pour I > Is , le détecteur est dit présenter un seuil de saturation pour I > Is (non-linéarité). Nous avons, pour simplifier, supposé que les variables θ et ν ne se mêlaient pas dans les réponses Φ et P , ce qui n’est pas toujours le cas (effets chromatiques de la diffraction par exemple).
7.1.1
Récepteurs d’amplitude et quadratiques
Selon le processus physique mis en jeu, un récepteur peut être linéaire, par rapport à l’amplitude du champ, ou bien quadratique, par rapport à celle-ci, auquel cas il devient linéaire en puissance, mais perd généralement l’information de phase nécessaire à la détection cohérente et la formation des images en interférométrie (cf. Chap. 6).
Récepteurs d’amplitude Ce type de récepteur mesure l’amplitude instantanée du champ (électrique ou magnétique) de l’onde de fréquence ν : x (t) = Re [E0 exp (2jπνt + ϕ)] . Il y a donc linéarité instantanée entre le signal et l’amplitude : ceci conduit à désigner également comme linéaire ou cohérent ce type de récepteur, le terme étant pris ici dans un sens plus restrictif que la définition générale donnée plus haut. Ainsi, par exemple, l’antenne d’un récepteur de radiofréquences convertit le champ en courant dans l’antenne et le signal « courant » est proportionnel au champ. Nous verrons plus loin § 7.5 comment un récepteur quadratique peut se transformer en récepteur d’amplitude lorsqu’un oscillateur local est utilisé.
338
L’observation en astrophysique
Fig. 7.1 – Conversion du champ électrique en courant par une antenne de réception. Récepteurs quadratiques Un tel récepteur délivre un signal proportionnel à la puissance moyenne de l’onde : t+ΔT 1 t ∗ x(t) = [E(t) E ∗ (t)] . E(t ) E (t ) dt = Π ΔT t ΔT Ici désigne l’opérateur de convolution, la moyenne est une moyenne courante, prise pendant un temps ΔT (temps d’intégration) grand devant la période de l’onde. Une relation équivalente est : t+ΔT 1 N (t )dt , x(t) = ΔT t où N (t) désigne le processus aléatoire d’arrivée des photons (le plus souvent poissonnien). La largeur en temps ΔT sur laquelle est prise la moyenne définit la bande passante temporelle du récepteur. En effet, la relation donnant x ˜(f ) s’écrit encore : x ˜ (f ) = SE (f ) ΔT sinc (ΔTf ) , ce qui s’explicite comme un filtrage passe-bas de l’information incidente avec une bande passante équivalente que l’on définira par : ∞ 1 1 · · Δf = sinc2 (ΔT f ) df = sinc2 (0) ΔT −∞ Ce type de détecteur quadratique – on dira encore « de puissance », « d’intensité » ou encore incohérent – est alors linéaire par rapport à la puissance incidente (sauf s’il présente des effets de seuil ou de saturation). Ce sont les détecteurs les plus couramment rencontrés : détecteurs fonctionnant en détection et/ou comptage de photons (œil, photomultiplicateur, caméras de télévision, channeltron, récepteurs photoconducteurs et photovoltaïques, plaque photographique, scintillateurs et chambres à étincelles...), diodes de réception des radiofréquences (mode « vidéo »). Dans ce qui suit, nous admettrons donc une expression du type : x (t) = E (t ) E ∗ (t )(t−ΔT /2,t+ΔT /2) ,
7. Les récepteurs du rayonnement
339
pour représenter le signal. Cette expression est simplifiée puisqu’en pratique, il faut tenir compte des différents paramètres : angle solide Δθ, largeur en fréquence Δν, etc., déjà signalés. La moyenne <> est ici prise autour de l’instant t sur l’intervalle ΔT . Il est intéressant de comparer les performances entre les détecteurs cohérents, qui isolent nécessairement une bande spectrale Δν étroite, et les détecteurs incohérents, qui ne présentent pas cette limitation. La figure 7.2 illustre cette comparaison faite dans un domaine spectral compris entre λ = 3 mm et λ = 30 μm, domaine dans lequel le choix entre les deux types de détection peut se poser, l’une et l’autre étant réalisable avec des technologies appropriées. On y voit que le domaine de la détection incohérente est celui des résolutions spectrales plus faibles, et cela d’autant plus que la fréquence est basse.
7.1.2
La structure spatiale des récepteurs
Récepteur monocanal. Un tel récepteur ne mesure à un instant donné qu’un seul point (x, y) de l’image, du spectre, etc. Après un intervalle de temps d’intégration, un balayage (du télescope, du réseau, etc.) amène un nouveau point au centre du récepteur (Fig. 7.3). Ce balayage peut être continu ou pas à pas. S’il est continu, les fréquences spatiales de la distribution d’intensité sont transformées en fréquences temporelles. Il faudra alors adapter le filtrage temporel réalisé par le récepteur et la vitesse de balayage aux fréquences spatiales recherchées dans l’image. Si le balayage est pas à pas, le pas d’échantillonnage sera choisi en se référant au théorème d’échantillonnage. L’avantage de ce type d’analyse d’image, appelé encore « balayage télévision » (en anglais, raster scan), par analogie avec le mouvement du pinceau d’électrons dans un tube cathodique de télévision, est d’analyser la totalité de l’image avec le même récepteur, occupant la même position par rapport à toute l’instrumentation si c’est le télescope qui est déplacé ; cela garantit donc une réponse instrumentale rigoureusement uniforme. Le défaut concomitant est évidemment l’inefficacité considérable, puisque la majorité de l’énergie de l’image ou du spectre, à un instant donné, est perdue. Les récepteurs de radiofréquences sont encore le plus souvent monocanaux, mais il devient possible dans le millimétrique de réaliser des mosaïques comprenant quelques dizaines d’éléments. Récepteur multicanal. Un tel récepteur comprend N détecteurs indépendants (pixels) qui reçoivent simultanément les photons. Si chaque détecteur se voit assigner une direction différente θ, on a un récepteur d’image (par exemple, une mosaïque photoconductrice dans le plan focal d’un télescope). Si chaque pixel reçoit une longueur d’onde différente, le récepteur fonctionne en multicanal spectral (par exemple, une barrette de ccd placée au foyer d’un spectrographe à réseau).
340
L’observation en astrophysique
λ(μm)
Fig. 7.2 – Comparaison des détections cohérente et incohérente. En abscisse : la fréquence (bas) ou la longueur d’onde en μm (haut). En ordonnée : la résolution spectrale R = ν/Δν. Les courbes, établies pour différentes largeurs spectrales (de 100 MHz à 10 GHz) donnent le lieu des points pour lesquels les deux méthodes donnent le même rapport signal à bruit, égal à 3 ; au-dessus, l’avantage en S/B est à la détection incohérente ; en-dessous, à la détection cohérente. La discontinuité à λ ∼ 200 μm vient de ce qu’ici la détection incohérente utilise ici des bolomètres (§ 7.4.10) dans le domaine submillimétrique et des photoconducteurs (§ 7.3.1) aux plus courtes longueurs d’onde, les seconds ayant de meilleures caractéristiques de bruit. On note l’avantage en rapport signal à bruit fourni par la détection cohérente lorsque la bande spectrale se réduit. (D’après Philips T., cité par McWatson D., Physica Scripta, 1986.)
À cause de leur efficacité considérable, les récepteurs multicanaux ont été développés pour toute l’étendue du spectre électromagnétique : la plaque photographique ne couvrait que les domaines allant des rayons X au visible, mais
7. Les récepteurs du rayonnement
341
Fig. 7.3 – Balayage télévision d’un champ (raster scan). les récepteurs mosaïques modernes (ccd et dérivés, bolomètres) vont du domaine X à l’infrarouge lointain et s’étendent progressivement au millimétrique. Réponse d’un récepteur multicanal. Traitons d’abord le cas simple d’un récepteur supposé idéalement continu, tel une plaque photographique sans grain, de rendement η uniforme. Dans sa plage de linéarité, le signal S(x, y) se déduit de l’intensité incidente par l’opération de convolution : S (x, y) = G (x, y) I (x, y) , où la fonction G(x, y) caractérise la réponse spatiale de la plaque. On appelle fonction de transfert de modulation (abrégée en FTM, souvent en MTF pour le terme anglais Modulation Transfer Function) la transformée de Fourier ˜ ν) = G(w) ˜ G(u, de G (Fig. 7.4). La FTM relie le spectre spatial du signal à celui de l’information incidente : ˜ ˜ ˜ S(w) = G(w) I(w).
Fig. 7.4 – Réponse impulsionnelle spatiale G(x, y) et sa transformée de Fourier ˜ (u, v) : dans le cas de figure, G ˜ est réelle. G ˜ (u, v) est la fonction de transfert de G modulation du récepteur.
Dans une plaque photographique réelle, affectée d’un grain que l’on peut considérer comme un rendement quantique représenté par une variable aléatoire η(x, y), la ftm devient elle-même aléatoire, au moins aux fréquences spatiales élevées (∼1/g), où g est la taille moyenne d’un grain. Si le récepteur a des propriétés isotropes, la ftm présente évidemment la symétrie circulaire. Un récepteur multicanal peut également être composé d’éléments discrets (pixels individuels d’un ccd) qui pavent le plan image (Fig. 7.5).
342
L’observation en astrophysique Soit p le pas du pavage, a le côté des pavés, avec a < p. Le signal est alors obtenu par : I (x, y)
$x y% I (x, y) = I(x, y)Π , a a x y I (x, y) , S(x, y) = p p
intensité incidente, convolution par le pavé élémentaire, échantillonnage au pas p.
On voit que la FTM est donnée, après normalisation à l’origine, par : $ x y % FTM ∝ TF Π , = sinc (ax) sinc (ay), a a et que le pas p ne représente pas nécessairement un échantillonnage ˜ (w) n’est permettant de reconstruire intégralement I(x, y), puisque G ˜ pas à support borné. Tout dépend donc du spectre I (w), auquel il faudra adapter la valeur de p : si I˜ (w) = 0 pour |w| > wc , wc étant une fréquence de coupure du système, alors on prendra simplement p = 1/2 wc .
Fig. 7.5 – Pavage du plan image par un récepteur multicanal. Chaque pixel récepteur est grisé. Notons, sur cet exemple, la relative inefficacité du facteur de remplissage géométrique. Les progrès dans la réalisation des substrats de ccd permettent de rendre ce facteur voisin de l’unité. Dans d’autres cas, une matrice de microlentilles dans le plan focal permet d’améliorer l’utilisation des photons incidents.
7.1.3
La réponse temporelle
Dans l’étude de phénomènes rapidement variables (photométrie rapide d’un pulsar, par exemple), il est nécessaire de caractériser les performances temporelles d’un récepteur. Nous définirons la réponse temporelle du récepteur par une fonction filtre temporel H(s), ou par la réponse impulsionnelle ˜ ˜ du récepteur H(t). La constante de temps du récepteur se déduit de H(t) (Fig. 7.6). Récepteur intégrateur. La durée T d’une mesure quelconque est toujours finie (afin de prélever une quantité d’énergie finie). Si x(t) est le signal incident, le récepteur délivre : t −t t y(t) = Π x(t )dt = Π x(t)). 2T 2T
7. Les récepteurs du rayonnement
343
Fig. 7.6 – (a) Réponse impulsionnelle et (b) fonction de transfert complexe d’un filtre passe-bas. τ est la largeur temporelle, fc la largeur en fréquence. On a fc τ ≈ 1.
L’intégration est donc un filtrage particulier, effectué par une fonction sinus cardinal (transformée de Π) dans l’espace des fréquences. La plaque photographique représente un cas particulier d’intégrateur, puisque l’instant t est fixe, et T est le temps d’exposition. Le signal est alors la densité (noircissement) de l’émulsion photographique qui, dans certaines conditions, est bien proportionnelle à l’intensité (domaine de linéarité de l’émulsion). Le signal, noircissement de l’émulsion, est alors défini comme la quantité : X (x, y) = i (x, y)/i0 , ou comme : − log10 X (x, y) , où i(x, y) désigne l’intensité que transmet la plaque au point (x, y) lorsqu’elle est éclairée par une intensité i0 (densitométrie d’un cliché photographique).
7.1.4
Les bruits
Nous examinons de façon détaillée ci-dessous les fluctuations fondamentales, de nature physique, qui affectent la détection de tout rayonnement. Un détecteur peut accroître celles-ci en ajoutant d’autres fluctuations, liées à sa constitution ou à ses conditions d’emploi. Il peut par exemple s’agir de courant d’obscurité, de bruit d’amplification, de bruit de lecture, du grain d’une plaque photographique, etc. Nous reviendrons ci-dessous, après l’étude des fluctuations fondamentales, sur ces différents bruits propres aux récepteurs. La prise en compte et la correction de ces effets, autant que faire se peut, est examinée § 9.6.
7.1.5
Comment caractériser un récepteur ?
La complexité des détecteurs de rayonnement ne permet pas, loin s’en faut, de caractériser leurs performances en se limitant à un ou deux paramètres simples. Le tableau 7.1 résume l’ensemble des propriétés qu’il est nécessaire
344
L’observation en astrophysique
de spécifier lorsque, par exemple, on veut comparer deux détecteurs, fonctionnant dans le même domaine spectral, ou bien choisir un détecteur pour une observation particulière ou un instrument spécifique (spectromètre, caméra, etc.). Tab. 7.1 – Caractérisation d’un récepteur. Dynamique
Propriétés spectrales
Réponse temporelle
Propriétés géométriques
Bruit (cf. infra)
Polarisation
Seuil de sensibilité Domaine de linéarité Niveau de saturation Rendement quantique η Domaine de sensibilité Δν (ou Δλ ou ΔE) Réponse spectrale η(ν) Sélectivité spectrale ν ¯/Δν ˜ (t) Réponse impulsionnelle H Temps de réponse ˜ Fonction de filtrage temporel H(s) Dimensions géométriques ˜ (w) Fonction de transfert ou ftm G Homogénéité des propriétés spatiales Multicanal : nombre de pixels ou format N × M Bruit d’amplification : gain g et fluctuations σg Bruit de lecture : nec ou σL Bruit propre (ou nep ou température de bruit) Caractéristiques spatiales du bruit : dsp Caractéristiques temporelles du bruit : dsp Rendement quantique équivalent ou dqe ou rqe Sélectivité à la polarisation
Cette nomenclature se veut très générale. Elle se simplifiera dans tel ou tel cas particulier : le détecteur monocanal n’a qu’un pixel ; la fonction de transfert de modulation ou la densité spectrale de puissance spatiale du bruit sont des quantités spécifiques aux récepteurs bidimensionnels d’image et ne s’appliquent pas aux radiofréquences ; le bruit de lecture est une propriété spécifique aux détecteurs à transfert de charge (ccd), etc.
7.2
Les fluctuations fondamentales
Pour traiter complètement de la lumière et de ses interactions avec la matière, il convient en principe d’utiliser le modèle physique le plus correct, à savoir la quantification du champ électromagnétique, et le concept de « photon » qui lui est associé2 (électrodynamique quantique). Toutefois, la complexité de ce modèle n’est pratiquement jamais requise dans les cas examinés au cours de ce livre : un concepteur d’instrumentation optique (cf. Chap. 5) peut même parfois se contenter du modèle ultra-simple des rayons lumineux ! De fait, 2 Le modèle semi-classique est exposé dans Mandel L. et Wolf E., Rev. Mod. Phys., 37, 231, 1965. Les remarques ci-dessus sont inspirées de Dainty J. C. in Modern Technology and its Influence on Astronomy.
7. Les récepteurs du rayonnement
345
le modèle semi-classique nous suffira, lequel décrit la propagation du champ électrique (e.g. diffraction, cf. Chap. 6) par la théorie électromagnétique ondulatoire classique et l’interaction avec la matière (e.g. détection, ce chapitre, ci-dessous) par un processus aléatoire de Poisson. Ce modèle décrit les observables, à savoir les photoélectrons, et non le champ quantifié proprement dit. Néanmoins, la terminologie qui consiste à employer le terme « photons détectés », bien qu’inadéquate à l’emploi du modèle semi-classique comme le fait remarquer J. C. Dainty, est si courante que nous l’emploierons. Dans ce modèle, la nature physique de la lumière conduit à une source irréductible de fluctuations lors de son interaction avec la matière (détection), ceci quelle que soit la nature du récepteur (ou détecteur). Nous en exposons ici le caractère général, puis analysons deux cas limites – limites quantique et thermique –, qui dans la pratique suffisent à décrire simplement les fluctuations d’un signal électromagnétique. Soit une enceinte vide à la température uniforme T , dans laquelle le rayonnement est en équilibre. La densité moyenne d’énergie électromagnétique par unité de fréquence est donnée par : −1 8πhν 3 hν
u(ν) = −1 exp J Hz−1 m−3 . c3 kT En un point intérieur à l’enceinte, le champ électrique a(t) est dû à la superposition des champs rayonnés par un très grand nombre d’oscillateurs élémentaires incohérents entre eux. Ce champ est un processus aléatoire (ou stochastique, noté p.s.) stationnaire ergodique, de valeur moyenne nulle (pour la terminologie et les résultats concernant les processus aléatoires, voir Appendice II). Nous savons que ce processus est gaussien (normal) à l’aide du théorème central limite (cf. § 9.1) puisque a(t) est la somme d’un grand nombre de champs élémentaires indépendants. (On peut aussi montrer que la répartition normale présente, à puissance moyenne fixée, l’entropie maximale.) Pour strictement maintenir l’homogénéité dimensionnelle dans ce qui suit, a(t) n’est pas exactement le champ électrique de l’onde de vecteur d’onde k et de fréquence ν, mais la quantité qui lui est proportionnelle : a(t) = (ε0 cλ2 )1/2 E(t), dont le carré a pour dimension une puissance (watt), ce qui est également la dimension de l’autocorrélation R(τ ) dont un estimateur est donné par : 1 T R(τ ) = a(t)a(t + τ )dt. T 0 La quantité P (ν) = R(τ ) temps s’exprime bien en joule ou, de façon équivalente, en W Hz−1 , puissance par intervalle de fréquence.
Déterminons alors l’autocorrélation (identique à l’autocovariance à un facteur d’échelle près) de ce p.s., en passant par l’intermédiaire du spectre de
346
L’observation en astrophysique
puissance. La densité spectrale de a(t) est la puissance électromagnétique associée au champ de fréquence ν, dans une étendue de cohérence égale à λ2 . Pour définir une puissance monochromatique finie, il faut en effet définir un angle solide Ω et un élément de surface associé S (Fig. 7.7), et nous renvoyons au paragraphe 3.2 pour la démonstration du résultat suivant : le rayonnement est considéré comme cohérent s’il est limité à l’étendue SΩ = λ2 . Pour une quelconque des deux composantes de la polarisation, la puissance monochromatique associée est : P (ν) =
−1 1 λ2 hν u ¯(ν) c = hν exp −1 W Hz−1 . 2 4π kT
Le facteur 4π ramène à l’unité d’angle solide, et la présence de la vitesse de la lumière c traduit l’intégrale de l’énergie présente dans un cylindre de longueur c et de section unité.
Fig. 7.7 – Une enceinte vide, aux parois parfaitement réfléchissantes, contient une petite quantité de matière à la température T , en équilibre avec le rayonnement à la même température T . Une antenne, schématisée par la surface circulaire S, reçoit le rayonnement électromagnétique dans un cône d’angle solide Ω. L’étendue de cohérence est alors SΩ = λ2 .
La thermodynamique3 montre qu’un système physique d’énergie moyenne W présente autour de cette valeur moyenne des fluctuations au cours du temps, dont la variance est donnée par : d W 2 ΔW 2 = W 2 − W = kT 2 · dT Appliquant ce résultat à la puissance moyenne P (ν) calculée, il vient : −1 hν 2 2 dP (ν) ΔP (ν) = kT = P (ν)hν 1 + exp −1 . dT kT 3 On trouvera une analyse détaillée des fluctuations thermodynamiques dans Landau L. et Lifchitz E., Physique statistique. Cf. aussi Harvey A., Coherent Light, chapitre 1.
7. Les récepteurs du rayonnement
347
À l’intérieur du corps noir en équilibre, les fluctuations du rayonnement4 se traduisent donc par la présence de deux termes : – un terme hν P (ν) que l’on peut interpréter comme une fluctuation du nombre de photons. Appelant n le nombre moyen de photons reçu par unité de temps, il vient d’après la statistique de Poisson :
Δn2 = n; – un terme : hν exp
hν kT
−1 −1
P (ν) = P (ν)2 ,
où apparaît explicitement la température du rayonnement. Ce terme de fluctuation peut être interprété comme dû aux battements entre champs de fréquence différente et différence de phase aléatoire dans le temps. Il est à basse fréquence à cause du terme exponentiel. Il y a là un phénomène analogue à la production de tavelures (speckles, cf. § 6.2) par interférence entre ondes de phase relative aléatoire. La structure de ces deux termes fait que, en première approximation et selon la valeur de la quantité hν/kT, c’est l’un ou l’autre qui domine. Aussi peut-on les étudier de façon séparée. Si le premier terme domine, il s’agit alors du bruit de photons ou bruit quantique (encore appelé shot noise), correspondant à la limite quantique. Nous limitons ici la discussion au bruit quantique lié aux fluctuations d’un rayonnement incohérent, cas le plus fréquemment rencontré en astrophysique (par exemple le rayonnement de corps noir). Nous avons examiné au chapitre 3 (§ 3.2) les fluctuations quantiques de rayonnements partiellement cohérents, en discutant simultanément de la cohérence temporelle et de la cohérence spatiale du rayonnement.
Si le second terme domine, il s’agit alors du bruit thermique. Dans le cas général où coexistent les deux fluctuations, on peut écrire :
Δn2 = n(1 + δ), avec δ = (ehν/kT − 1)−1 , où δ est appelé le facteur de dégénérescence et résulte directement de la statistique de Bose-Einstein à laquelle obéissent les photons. C’est le nombre de photons cohérents entre eux (cf. la discussion de la cohérence temporelle au chapitre 3). 4 Ce résultat avait été démontré par Albert Einstein, qui dès 1909 en faisait un argument pour conclure au double caractère, ondulatoire et corpusculaire, de la lumière. Einstein, A., Phys. Zeit. 10, 817 (1909).
348
L’observation en astrophysique
Remarque 1. L’expression des fluctuations est explicitement celle des fluctuations du rayonnement à l’intérieur d’un corps noir. Si cette condition n’est pas remplie, le terme dominant des fluctuations peut être différent. Considérons le cas où est observé le rayonnement d’une étoile, dont le spectre est assimilé à celui d’un corps noir de température T , à une fréquence ν telle que hν kT. D’après la formule générale, si elle était applicable, le bruit thermique devrait dominer. Imaginons toutefois que l’on observe l’étoile à une distance suffisante pour que les photons (hν) arrivent au récepteur de façon largement distincte les uns des autres. Le bruit quantique doit alors, à l’évidence, dominer. En effet, le rayonnement est ici unidirectionnel, l’étendue de faisceau prélevée par l’observation bien inférieure à λ2 , et le nombre de photons prélevé dans P (ν) est très petit. Remarque 2. Ce second terme est à l’origine de l’interférométrie d’intensité que nous avons rencontrée plus haut (cf. § 6.4). En effet, lorsqu’une source étendue de lumière est observée simultanément en deux points distants, les fluctuations d’intensité demeurent corrélées si la séparation entre ces deux points est assez petite. Plus précisément, la mesure de la distance à laquelle la corrélation disparaît dépend de l’étendue de cohérence de la source, dont il est ainsi possible de déterminer la dimension angulaire. Cette possibilité, démontrée par le physicien Robert Hanbury-Brown dès les années 1940, souleva beaucoup de scepticisme jusqu’à ce qu’il la mette en œuvre en laboratoire, puis sur des étoiles. Remarque 3. Un raisonnement simple explique l’apparition du bruit quantique aux fréquences élevées. La décroissance exponentielle de P (ν) lorsque ν augmente implique que la puissance nécessaire pour transmettre une quantité donnée d’information pourrait tendre vers zéro en utilisant une fréquence ν assez élevée. À la limite, une énergie inférieure à un quantum hν suffirait ! La quantification doit donc créer une autre source de fluctuations, qui est justement le bruit de photons ou bruit quantique, lequel interdira cette éventualité physiquement inacceptable. La figure 7.8 illustre les deux domaines caractéristiques de chacune des fluctuations fondamentales, et ceci indépendamment du type de récepteur utilisé. Il est utile de noter que le récepteur reçoit non seulement le rayonnement de la source, mais aussi celui de son environnement (laboratoire, télescope, atmosphère, sol...), dont la température est généralement de l’ordre de 300 K, à moins qu’il ne soit placé dans l’espace et refroidi : – dans le domaine visible ou ultraviolet, le bruit quantique domine ; – dans le domaine des radiofréquences, le bruit thermique domine, même si l’on parvient à refroidir le système pour diminuer sa température de bruit. En revanche, dans le domaine infrarouge et submillimétrique, on pourra être conduit à tenir compte de l’un et l’autre terme de fluctuations.
7. Les récepteurs du rayonnement
349
Fig. 7.8 – Domaines où dominent les fluctuations thermiques ou quantiques. La droite hν = kT sépare ces deux domaines.
7.2.1
Le bruit quantique
Considérons un flux de photons définissant un processus stochastique x(t) formé d’impulsions de Poisson, de paramètre n ¯ , où n ¯ est le nombre moyen de photons reçus par unité de temps dans l’étendue (définie par le système de réception, par exemple l’optique du télescope) S Ω. La probabilité d’obtenir p événements pendant l’intervalle de temps T est donnée par : ⎧ ⎫ ⎨ ⎬ (¯ nT )p e−¯nT P , x(t)dt = p = ⎩ ⎭ p! T
ce qui conduit au nombre moyen d’événements pendant le temps T : ¯ T, nT = n avec une variance :
2 σ 2 = n2T − nT = n ¯ T.
Lorsque nT 1, la variable aléatoire δnT : δnT = nT − < nT >, est normale (gaussienne), d’écart-type (¯ nT )1/2 .
350
L’observation en astrophysique
Si la mesure consiste à compter le nombre de photons reçus pendant T , le rapport signal à bruit s’écrit : R=
n ¯T = (¯ nT )1/2 , (¯ nT )1/2
et il varie bien comme la racine carrée du temps de mesure. Exemple : Comptage de photons en astronomie γ. Le satellite cos-b, mis sur orbite en 1975, a détecté la source la plus brillante du ciel à l’énergie de 50 MeV, le pulsar Vela. La période de ce pulsar est de 89.2 ms. À l’aide d’une horloge précise, il est possible d’améliorer le rapport signal à bruit en cumulant les périodes successives. 89 bins permettent de cumuler un total de 2 963 événements détectés (Fig. 7.9) pendant 38 jours d’observation. N.B : On appelle bin (corbeille en anglais) les intervalles Δxi , de largeur constante, découpés sur la variable x, auxquels on affecte la valeur moyenne f (xi ) de la fonction. Bien qu’il y ait une modulation de l’intensité au cours d’une période, le nombre moyen d’événements par bin et l’écart-type donnant le degré de confiance sont : ¯T = 2 963 = 33.29 σN = 5.8. N T 89
Fig. 7.9 – Comptage cumulé de photons γ, lors de l’observation du pulsar psr 0833-45 par le satellite cos-b, à haute énergie (hν > 50 MeV). (Benett K. et al., Astr. Ap., 61, 279, 1977.) La période a été divisée en 100 pas ou bins et les périodes successives ont été additionnées bin à bin pour améliorer le rapport signal à bruit.
Conversion des photons en photocourant Un récepteur photoélectrique (cf. Chap. 7) convertit les photons en impulsions de courant. Le rendement quantique η du récepteur est défini comme le rapport entre le nombre moyen de photoélectrons produits et le nombre moyen de photons incidents pendant un même temps T .
7. Les récepteurs du rayonnement
351
Si x(t) décrit le processus d’arrivée des photons, le processus i(t) décrivant le photocourant est : " e x(t) probabilité η i(t) = 0 probabilité 1 − η. i(t) est donc un nouveau processus, construit à partir du processus x(t), soit : i(t) = G [x(t)] , représentation correcte si la bande passante du récepteur était infinie. Un récepteur physique (photomultiplicateur, photoconducteur...) présente toujours une bande passante finie en fréquence. Représentons la propriété de filtrage ˜ ): temporel de ce récepteur par une fonction de transfert idéale passe-bas H(f ˜ )=Π f H(f , 2fc coupant à la fréquence fc (Fig. 7.10). Le photocourant s’écrit alors : TF ˜ ), i(t) = G [x(t)] H(t), avec H(t) ⇔ H(f
et sa densité spectrale :
2 ˜ ), Si (f ) = n ¯ δ(f ) + n ¯ η H(f
en utilisant l’expression générale de la densité specrale d’un p.s. poissonnien (cf. Appendice II). On calcule alors la variance du photocourant : +∞ 2 2 σi = R(0) − η¯ n = Si (f ) df − η¯ n2 = 2 η¯ nfc , −∞
et le rapport signal à bruit (S/B) pour une puissance incidente P (ν) = n ¯ hν : i2 P (ν) =η . σi2 2hνfc La puissance incidente produisant un rapport S/B unité est alors : P (ν) =
2hν fc . η
Ce résultat s’interprète simplement : lorsque domine le bruit de photons du signal, le rapport signal à bruit est unité pour deux photoélectrons par hertz de bande passante, soit encore un photoélectron par polarisation et par hertz de bande. L’amélioration du rapport S/B peut évidemment être aussi obtenue en imposant une bande passante étroite, c’est-à-dire un temps d’intégration long (lissage par moyenne courante). Des idées récentes (∼1990) suggèrent que la limite de bruit ci-dessus pourrait être abaissée par compression du bruit quantique.
352
L’observation en astrophysique
Fig. 7.10 – Filtrage du processus stationnaire supposé décrire le photocourant. Bruit de fond Un cas fréquent est celui où le détecteur reçoit simultanément : – les photons de la source, soit un photocourant is (t), – les photons d’un fond iF (t). Ce fond d’émission peut être dû à l’environnement thermique du récepteur (infrarouge, millimétrique), au courant d’obscurité du récepteur (photocathode), ou à l’environnement en particules secondaires (astronomie à haute énergie). Il vient, les deux signaux étant indépendants : σi2 = σs2 + σF2 , et lorsque la source est faible : iF is , σi2 ∼ σF2 . Le signal minimum détectable (S/B = 1) est alors : is = σF , soit en puissance incidente sur le détecteur : 1/2 2 PF fc Ps = hν . η hν Cette puissance est appelée puissance équivalente de bruit (en anglais, Noise Equivalent Power ou nep), lorsqu’elle est ramenée à une bande passante unité fc = 1 Hz. Elle se mesure en W Hz−1/2 . Étant donné les caractéristiques du système de réception : surface collectrice A, transmission t, largeur spectrale Δν, avec Δν ν (sans quoi la définition est imprécise), on définit également le flux équivalent de bruit (en anglais, Noise Equivalent Flux ou nef) par l’expression : $ % Ps −2 −1 −1/2 nef = W m . Hz Hz 1/2 AtΔνfc
7. Les récepteurs du rayonnement
353
Le nef se mesure souvent en Jy Hz−1/2 . (1 Jansky = 10−26 W m−2 Hz−1 .) C’est une unité commode pour décider de la détectabilité d’une source en comparant le flux qu’elle émet aux performances du système. Aux hautes énergies du rayonnement γ, le signal de fond s’exprimera en nombre de coups dans un intervalle spectral donné du détecteur, donc en coups-keV−1, et ses fluctuations seront là encore poissonniennes à faible flux, et approchées par une gaussienne à fort flux.
7.2.2
Le bruit thermique
Nous reprenons ici l’expression approchée de la densité de puissance du rayonnement d’un corps noir à la température T , à basse fréquence lorsque hν kT : hν P (ν) ≈ hν/kT W Hz−1 . e −1 Le processus a(t), proportionnel au champ électrique, a donc une dsp (densité spectrale de puissance) quasi blanche (Fig. 7.11) : P (ν) ≈ kT W Hz−1 , jusqu’à une fréquence ν ∼ kT/h. Dans la pratique, le système de réception du champ (antenne, mélangeur, diode, etc.) présente toujours une fréquence de coupure νc inférieure à kT/h : si T = 300 K, la condition hν = kT correspond à une longueur d’onde de 50 μm (ν = 6 × 1012 Hz), plus courte que celle du seuil de sensibilité. On représentera donc l’effet du système de réception par un filtrage, schématisé par la fonction de transfert : ν ˜ H(ν) =Π . 2νc Soit a1 (t) le p.s. obtenu après ce filtrage ; il est à moyenne nulle, son autocorrélation et son autocovariance sont égales ; sa variance s’écrit : σa21 = Ra1 (0) =
+∞
−∞
P (ν)dν = 2kT νc.
Le coefficient numérique reliant σa21 et la quantité caractéristique kT νc dépend ˜ de la forme exacte de H(ν). Cas particulier important. Traitons le récepteur comme équivalent à un simple filtre passe-bas résistance-capacité, dont on sait que la fonction de transfert en puissance est : ˜ H(ν) =
1 , f c = (2πRC)−1 , 1 + (2πRCν)2
354
L’observation en astrophysique
Fig. 7.11 – Densité spectrale du bruit thermique. Noter la valeur asymptotique nulle, à laquelle viendra s’ajouter le bruit quantique. En tireté, le filtrage que produit le filtre passe-bas associé à un récepteur.
ce qui permet d’écrire : Pa1 (ν) =
kT kT = πkT fc. , σa21 = 1 + (2πRCν)2 2RC
Par transformation de Fourier (ces paires de Fourier sont fournies dans les tables de fonctions, cf. aussi Appendice I), il vient pour l’autocorrélation (ou l’autocovariance) de a1 (t) : Ra1 (τ ) = Ca1 (τ ) =
|τ | kT exp − = πkT fc exp (−2πfc | τ |) . 2 RC RC
˜ Le processus normal est donc complètement spécifié. Un filtrage H(ν) différent aurait conduit à un processus normal d’autocorrélation et de spectre différents. Bruit thermique d’une résistance Nous développons ce cas simple car il fournit une relation précieuse entre la puissance associée au bruit et la température d’un système physique (ici, une simple résistance) en état d’équilibre statistique. Dans une résistance à la température T , les électrons libres subissent l’agitation thermique : il apparaît donc aux bornes de la résistance un voltage aléatoire v(t), qui est fonction de T . Le voltage v(t) est un processus aléatoire normal, stationnaire, de moyenne nulle. La capacité non nulle C associée à la résistance R détermine comme ci-dessus la forme de la densité spectrale de v(t) : Sv (ν) = A
1 , 1 + 4π 2 R2 C 2 ν 2
la constante A étant déterminée par l’équipartition de l’énergie à l’équilibre thermodynamique, qui implique à basse fréquence, c’est-à-dire lorsque ν (RC)−1 : Sv (ν) = 2 kT, soit A = 2 kTR, R
7. Les récepteurs du rayonnement
355
où 2 kT est à basse fréquence (loi de Rayleigh-Jeans) la puissance par unité de fréquence dans le rayonnement non polarisé du corps noir à la température T . La fréquence de coupure (RC )−1 de ce bruit thermique est associée au libre parcours moyen des électrons entre atomes et est de l’ordre de 1013 Hz à 300 K. Après un filtre de largeur en fréquence Δν [Δν (RC )−1 ], filtrant v(t), la puissance de bruit de la tension filtrée est alors : +∞ 2 ν = Sv (ν)dν = 4 kT RΔν, −∞
qui est la formule de Nyquist. Cette expression est particulièrement utile pour déterminer le bruit thermodynamique associé à un récepteur physique qui se ramène à une résistance de température T . Récepteur quadratique et bruit thermique Un récepteur quadratique a été défini comme formant par exemple la quantité proportionnelle au carré b(t) du processus a1 (t) tel qu’il résulte du filtrage du champ électrique a(t). L’autocorrélation du p.s. b(t) est donnée par l’expression (cf. appendice II) : Rb (τ ) = R 2a1 (0) + 2 R 2a1 (τ ), dont on peut prendre la transformée de Fourier : Sb (ν) = R 2a1 (0) δ(ν) + 2 Sa1 (ν)Sa1 (ν). Adoptant alors pour a1 (t) un p.s. filtré par une porte passe-bas coupant à la fréquence νc , il vient : ν Ra1 (τ ) = 2kT νc sinc(2νc τ ), Sa1 (ν) = kT Π 2 νc ν , Sb (ν) = (2kT )2 νc2 δ(ν) + 2(kT )2 2νc 1 − 2 νc comme illustré figure 7.12. La dsp du p.s. b(t) n’est plus blanche et sa valeur moyenne n’est plus nulle, comme le montre la valeur non nulle de Sb (0). Remarque. On pourrait, par des méthodes similaires, étudier les lois de probabilité de l’amplitude et de la phase a1 (t), celle de la puissance instantanée moyenne de a1 (t), etc., dans les configurations expérimentales où ces quantités interviennent.
En conclusion, nous disposons des outils nécessaires pour déterminer les variances ou autocorrélations liées au bruit thermique. Ceci nous permettra, ultérieurement, d’établir les propriétés ultimes des systèmes de réception où il intervient.
356
L’observation en astrophysique
Fig. 7.12 – Densité spectrale d’un p.s. a(t) filtré et densité spectrale de son carré b(t).
7.3
Les principes physiques de la détection du rayonnement électromagnétique
La détection fait appel à une interaction rayonnement-matière et à un transfert d’énergie vers la matière, conduisant à un changement d’état de celle-ci, changement mesurable et qui va constituer le signal. Il convient évidemment que le changement d’état choisi convienne à l’énergie moyenne hν des photons détectés. Si son énergie est trop importante, le signal sera inexistant ou indétectable ; si elle est trop forte, le récepteur sera endommagé ou détruit. Le tableau 7.2 donne une vue d’ensemble des principales interactions utilisées dans la détection des photons. Tab. 7.2 – Interactions physiques et détection du rayonnement.
La détection photoélectrique des quanta de rayonnement est possible lorsque l’énergie de ces derniers est supérieure à quelques milliélectrons-volts, c’est-à-dire aux longueurs d’onde inférieures à 200 μm environ. Au-delà, les fluctuations thermiques deviennent prédominantes et ne permettent pas facilement la détection de quanta aux radiofréquences ; cette limitation n’est
7. Les récepteurs du rayonnement
357
toutefois pas de nature fondamentale mais, dans la pratique, les récepteurs de radiofréquences (millimétriques, centimétriques...) reposent sur une détection directe du champ électrique de l’onde. Enfin, la mesure calorimétrique de l’énergie transportée est une troisième approche qui présente un intérêt dans deux domaines du spectre : submillimétrique et γ.
7.3.1
La détection des quanta
Nous examinons ici les principes physiques qui permettent la détection de photons individuels et la production d’un signal mesurable. Les récents développements de la microélectronique ont profondément transformé, amélioré et diversifié les processus qu’utilisent les astronomes dans leurs récepteurs. Émission photoélectrique dans le vide La surface d’un solide conducteur représente une barrière de potentiel opposée à l’extraction d’un électron hors du métal, de valeur Es . Seuls les photons d’énergie supérieure au seuil photoélectrique Es sont susceptibles de produire un photoélectron (réalisation de la première cellule photoélectrique par Elster et Geitel, 1890). Le seuil photoélectrique Es dépend de la structure cristalline et de l’état de surface du matériau. Les seuils photoélectriques sont de l’ordre de 1 eV, limitant ainsi l’usage de l’effet photoélectrique dans le vide à la détection des longueurs d’onde inférieures au micromètre (visible, utraviolet, X). Lorsque l’énergie du photon est supérieure à celle du seuil, la probabilité de produire un photoélectron est le rendement quantique η défini par : nombre moyen de photoélectrons produits η= · nombre moyen de photons incidents Cette probabilité (Fig. 7.13) peut se déterminer théoriquement à partir de la structure atomique du matériau et de l’épaisseur de la couche émissive. Elle est généralement inférieure à l’unité, sauf lorsque l’énergie des photons (domaines UV et X) devient très grande devant les différences d’énergie entre niveaux du matériau. Les récepteurs concernés par l’effet photoélectrique dans le vide sont le photomultiplicateur, la caméra électronique, les intensificateurs d’image. Effet photoélectrique dans les solides Lorsque l’énergie du photon est insuffisante pour que l’électron franchisse la barrière de surface, elle peut néanmoins provoquer l’ionisation d’un atome du solide, la libération de porteurs de charge au sein du réseau cristallin et une modification de la conductivité électrique du matériau. L’effet photoconducteur ainsi produit permet la détection du photon incident (W. Smith, 1873).
358
L’observation en astrophysique
Fig. 7.13 – Rendement quantique η des photocathodes (en %) (a) dans le visible et le proche ultraviolet ; (b) dans l’ultraviolet lointain. La couche S1 est une photocathode Ag-O-Cs (1930), la couche S20 est trialcaline : Na2 KSb (Sommer, 1955). Notons la réponse extrêmement médiocre dans le rouge et excellente dans l’uv lointain.
Fig. 7.14 – Schéma des niveaux d’énergie dans un solide semi-conducteur. (a) Photoconductivité intrinsèque ; (b) Photoconductivité extrinsèque, en présence d’un dopant.
Les matériaux photoconducteurs, qui sont des cristaux semi-conducteurs, sont caractérisés par une structure particulière des niveaux d’énergie des électrons au sein du cristal (Fig. 7.14). Les niveaux de conduction sont séparés des niveaux de valence par une bande interdite (gap, en anglais) : l’écart en énergie Es lié à cette bande définit le seuil photoélectrique du matériau. La largeur en énergie de cette bande dépend du vecteur d’onde k des électrons. Soit E(k) cette largeur, sa valeur minimale Es est en général deux à quatre fois plus faible que sa valeur moyenne. Un photon d’énergie Eγ transfère un électron de vecteur d’onde k dans la bande de conduction, laissant une vacance ou trou dans la bande de valence, si Eγ > E(k). Cette paire de porteurs de charge se déplacera sous l’effet d’un champ électrique extérieur
7. Les récepteurs du rayonnement
359
Tab. 7.3 – Photoconductivité intrinsèque. Matériau
Longueur d’onde seuil (μm)
Température d’emploi (K)
Applications
Germanium Ge Silicium Si
1.88 1.14
77 300
Sulfure de cadmium CdS Antimoniure d’indium InSb Hg(1−x) Cdx Te
0.52
77-150
5.50 (77 K)
4-77
Variable avec x 20 μm
20-300
Énergie solaire Détecteurs astronomiques Photographie (pose-mètres) Détecteurs astronomiques Surveillance thermique, détect. astronomiques
appliqué, produisant un courant ou photocourant. Un cristal pur, pour lequel s’observe un tel effet, est appelé photoconducteur intrinsèque (Tab. 7.3). Dans un photoconducteur extrinsèque (Fig. 7.14b), des niveaux d’énergie supplémentaires apparaissent au sein de la bande interdite ; ils sont dus à l’adjonction dans le réseau cristallin d’atomes d’impuretés en très faible concentration (10−8 ) qui peuvent piéger les porteurs de charge ; le seuil d’énergie est alors abaissé, et ceci explique pourquoi tous les détecteurs dans l’infrarouge, au-delà d’environ λ = 5 μm, font appel à la photoconduction extrinsèque. Par exemple, le remplacement dans une matrice de silicium (groupe IV des éléments) d’un atome de Si par un atome d’arsenic (groupe V) intègre un atome dont la structure électronique est semblable à celle des autres atomes du réseau, ainsi qu’un électron supplémentaire, facile à ioniser, responsable de la photoconductivité extrinsèque (conductivité par électrons, de type n). Des atomes du groupe III, dans une matrice formée d’atomes du groupe IV, conduiront à une conductivité par trous, de type p. Un choix convenable de l’impureté ou dopant permet d’ajuster le seuil et, donc, le domaine de longueur d’onde de sensibilité (Tab. 7.4). Tab. 7.4 – Photoconductivité extrinsèque. Matériau matrice : dopant Si : As : In : Bi : Ga Ge : Ga Ge : Ga (*)
Longueur d’onde du seuil (μm) 24 7.4 18.7 17.8 120 195
Température d’emploi (K) < 20 77 29 27 4 4
(*) Le seuil est diminué par une pression mécanique exercée sur le cristal (en anglais, stressed photoconductor ).
Ce schéma idéal de photoconductivité doit prendre en compte les effets de la température et des impuretés. On distingue deux types d’utilisation
360
L’observation en astrophysique
des photoconducteurs selon que l’on mesure un courant électrique (photoconduction proprement dite) ou des impulsions. Dans le premier cas, il s’agit de mesurer un flux (photométrie). Dans le second, on mesure l’énergie des quanta (spectrométrie). Dans les deux cas, les performances du photoconducteur dépendent de sa conductivité. La conductivité dépend de la concentration en porteurs dans la bande de conduction. À basse température, celle-ci dépend de la température et du taux d’impuretés. À plus haute température, elle ne dépend plus des impuretés. Pour un semi-conducteur intrinsèque, la concentration en porteurs résulte de la loi d’action de masse et peut s’écrire : Es ni = pi ≈ T 3/2 exp − . 2kT Pour kT > 1 à 2 × 10−2 Es , le courant sera dominé par l’excitation thermique des électrons vers la bande de conduction et non par la photo-ionisation. Ceci explique qu’il soit nécessaire de refroidir un photoconducteur à une température T Es /k d’autant plus basse que l’énergie des quanta à mesurer est faible, que leur flux est faible (photométrie) ou qu’il importe de mesurer leur énergie avec précision (spectrométrie). De surcroît, les cristaux ne sont jamais parfaitement purs et il est très difficile de descendre à des taux inférieurs à 1011 impuretés cm−3 . Certains atomes d’impuretés créent des niveaux d’énergie extrêmement proches de la bande de conduction, qu’une température très faible suffit à exciter : même à basse température (T Ts ) et en l’absence de photons, la conductivité restera non nulle (courant d’obscurité) : on comprend que la qualité d’un récepteur photoconducteur puisse être représentée par la valeur de son impédance à sa température de fonctionnement en l’absence de tout éclairement (typiquement R 1 GΩ). Une fraction seulement des photons incidents crée des paires électronstrous : en effet, certains photons perdent leur énergie en excitant des vibrations du réseau cristallin ou phonons, qui échauffent le cristal (absorption optique). Lorsque l’épaisseur optique du matériau est suffisante, compte tenu de la section efficace de photo-absorption (τλ ∼ 1), le rendement quantique η du matériau est alors déterminé. L’effet photoélectrique dans les solides est devenu la base d’une grande famille de récepteurs utilisés en astronomie : diodes à avalanche, détecteurs infrarouges photoconducteurs ou photovoltaïques, dispositifs à transfert de charge (appelés encore Reticon, ccd, cid), détecteurs à bande de conduction bloquée (bib), tubes télévision, photodiodes. Effet photovoltaïque : jonctions5 . Considérons deux semi-conducteurs dopés, l’un par des impuretés donnant une conduction par électrons (type n), l’autre ayant une conductivité par trous (type p) : il pourra s’agir, par exemple, de silicium (groupe IV) respectivement dopé au phosphore (V) et au gallium (III). Mis au contact l’un de l’autre, ils forment une jonction (Fig. 7.15). 5 Voir
Kittel C., Physique de l’état solide, Chap. 8, Dunod, 2007.
7. Les récepteurs du rayonnement
361
Fig. 7.15 – Principe d’une jonction entre deux semi-conducteurs. Si deux porteurs (électron et trou) sont libérés par un photon incident sur la jonction non polarisée, ils modifient la tension à ses bornes de la quantité : ΔV =
eδx · εS
où δx est l’épaisseur de la jonction, S sa surface, ε la permittivité électrique du matériau. L’absorption du photon se traduit par l’apparition d’une tension aux bornes de la jonction, tension qui peut être mesurée par un circuit à haute impédance. C’est l’effet photovoltaïque (A. Becquerel, 1839). Puits quantiques. Les jonctions peuvent être réalisées soit à partir du même matériau semi-conducteur mais présentant des dopages différents de part et d’autre de la jonction, soit à partir de deux matériaux différents (hétérojonctions), auquel cas le gap diffère d’un côté à l’autre. En partant de l’arséniure de gallium AsGa, l’insertion d’atomes d’Al dans le réseau forme Alx Ga1−x As : celui-ci est compatible du point de vue de la maille cristalline et autorise la formation de jonctions. Un sandwich formé d’une mince couche de GaAs placée entre deux couches de Alx Ga1−x As présente ainsi une dépression de la bande de conduction au niveau du GaAs : un électron traversant la jonction reste piégé dans le GaAs, qui forme un puits de potentiel. Dans un tel puits quantique, l’électron ne peut avoir que des énergies bien définies et discrètes. Il est possible de construire sur ce principe des détecteurs de rayonnement infrarouge, en réalisant une succession de puits quantiques dont les niveaux se correspondront. Un photoélectron pourra ainsi cheminer de puits en puits par effet tunnel, jusqu’aux électrodes externes. Comptage de photons par effet tunnel. Considérons le dispositif réalisé en plaçant une couche mince (≈ 10 nm) d’isolant en sandwich entre deux électrodes supraconductrices, formant ainsi, à basse température, une jonction, appelée Supraconducteur-Isolant-Supraconducteur ou sis. Ces jonctions
362
L’observation en astrophysique
sont couramment utilisées comme mélangeurs dans les récepteurs de radiofréquences (cf. § 7.5). Mais elles présentent un principe prometteur pour le comptage direct de photon, depuis les rayons X jusqu’au proche infrarouge, sous la dénomination de jonctions supraconductrices à effet tunnel (jset), en anglais Supraconducting Tunnel Junction (stj). La figure 7.16 résume le principe de la détection de photons par une telle jonction6 . En l’absence d’éclairement et à température nulle, un courant de quasi-particules ne peut franchit la couche d’isolant que lorsque la différence de potentiel appliquée dépasse la somme des gaps des deux supraconducteurs (par exemple niobium, ou hafnium). Si T > 0, un courant d’obscurité circule dès que δV = 0. L’absorption d’un photon dans le supraconducteur brise un nombre de paires de Cooper directement proportionnel à l’énergie du photon ; ceci engendre des quasi-particules, alors collectées comme courant circulant dans la jonction. Les charges ainsi collectées peuvent être amplifiées. En outre, un effet d’avalanche se produit car une quasi-particule, induite par le photon, peut se coupler avec une paire de Cooper après avoir traversé la barrière de l’isolant, traverser à nouveau et être décomptée à nouveau. Le mécanisme est à la fois quantique (comptage de photons), contient une amplification intrinsèque sans bruit (avalanche) et possède une certaine sélectivité spectrale (≤ 100).
Fig. 7.16 – Jonction à effet tunnel Supraconducteur-Isolant-Supraconducteur. (a) Structure des niveaux d’énergie de part et d’autre de l’isolant. Les états occupés sont en grisé. L’énergie est en ordonnée et la densité d’états en abcisse. 2 Δ est l’énergie de gap du supraconducteur. Lorsque V est suffisant pour que les états occupés (à gauche) soient en vis-à-vis des états vacants (à droite), un courant de quasi-particules circule facilement par effet tunnel. Si eV < 2 Δ, un photon peut néanmoins exciter un porteur de charge à l’énergie où l’effet tunnel est possible (effet tunnel assisté). (b) Caractéristique courant tension de la jonction. Trait plein : en l’absence d’éclairement. Tireté : en présence de photons. (Philips T.G., Woody D.P., ARAA, 20, 285, 1982. Reproduit avec l’aimable autorisation de Annual Review of Astronomy and Astrophysics, 1982, Annual Reviews Inc.) 6 Voir par exemple Delaet, B., Feautrier, P., Villégier, J.-C., Benoît, A. « X-ray and optical photon counting detector using superconducting tunnel junctions », ieee Trans., 11, 2001.
7. Les récepteurs du rayonnement
363
Effet photochimique Cet effet est à la base de la photographie (N. Niepce, 1822 ; C. Daguerre, 1829) : dans l’émulsion, le photon incident excite un électron vers la bande de conduction, laissant un trou positif. L’électron libéré est recapturé par un défaut du réseau cristallin et attire dans ce site un ion argent Ag+ , formant un atome Ag neutre. Ce processus se répète jusqu’à ce que se soit constitué un petit nuage d’atomes d’argent (Ag), qui forment un pixel ou élément d’image de l’image latente. Le trou résiduel, chargé positivement, peut se déplacer sous l’effet d’une excitation thermique et se recombiner à l’atome Ag, redonnant Ag+ . Les procédés de sensibilisation et d’hypersensibilisation des plaques visent à détruire ces trous résiduels. Le procédé de fabrication de l’émulsion crée les défauts cristallins nécessaires dans les grains de chlorure d’argent AgCl, par l’addition d’un agent réducteur convenable (théorie de Gurney-Mott). Lors du développement, une amplification considérable se produit, puisqu’un seul atome d’argent libéré par un photon peut donner jusqu’à 109 atomes dans l’image révélée. Le bruit ou grain de la plaque est dû à la formation de grains d’argent sur les défauts cristallins sans action initiale d’un photon. Le rendement quantique d’une émulsion photographique est faible, de l’ordre de 8 × 10−3 . C’est le principal défaut de l’effet photochimique. Le seuil de l’effet photochimique est également gouverné par la valeur de l’énergie d’excitation de l’électron dans AgCl ou un halogénure de ce type, ce qui limite la sensibilité des plaques à la frontière infrarouge du spectre visible (λ ≤ 800 nm). Le récepteur basé sur l’effet photochimique est évidemment la plaque photographique. Comme un bombardement d’électrons sur une émulsion est susceptible de produire une image latente par un processus identique à celui décrit, les émulsions nucléaires utilisent également l’image latente pour mettre en évidence les impacts électroniques : ceci trouve son application dans la caméra électronique. Photo-ionisation des gaz Lorsque l’énergie du photon incident est suffisante (10 eV : ultraviolet ou domaine X), un atome peut être photo-ionisé : l’électron libéré est accéléré par un champ électrique extérieur, provoque une nouvelle ionisation par choc, etc. Les charges collectées par l’électrode accélératrice sont mesurées par un amplificateur de charge ou électromètre. La limite de fonctionnement est atteinte lorsque l’effet multiplicateur conduit à une décharge dans le gaz. Au-dessous de cette limite, la réponse est linéaire. Il est impropre de parler ici de rendement quantique au sens donné plus haut, car un photon peut produire plus d’un électron (double ionisation). Par extension, on utilise la même notation η pour désigner le nombre moyen d’électrons obtenu par photon incident, ce
364
L’observation en astrophysique
nombre pouvant dépasser l’unité (en anglais, quantum yield ). La section efficace de photo-ionisation dans un gaz varie avec l’énergie incidente E comme E −7/2 . Vers 10 keV, elle devient inférieure à la section de diffusion collisionnelle (section Thomson) et la photo-ionisation n’est plus utilisable. Les gaz nobles (néon, argon, xénon) sont utilisés à cause de leur gain élevé, car les autres mécanismes possibles d’excitation (rotation ou vibration) sont absents. On ajoute au gaz noble une impureté opaque au rayonnement uv émis par désexcitation radiative des atomes de gaz noble excité, de façon à en utiliser l’énergie pour de nouvelles ionisations. De plus, les impuretés désexcitent les états métastables du gaz noble par collisions. L’effet d’ionisation des gaz est à la base des détecteurs appelés compteurs proportionnels. Les chambres à fil (Charpak7 ) sont utilisées pour la détection des événements auprès des accélérateurs de particules. Elles reposent également sur la photo-ionisation d’un gaz : la différence est que, dans ce cas, l’ionisation n’est pas exclusivement due aux photons. Interaction photon-matière à haute énergie (>10 keV) L’interaction des γ et de la matière produit des particules chargées (e− , e ), auxquelles est transférée l’énergie du photon sous forme cinétique : l’information concernant l’énergie et la direction du photon γ est transférée à ces particules. Ces particules chargées interagissent à leur tour avec la matière par ionisation, rayonnement de freinage, annihilation... À basse énergie, les pertes par ionisation dominent, les particules chargées perdent peu à peu leur énergie en formant des paires électron-ion ou électron-trou. La plupart des détecteurs utilisent ces paires de charges pour détecter le passage d’un photon γ ou pour mesurer son énergie par la quantité de charges produites. Les trois principaux processus d’interaction à haute énergie sont l’absorption photoélectrique, la diffusion Compton et la création de paires. +
Absorption photoélectrique. Dans ce processus, un photon cède la totalité de son énergie Eγ à un électron du cortège atomique. Cette interaction se produit préférentiellement sur les couches les plus profondes (d’énergie la plus élevée). L’électron est éjecté avec une énergie cinétique égale à l’énergie du photon incident diminuée de l’énergie d’extraction de l’électron. En se propageant, l’électron ionise les atomes se trouvant sur son parcours. Une série de recombinaisons permet alors à tous les ions formés de se désexciter. En particulier, l’ion formé par l’interaction initiale du photon se désexcite en émettant un photon X caractéristique de la couche de l’électron éjecté (K, L). Si le matériau utilisé pour la détection est mince, certains de ces photons X s’échappent sans interagir ; on parle alors d’échappement. Dans la plupart des cas, ces photons X ne parviennent pas à s’échapper et c’est donc 7 Georges Charpak, né en 1924, physicien français, prix Nobel de physique 1992, a inventé ce dispositif expérimental de visualisation des particules élémentaires au cern.
7. Les récepteurs du rayonnement
365
Fig. 7.17 – Coefficient massique d’absorption en fonction de l’énergie du photon incident. On notera la discontinuité d’ionisation K à basse énergie, et la dépendance en énergie de la section efficace. (D’après Gursky H., Schwartz D., X-Ray Astronomy, Reidel, 1974. Avec l’aimable autorisation de D. Reidel Publishing Company.) toute l’énergie du photon γ qui est transmise au milieu. La section efficace d’interaction photoélectrique dépend donc de l’énergie du photon incident et du cortège électronique des atomes du milieu. On observe en particulier des discontinuités aux énergies correspondant aux diverses couches du cortège électronique (Fig. 7.17). Cependant, en première approximation, cette section efficace peut être décrite par : σp = Z 4,5 E −3.5 . γ Diffusion Compton. Lors d’une diffusion Compton, une partie seulement de l’énergie du photon incident est transférée à un électron. Le reste de l’énergie est emportée par un photon diffusé. L’électron diffusé, comme dans le cas de l’effet photoélectrique, perd son énergie lors de sa propagation, principalement par ionisation. Le photon diffusé peut à son tour interagir avec le milieu par une nouvelle diffusion Compton ou par une absorption photoélectrique. Les directions du photon incident et du photon diffusé sont déterminées par conservation de l’énergie et de l’impulsion. Elles sont reliées à l’énergie Eγ du photon incident et à l’énergie Ed du photon diffusé par : cos θ = 1 −
m 0 c2 m 0 c2 + , Ed Eγ
où θ est l’angle entre ces deux directions. La figure 7.18 montre que toutes les directions de diffusion ne sont pas équiprobables ; la section efficace
366
L’observation en astrophysique
Fig. 7.18 – Section efficace microscopique de diffusion Compton, en fonction de l’angle de diffusion, à différentes énergies. re est le rayon classique de l’électron. La section est en rd−1 : il s’agit donc d’une valeur différentielle angulaire.
différentielle stérique d’interaction Compton dépend de l’angle de diffusion θ suivant la formule de Klein-Nishina : dσc 1 2 Ed Eγ Ed 2 = re + − sin θ , dΩ 2 Eγ Ed Eγ où re est le rayon classique de l’électron (re = 2.82 × 10−15 m) et dΩ l’élément d’angle solide autour de la direction θ. Plus l’énergie augmente, plus il est probable que le photon soit diffusé vers l’avant. La section efficace totale d’interaction Compton suit à peu près l’expression : σc ∞ ZE −1 . Création de paire. Dans ce processus, un photon de haute énergie (E 1 MeV) interagit avec le champ électrique d’un noyau lourd pour former une paire électron-positon. L’énergie du photon se partage en énergie de masse de la paire formée (1.22 MeV) et en énergie cinétique donnée à la paire. L’énergie emportée par le recul du noyau est négligeable, mais la quantité de mouvement qu’il emporte assure l’équilibre de la réaction. Dans le repère du centre de masse, l’électron et le positon sont émis dans des directions opposées.
7. Les récepteurs du rayonnement
367
En se propageant, l’électron et le positon perdent progressivement leur énerˇ gie, principalement par ionisation, rayonnement de freinage et effet Cerenkov. Lorsque l’énergie du positon est suffisamment faible (≈1 keV), celui-ci s’annihile (réaction inverse) avec un électron du milieu en émettant deux photons à 511 keV dans des directions opposées. Ces photons pourront s’échapper ou interagir à leur tour avec le milieu par diffusion Compton ou absorption photoélectrique. La section efficace de création de paires varie approximativement comme Z 2 et est caractérisée par le seuil à 1.22 MeV. Comparaison des processus. La dépendance en énergie des trois processus d’interaction mentionnés plus haut fait que chacun d’eux est prédominant dans un domaine d’énergie dépendant du milieu d’interaction. À basse énergie, l’absorption électrique domine ; à haute énergie, la création de paire devient prépondérante ; le domaine d’énergie de la diffusion Compton se place entre les deux. La largeur du domaine d’énergie dominé par l’interaction Compton dépend fortement du numéro atomique Z du matériau (Fig. 7.19). Cette largeur sera d’autant plus grande que le matériau est léger. D’une façon générale, à grammage (masse par unité de surface) égal, les matériaux légers sont plutôt diffusants et les matériaux lourds plutôt absorbants.
100 80
Absorption photo−électrique dominante
Création de paires dominante
Z
60 40 Diffusion Compton dominante
20 0 0.01
0.10
1.00 Energie (MeV)
10.00
100.00
Fig. 7.19 – Domaines d’énergie propres à chacun des processus d’interaction des photons γ avec un matériau, en fonction du numéro atomique Z de celui-ci. Les courbes correspondent à l’égalité des sections efficaces des deux processus qu’elles séparent.
La diffusion Compton et la production de paires sont les processus physiques qui sont à la base des compteurs à scintillation ou scintillateurs, ainsi que des détecteurs à semi-conducteurs. Nous voyons l’application à l’astronomie γ de ces processus § 7.6.
368
L’observation en astrophysique
Effet thermique (calorimétrie) Lorsque l’énergie du photon est transférée au solide formant le récepteur et transformée en énergie d’agitation thermique, la présence de rayonnement incident se traduit par une variation de température qu’il suffit de mesurer, par exemple grâce à une variation de résistivité. La seule condition de fonctionnement est de garantir une absorption aussi totale que possible des photons, ainsi que des produits secondaires éventuels. L’effet thermique est utilisé dans les récepteurs appelés bolomètres, principalement dans l’infrarouge et le submillimétrique. Il est également utilisé dans des calorimètres pour mesurer l’énergie des photons γ.
7.3.2
La détection du champ électromagnétique
Aucun détecteur quantique, au sens où nous les avons définis jusqu’ici – libération d’une photocharge par un photon incident – n’est pratiquement réalisable actuellement aux longueurs d’onde supérieures à environ 0.2 mm. Dans tout le domaine des radiofréquences, il faut donc mettre en œuvre d’autres procédés de détection, qui reposent sur une mesure du champ électrique de l’onde incidente. Son champ électromagnétique, ou le courant qu’il induit dans une antenne, sont appliqués à un élément non linéaire, appelé diode ou mélangeur, le plus souvent en superposant ce champ à celui d’un oscillateur local. Le choix de l’élément non linéaire et celui du mélangeur conditionnent les performances finales de la détection. Nous renvoyons donc ci-dessous pour une présentation complète de ces différents éléments.
7.4
Les récepteurs astronomiques : des X au submillimétrique
Depuis les années 1970-1980, une véritable révolution a transformé le paysage des récepteurs utilisés en astronomie. Le moteur de ce changement a été l’émergence des microtechnologies, permettant de réaliser des détecteurs de lumière, utilisables depuis les rayons X jusqu’au submillimétrique, dont les performances en sensibilité (rendement quantique) ont très rapidement éliminé la photographie traditionnelle, puis les divers dispositifs qui étaient apparus pour la compléter. À ces performances s’est ajouté la possibilité d’une numérisation directe du signal, conduisant à une extrême facilité de transmission, de stockage et de traitement de celui-ci, ainsi que d’autres avantages mécaniques ou d’encombrement, facilitant par exemple l’implantation sur des observatoires spatiaux ou à bord de missions lointaines. Dans ce contexte renouvelé, c’est donc le plus souvent pour mémoire que nous maintenons les anciens récepteurs, à cause du rôle historique qu’ils ont joué et des références dont ils peuvent être l’objet. Toutefois, on n’oubliera pas l’extraordinaire richesse que représentent les archives photographiques astronomiques, collectées
7. Les récepteurs du rayonnement
369
tout au long du xxe siècle et aujourd’hui disponibles, pour la plupart d’entre elles, sous forme numérisée (cf. Chap. 10). Dans une première partie, nous traitons donc des détecteurs plus traditionnels, fonctionnant depuis les rayons X jusqu’au proche infrarouge, et consacrons la suivante à l’ensemble des détecteurs, utilisant principalement la génération et le transfert de charge dans des semi-conducteurs et faisant appel pour leur réalisation aux techniques de micro-électronique. Hors de ce large domaine spectral, couvrant une gamme allant des X au submillimétrique, les récepteurs du domaine γ d’une part, des radiofréquences d’autre part n’ont pas vraiment connu semblables révolutions. Le tableau 7.5 donne l’ensemble du paysage actuel. Tab. 7.5 – Les récepteurs de l’astronomie.
7.4.1
Les performances en bruit
Au début de ce chapitre, nous avons étudié les bruits fondamentaux, imposés par la nature poissonnienne de l’interaction lumière-matière ou la thermodynamique d’un équilibre thermique. Un récepteur donné n’atteint que rarement ces performances ultimes. Ses performances réelles dépendent donc des éventuelles fluctuations qu’il ajoute aux fluctuations propres du signal (bruit de signal) ou de l’environnement du récepteur (bruit de fond ou back-ground noise, en anglais). Il importe de qualifier ces performances réelles, celles qui influeront finalement sur la qualité d’une observation.
Rendement quantique équivalent Le rendement quantique équivalent δ (en anglais, Detective Quantum Efficiency ou dqe) quantifie cette notion. Il est une extension du rendement quantique η déjà introduit, avec lequel il ne doit pas être confondu. Il est
370
L’observation en astrophysique
défini par : ¯ 2 détecteur réel ΔN 2 /N δ = DQE (ou RQE) = ¯ 2 détecteur idéal ·
ΔN 2 /N Il est facile de vérifier que, si le récepteur, de rendement quantique η, n’introduit aucune fluctuation supplémentaire, seule subsiste la statistique poissonnienne des photons incidents et : ¯, ΔN 2 idéal = N ¯ ΔN 2 détecteur réel = η N
¯réel = η N ¯idéal . N
La définition de δ se confond alors avec celle de η, d’où la désignation. En sus des fluctuations fondamentales liées au rayonnement, un détecteur peut être affligé de bruit d’amplification et de bruit de lecture. Bruit d’amplification Certains récepteurs photoélectriques (photomultiplicateurs, effet d’avalanche dans les diodes à avalanche ou les ccd dans le domaine X) traduisent ainsi l’impact d’un photon : 1 photon → η photoélectrons → Amplification → ηg électrons → Mesure. Le gain g ainsi une variable aléatoire (de moyenne g¯, d’écart-type σg ) associée aux impacts photoniques. Le bruit ainsi créé sur le signal n’est plus additif mais multiplicatif. Il dégrade le dqe du facteur :
σg2 1+ 2 g¯
−1 .
Bruit de lecture Les récepteurs (ccd par exemple, cf. § 7.4.6) mesurent de façon périodique le nombre total de photocharges intégrées entre deux lectures d’un pixel. Chaque transfert de charge s’accompagne généralement d’une fluctuation, dont l’écart-type est mesuré en nombre d’électrons par lecture. Cet écart est le bruit de lecture (en anglais readout noise), appelé encore charge équivalente de bruit ou nec (Noise Equivalent Charge). S’agissant d’un écart-type, nous le notons σL ; il s’exprime en nombre d’électrons r.m.s. La valeur de σL pour un dispositif donné peut éventuellement dépendre de la cadence de lecture, donc du temps d’intégration T . σL croît généralement lorsque celui-ci décroît. Toutefois, σL n’a plus la dépendance classique d’un bruit intégré variant comme T 1/2 (cf. infra).
7. Les récepteurs du rayonnement
371
Ramené à l’entrée, il dégrade le dqe d’un facteur : 2 σL √ . ¯T g¯η N Le dqe s’écrit donc, dans le cas le plus général8 : −1 2 σg2 σL , σ=η 1+ 2 + 2 2 ¯ g¯ g¯ η N T ¯ flux moyen de photons par seconde, T période de lecture, les fluctuaavec N tions étant additives de façon quadratique.
7.4.2
La plaque photographique
Depuis son invention, la plaque photographique a considérablement progressé en sensibilité, passant ainsi d’un flux de 10−4 J-cm−2 , nécessaire pour impressionner une plaque en 1850, à un flux 106 fois moindre un siècle plus tard. On peut néanmoins considérer que ceci atteint la limite possible. Ses avantages tiennent à sa facilité d’emploi, à sa capacité d’intégration de flux faibles sur de longues poses et, surtout, au très grand nombre de pixels qu’elle permet d’exposer simultanément (jusqu’à 1010 ). Elle est à elle-même sa propre mémoire de masse. Ses inconvénients sont sa non-linéarité, sa dynamique assez limitée, son grain, ainsi que la nécessité de procéder à une microdensitométrie (Fig. 7.20) pour transformer l’information analogique, stockée sur la plaque sous forme de noircissement, en information numérique susceptible de traitements quantitatifs ultérieurs. Ce processus de balayage point par point demeure celui du moderne scanner, utilisé pour numériser les documents. Pour créer les archives numériques des clichés anciens, tel que présenté au chapitre 10, des machines à mesurer et à numériser les clichés astronomiques, capables de traiter un très grand nombre de pixels, existent ont été développées dans les années 1990, en France (mama, ou Machine À Mesurer pour l’Astronomie), en Grande-Bretagne (cosmos), etc. Le signal enregistré se mesure en densité de l’émulsion. Si le pixel considéré lors de la microdensitométrie transmet la fraction I/I0 d’un rayonnement incident, la densité d est définie par : d = − log 10
I · I0
La plaque photographique demeure un détecteur utile mais, malgré son nombre élevé de pixels (jusque ∼1010 ), elle est désormais dépassée par les réseaux de détecteurs ccd, pouvant en 2007 compter 108 pixels. 8 On trouvera à l’exercice 7.4 une discussion de l’expression du dqe qui inclut le courant d’obscurité, ainsi qu’une extension de la définition de δ au cas d’un récepteur d’image, incluant les fréquences spatiales.
372
L’observation en astrophysique
Fig. 7.20 – À gauche : microphotométrie d’une plaque photographique ou électronographique. La source de lumière L émet un rayon reçu par la cellule photosensible C. L’intensité i mesurée, ainsi que les coordonnées x et y, lues par un capteur de position, sont numérisées. L décrit un balayage bidimensionnel. À droite : isophotes du jet, issu du quasar 3C273, obtenus par numérisation du cliché. Noter l’oscillation du jet autour de sa direction moyenne. (Cliché dû à l’obligeance de Wlérick G. et Lelièvre G., télescope Canada-France-Hawaii, caméra électronique grand champ. Couleur U (ultraviolet proche). Pose 165 min., 1984.)
7.4.3
Photomultiplicateur et caméras classiques (X, UV, visible)
Ici encore, ces détecteurs ont joué un grand rôle dans les années 1950-1990, puis ont été entièrement supplantés par les ccd et récepteurs semblables. Il s’agit de récepteurs fonctionnant en comptage de photons. Photomultiplicateur (pm) Considéré longtemps comme le récepteur idéal, le photomultiplicateur (en abrégé pm) est un tube évacué contenant une série d’électrodes, dont la première est exposée au rayonnement. Celui-ci libère un premier photoélectron, extrait de la photocathode par une première dynode ou électrode positive, puis crée des électrons secondaires par impact ; ces électrons accélérés à leur tour en provoquent de nouveaux... Le courant final est mesuré par un amplificateur de charge ou électromètre. Le photomultiplicateur demeure néanmoins très utilisé dans les récepteurs à haute énergie (rayons γ), où il détecte les photons induits par les interactions et les compte (cf. infra). Fondé sur l’effet photoélectrique, le photomultiplicateur ne présente pas de seuil de sensibilité, peut donc détecter un quantum et est parfaitement linéaire jusqu’à ce qu’un flux trop élevé provoque une avalanche
7. Les récepteurs du rayonnement
373
d’électrons détruisant les électrodes. Sa sensibilité est limitée au domaine 20-1200 nm, par les effets d’avalanche dans l’UV lointain et par la réponse des photocathodes dans le proche IR. La figure 7.13 donne la réponse ou rendement quantique. Le pm n’a pratiquement pas de sélectivité spectrale et son temps de réponse est extrêmement court (temps de transit des électrons entre dynodes, soit quelques nanosecondes). Il n’a évidemment pas de capacité multicanal (sauf certaines configurations qui canalisent les photoélectrons et peuvent discriminer entre points de la photocathode), et la photocathode peut présenter certaines inhomogénéités de réponse en surface. À température non nulle, l’émission thermo-électronique de la cathode produit des électrons accélérés, même en l’absence de photons incidents. La loi de Richardson donne la valeur de la densité du courant extrait à la température T , pour un potentiel d’extraction Es /e, ρe étant un coefficient de réflexion qui mesure la probabilité de recapture par les électrons d’un électron émis : 4 πek2 Es 2 = j= (1 − ρ ) T exp − e h3 kT Es 1.2 × 106 (1 − ρe ) T 2 exp − A m−2 . kT Avec T = 300 K, S = 1 cm2 , Es = 1 eV, il vient I = jS = 0.2 nA. Ce courant d’obscurité est important : à titre de comparaison, avec η = 0.5, un flux d’un photon par seconde produit un courant de 0.8 × 10−19 A ! Le courant d’obscurité décroît très vite avec T (refroidissement des pm par la neige carbonique ou par réfrigérateurs à effet Peltier ) et lorsque Es augmente (photocathodes UV). Bien que la valeur moyenne jS = iB du courant d’obscurité puisse être soustraite des mesures, ses fluctuations δi 2B = 2e iB Δf , où Δf est la bande passante du filtre électrique qui suit le pm, forment une limitation fondamentale de la sensibilité (exercice 7.1). Avec le courant ci-dessus et en prenant Δf = 1 Hz, il vient :
δi2B
1/2
= 9 × 10−15 A Hz−
1/2
.
La mesure du signal peut se faire de différentes façons : – Par intégration de charge : un circuit de filtrage (résistance et capacité) ou d’intégration (moyenne courante) fournit une tension analogique variant continûment dans le temps. – Par comptage d’impulsions : un compteur enregistre chaque « bouffée » d’électrons, quel qu’en soit le nombre et la durée. Le signal est numérisé et la possibilité de discriminer alors, par la hauteur des impulsions, leur durée..., offre une protection possible contre les signaux parasites.
374
L’observation en astrophysique
Tab. 7.6 – Le photomultiplicateur. Seuil Format Rendement quantique Réponse spectrale Réponse temporelle Géométrie Bruit Polarisation
un quantum jusque 8 × 8 pixels 0.43 (Ag-O-Cs à 800 nm) à 0.1 large nanoseconde ≈ dizaine de cm2 (cathode) courant d’obscurité, σB ≈ 10 coups Hz−1/2 insensible
Autres récepteurs à comptage Beaucoup d’efforts ont été mis en œuvre pour combiner les avantages de l’effet photoélectrique dans le vide et la détection d’images bidimensionnelles. Nous parcourons rapidement ici les réalisations, très imaginatives, qui ont marqué les décennies 1950-1990 et qui, pour la plupart, ont été supplantées par les ccd (cf. infra). La caméra électronique. Inventée et perfectionnée par A. Lallemand, la caméra électronique est constituée d’une photocathode sur laquelle est formée dans le vide l’image I(x, y). À l’aide d’une optique électronique à focalisation électrostatique ou magnétique, les photoélectrons produits sont accélérés puis une image électronique est reformée sur une plaque photographique à haut contraste (émulsion nucléaire). La caméra peut fonctionner à des niveaux d’intensité extrêmement faibles, elle ne présente pas l’effet de seuil d’intensité de la plaque photographique et peut pratiquement enregistrer un photoélectron unique. Sa capacité d’intégration temporelle en pose longue est excellente (absence de voile), elle présente donc des avantages évidents pour la photographie d’objets très faibles. Intensificateur d’image à galette de microcanaux. L’intensificateur d’image est un dispositif à l’entrée duquel est formée une image, à faible flux de photons d’une certaine longueur d’onde. La face de sortie du dispositif comprend un nombre de pixels égal à celui présent à l’entrée. Chaque pixel de sortie se comporte en source de photons, dont le nombre est proportionnel à celui des photons incidents, mais dont la longueur d’onde en diffère. Le système est donc caractérisé par un gain g. La galette de microcanaux (en anglais, microchannel plate ou channeltron) est un intensificateur basé sur l’effet photoélectrique dans les solides. Les photoélectrons sont guidés et multipliés dans un canal à gradient de voltage accélérateur (Fig. 7.21). L’impact final se fait sur un phosphore, qui émet dans le visible. Les photons incidents peuvent être visibles, ultraviolets ou X mous. Plusieurs galettes peuvent être disposées en série pour augmenter le facteur d’amplification. N’ayant aucune capacité de stockage de l’information, la galette ne saurait être employée seule : elle doit être couplée à un ccd. Le dispositif est également désigné par le terme ccd intensifié.
7. Les récepteurs du rayonnement
375
Fig. 7.21 – (a) Microcanal dans un semi-conducteur, élément constitutif d’une galette de microcanaux. Le photon incident libère un photoélectron, accéléré par le champ E et multiplié par impacts électroniques successifs. Le phosphore est excité en sortie et émet un grand nombre de photons. (b) Le grand angle solide d’émission du phosphore impose un couplage par fibres optiques. Chaque fibre est au contact du phosphore et transmet les photons correspondant à un pixel, jusqu’à l’élément du ccd qui les détecte. La figure représente des canaux rectilignes pour simplifier, mais ils sont généralement courbes afin d’éviter les remontées d’ions.
Télévision à comptage de photons. À partir des tubes mis au point pour la télévision commerciale dans les années 1950, de nombreux perfectionnements ont cherché à en accroître la sensibilité, pour aboutir à un véritable comptage de photons (Fig. 7.22). Toute une série de récepteurs, utilisés en astronomie, fut ainsi développée. • Les tubes vidicon et dérivés. Le principe de base du tube télévision consiste à utiliser l’effet photoélectrique du silicium : les photoélectrons libérés sont stockés au fur et à mesure dans une couche de microcapacités, périodiquement rechargées (25 fois par seconde) par un faisceau d’électons qui la balaie (tube vidicon). Le courant de recharge du microcondensateur est modulé en fonction de l’éclairement. Passant dans la résistance de charge de la cible, il produit une différence de potentiel qui est le signal vidéo à quelques dizaines de MHz. Le bruit de lecture est élevé (σ ∼ 2 × 103 électrons pixel−1 Hz−1/2 ) et se traduit par un effet facile à observer sur un écran tv : un fond noir, sans signal, est constellé de façon aléatoire (la « neige »). Dans le tube sec (Secondary Electron Conduction ou conduction par électrons secondaires), les photoélectrons sont accélérés sur une cible, y produisent une émission secondaire d’électrons, lesquels sont alors lus par le balayage tv classique. Un gain de l’ordre de 1 000 se paie par une forte non-linéarité. Dans le tube sit (en anglais, Silicon Intensified Target) ou ebs (Electron Bombarded Silicon), les photoélectrons sont accélérés sur une cible en silicium, avec une énergie suffisamment élevée pour créer à chaque impact plusieurs milliers de paires électrons-trous qui sont alors collectées par une mosaïque de jonctions ou diodes. Les paires électrons-trous créées
376
L’observation en astrophysique sont séparées par le champ électrique de la diode et déchargent une microcapacité, qui est rechargée par le faisceau électronique de lecture. Un principe analogue est utilisé dans l’eb-ccd ou Electron Bombarded ccd.
• Caméra à comptage de photons. Désignée en anglais, par Image Photon Counting System ou ipcs), cette caméra a combiné les propriétés de linéarité et de sensibilité de la caméra électronographique, la commodité d’emploi de la caméra de télévision et le stockage de l’information sous forme numérique pour un traitement ultérieur. Elle fut développée par Alec Boksenberg 9 à Cambridge (uk) et s’est rapidement répandue dans les observatoires astronomiques, jusqu’à son remplacement par des ccd. C’est une caméra à comptage, réalisée en Europe, qui a équipé le télescope spatial Hubble dans les années 1990. La caméra (Faint Object Camera ou foc) a permis les premières observations profondes de ce télescope, avant d’être remplacée en orbite, lors de visites d’astronautes, par des détecteurs ccd. On y trouve un intensificateur d’image : les photons incidents sur une photocathode génèrent des photoélectrons accélérés et focalisés magnétiquement sur un phosphore, qui réémet des photons à chaque impact. Le processus d’amplification est répété dans trois étages successifs, le gain final étant de 1.3 × 105 . L’intensificateur est suivi d’une optique : l’image, formée sur le phosphore de sortie de l’intensificateur, est reformée à l’aide d’un objectif sur la face d’entrée d’un faisceau cylindrique de fibres optiques, qui définissent avec précision chaque pixel. Les photons sont ainsi canalisés sur la photocathode d’un tube télévision du type ebs (Electron Bombarded Silicon ou silicium bombardé par des électrons). Chaque impact de photon se traduit par une impulsion sur le signal vidéo en sortie : l’instant auquel se produit cette impulsion permet d’assigner avec précision l’événement à un pixel défini de l’image : le signal vidéo, digitalisé, permet d’incrémenter d’une unité le contenu de la mémoire affectée à ce pixel. Cette chaîne présente de multiples avantages : le système est pratiquement sans bruit ; la lecture est non destructive ; le format (512 × 512) était bon pour l’époque ; les impacts de photons peuvent être localisés avec précision. En revanche, la sensibilité s’accompagne d’une saturation très rapide. D’autres versions de récepteurs fondés sur le principe « comptage de photons » ont été développées dans la décennie 1980, telles que la mise en série de deux intensificateurs d’image suivis d’un ccd. On a également utilisé le couplage d’une caméra électronique (photocathode et accélération des photoélectrons) avec un ccd fonctionnant de façon inhabituelle mais efficace : bombardé par les électrons accélérés, chaque 9 Boksenberg A. et Coleman C.I., Advances in Electronics and Electron Physics, 52, 355, 1979.
7. Les récepteurs du rayonnement
377
pixel libère un grand nombre de charges qui sont alors lues par le circuit de lecture (eb-ccd ou Electron Bombarded ccd).
Fig. 7.22 – Visualisation du comptage de photons. Photographie de l’écran tv du tube Nocticon (une pose = 25 ms). Noter le gain variable qui conduit à des événements de brillance variable ; noter aussi les événements de bruit, plus faibles et faciles à discriminer. L’image est lue sur une matrice ccd 512 × 512. Chaque événement est centré numériquement (Observatoire de Marseille, cliché dû à Bouleisteix J., années 1980.)
Photodiodes à avalanche. Considérons une jonction très fortement polarisée en inverse, donc non conductrice. Le matériau de la diode étant du silicium, un photon incident génère un photoélectron. La très forte polarisation (quelques V μm−1 ) accélère cet électron, qui photo-ionise en chaîne les atomes de Si rencontrés. Le processus s’amplifie par multiplication jusqu’à créer par avalanche une impulsion de courant aux bornes de la diode pouvant atteindre 109 charges et donc facile à détecter au-dessus du bruit propre de la diode. Les taux de comptage peuvent atteindre 106 photocharges s−1. Le dispositif a une très grande rapidité de réponse, pouvant atteindre quelques nanosecondes. On peut ainsi compter individuellement les photoimpulsions, un temps mort de quelques centaines de nanosecondes devant être respecté pour restaurer les charges (en anglais, quenching). Leur utilisation pour l’étude de la cohérence du rayonnement par corrélation pourrait être prometteuse. Le grand avantage de ces « photomultiplicateurs solides » est de fonctionner en mode comptage (donc avec une limitation par le bruit poissonnien du signal) tout en disposant de l’excellent rendement quantique du silicium (>0.6). L’extension au proche infrarouge par l’emploi de germanium est envisageable. Leur limitation est double : d’une part, l’encombrement stérique de chaque diode fait qu’il est difficile d’en fabriquer des mosaïques : néanmoins, des barettes de quelques unités ou
378
L’observation en astrophysique dizaines deviennent disponibles (années 2000) et il n’est pas à exclure que des mosaïques de 1 000 × 1 000 le soient un jour. D’autre part, la recombinaison des charges produit un « flash » lumineux : sans inconvénient si l’emploi se limite à une seule diode, il devient gênant dans le cas des mosaïques car il crée de la diaphotie (cross talk, en anglais) entre pixels voisins. Comparées aux photomultiplicateurs auxquels leurs propriétés les apparentent, elles sont encore limitées par une taille de zone photosensible plus faible. Néanmoins les développements sont rapides et des tailles atteignant 200 mm2 sont réalisées. En 2007, ces récepteurs sont sérieusement concurrencés par les L3-ccd (cf. infra).
7.4.4
Les récepteurs du rayonnement X (0.1 à 10 keV)
Nous présentons ici une famille de récepteurs, fonctionnant en comptage de photons, qui ont accompagné l’émergence de l’astronomie X, et qui dans la décennie 2000 se trouvent progressivement supplantés par les détecteurs ccd, présentés plus loin.
Compteur proportionnel La figure 7.23 donne le schéma d’un compteur proportionnel. La paroi qui enferme le gaz doit être mince et c’est la combinaison des propriétés d’absorption de la paroi et de celles du gaz qui détermine la réponse spectrale du compteur. Le tableau 7.7, non exhaustif, précise ainsi les domaines spectraux qui peuvent être couverts. On notera l’extrême minceur des fenêtres et les propriétés des seuils d’ionisation en l’absence de fenêtre. La résolution en énergie est, comme l’efficacité quantique, imposée par la combinaison des propriétés du gaz (section efficace photoélectrique du gaz) et de celles de la fenêtre (Fig. 7.24). Cette résolution est déterminée par la statistique poissonnienne des photoélectrons, et est donc proportionnelle à √ E. On a généralement : ΔEkeV ≈ 0.4
EkeV ,
(7.1)
le facteur de proportionnalité s’abaissant à 0.2 dans les compteurs proportionnels scintillants (Gas Scintillation Proportional Counter, gspc). Le compteur proportionnel n’a pas de bruit propre, mais seulement un bruit d’amplification (gains de l’ordre de 103 à 105 ). Seule la statistique du signal, qu’il s’agisse du signal de la source ou d’un signal de fond, créera donc des fluctuations et déterminera le rapport signal à bruit. Ce principe a été étendu dans les années 1970 au compteur proportionnel de position, qui équipa par exemple la caméra du satellite Einstein, lancé en 1978.
7. Les récepteurs du rayonnement
379
Tab. 7.7 – Compteurs proportionnels. Fenêtre Béryllium Aluminium Mylar Nitrocellulose sans fenêtre sans fenêtre Fluorure lithium Quartz (silice)
Épaisseur (μm) 125 6 6 0.1
1 000 1 000
Gaz de remplissage Néon ou argon Néon Azote ou hélium Argon Hélium Xénon Bromure d’éthyle Tri-n-propyl-amine
Réponse spectrale (nm) 0.02-0.8 0.02-0.6 et 0.8-1.6 0.02-1.5 et 4.4-6 <30 <50.43 <102.21 104-120 160-171.5
Fig. 7.23 – Schéma éclaté d’un compteur proportionnel.
Fig. 7.24 – Efficacité quantique d’un compteur proportionnel rempli d’argon (densité de colonne 5.4 mg cm−2 ). L’effet de différentes fenêtres est indiqué (D’après Giacconi R. et Gusky H., X-Ray Astronomy, Reidel, 1974. Avec l’aimable autorisation de D. Reidel Publishing Company.)
380
L’observation en astrophysique
Galettes de microcanaux Déjà décrit dans cette section, à propos des intensificateurs d’image pour la détection du rayonnement visible et ultraviolet, ce dispositif permet de réaliser des détecteurs multicanaux, sans résolution en énergie, jusqu’à une énergie de plusieurs keV. La figure 7.25 montre une image obtenue à l’aide d’un tel récepteur par Exosat (lancé en 1982), le premier des satellites X de l’Agence spatiale européenne.
Fig. 7.25 – Imagerie aux longueurs d’onde X. Image du reste de supernova Cassiopée A, obtenue avec la caméra à microcanaux cma (Channel Multiplier Array) du satellite européen Exosat. Bande spectrale 0.1-2 keV. Résolution spatiale : 18 secondes d’angle sur l’axe optique. (Cliché fourni par l’observatoire Exosat. Agence Spatiale Européenne, 1985.)
7.4.5
Le récepteur à transfert de charge
Ces récepteurs reposent sur l’effet photoélectrique dans les solides. Leur caractère multicanal provient de l’intégration de pixels photoconducteurs élémentaires dans une matrice ou mosaïque intégrée qui comprend un circuit de lecture. Leur réalisation fait appel aux plus récentes technologies de la microélectronique. Depuis leur introduction (1970), ces dispositifs ne cessent de
7. Les récepteurs du rayonnement
381
progresser en performances : sensibilité, dynamique, format, miniaturisation, fiabilité, intelligence intégrée. Ils fournissent un signal de sortie numérisé, facile à traiter ; ils disposent d’une capacité d’intégration temporelle. Ils sont désignés de façon générique comme des dispositif à transfert de charge (dtc). En leur sein, on a pu rencontrer diverses désignations telles que Reticon, Charge Coupled Device (ccd ou dispositif à couplage de charge), Charge Injection Device (cid ou dispositif à injection de charge). Aux longueurs d’onde du visible, le ccd, basé sur la photoconductivité du silicium, est le récepteur qui s’est imposé à la fin des années 1980. Pour la détection infrarouge, les techniques d’intégration en micro-électronique ont permis également de superposer un matériau photosensible adéquat à la longueur d’onde étudiée, et des circuits de lecture, conduisant ainsi à l’équivalent d’un ccd à ces longueurs d’onde. Enfin des développements récents (années 2000) ont introduit un concurrent au ccd, le détecteur cmos (Complementary Metal Oxyde Semi-conductor ) La stratégie de la plupart des dtc est d’accepter un gain unité, mais de faire tendre vers zéro le bruit de lecture σL , afin que le rendement quantique équivalent δ (dqe) atteigne le rendement quantique photoélectrique η. On cherche par ailleurs à ce que ce dernier approche également l’unité.
7.4.6
Le récepteur à couplage de charge ccd
La structure de base d’un ccd (Charge Coupled Device) est une capacité appelée mos (Metal-Oxyde-Semiconductor ). Il s’agit d’une capacité constituée d’un isolant pris en sandwich entre une électrode métallique et un semiconducteur, présentant l’effet photoélectrique (Fig. 7.26). L’isolant peut être formé par oxydation directe du semi-conducteur (silice SiO2 sur silicium) ou y être déposé par évaporation, pulvérisation ou condensation en phase vapeur. Le semi-conducteur est le plus souvent du silicium. La différence de potentiel appliquée crée un champ électrique qui modifie la répartition de charge dans le semi-conducteur. Un puits de potentiel apparaît, capable de stocker dans la capacité les photocharges éventuellement libérées dans le semi-conducteur par un photon incident, ainsi que les charges mobiles excitées thermiquement. Cette dernière caractéristique conduira à refroidir le ccd pour abaisser le signal engendré thermiquement. Chaque pixel du ccd est constitué d’une telle capacité, et l’ensemble des pixels est organisé selon une trame bidimensionnelle formant la mosaïque du récepteur, comprenant N × M pixels, et définissant le format N × M du ccd. Une fois les charges accumulées, le ccd comporte un circuit de lecture, utilisant des transistors à effet de champ (Field Effect Transistor ou fet) fonctionnant comme des interrupteurs, ainsi qu’une horloge, de façon à transférer les unes à la suite des autres les charges d’une colonne donnée, à les transférer dans un registre série de sortie puis, ceci fait, de passer à la colonne suivante, jusqu’à avoir lu la totalité des charges stockées. À la sortie du registre série, les charges sont transformées en impulsions successives de tension, qui est
382
L’observation en astrophysique
Fig. 7.26 – Capacité Métal-Oxyde-Semi-conducteur (mos). La tension V appliquée à l’électrode supérieure permet d’agir sur les charges mobiles dans le s.c. de type n. V > 0 : les porteurs majoritaires (e− ) s’accumulent en surface, sous l’isolant. V < 0 : les porteur majoritaires (e− ) sont repoussés loin de la surface, créant une zone dépeuplée (déplétion), sans charges mobiles, donc isolante. V < 0 : si V devient plus négative, il y a création en surface d’une zone chargée positivement (inversion), qui est un puits de potentiel pour les porteurs minoritaires (trou +). Les photocharges dues aux photons incidents (hν) modifient le potentiel de surface. L’électrode inférieure peut également être rendue transparente au rayonnement, libérant la partie supérieure pour les connexions électriques du circuit de lecture.
amplifiée puis numérisée de façon synchronisée avec l’horloge commandant la lecture. L’ensemble de l’électronique est commandé par le contrôleur du ccd. La taille des photosites s’est progressivement réduite avec les progrès de la gravure sur silicium, jusqu’à atteindre quelques micromètres. La figure 7.27 illustre le principe du transfert de charge grâce à une variation, cadencée par une horloge, du potentiel des électrodes successives de ligne et de colonne. Le signal de sortie se présente donc comme un signal de type vidéo où chaque impulsion est proportionnelle à la photocharge stockée. L’image peut donc être générée à la cadence télévision standard (25 trames par seconde en Europe), mais elle peut également être lue à une cadence arbitrairement faible (longues poses). Lorsque toutes les fonctions – libération des photocharges, stockage, transfert vers le registre de sortie – sont assurées au sein du même pixel, le ccd est dit pleine trame (full frame). Mais il est également possible de séparer ces fonctions dans le ccd dit à transfert de trame, en partitionnant en deux moitiés une matrice 2N × N , l’une des moitiés (N × N ) assurant la génération des charges, l’autre moitié (N × N ) les stockant. Si le transfert de l’une vers l’autre est très rapide (< 10 ms pour un format 1k × 1k, ce temps dépendant du nombre de lignes), l’utilisation du temps est optimale, puisque la lecture des charges peut se faire pendant que la pose se poursuit. Ceci double la taille de la matrice finale, ce qui peut compliquer la formation de l’image lorsqu’il s’agit de couvrir un plan focal important avec des ccd aboutés.
7. Les récepteurs du rayonnement
383
Fig. 7.27 – Principe du transfert de charge dans un récepteur ccd. Trois électrodes définissent un pixel. Les boules schématisent les électrons, qui se déplacent dans les puits de potentiel créés par les électrodes, et évoluant dans le temps. (D’après Fauconnier T., Thèse, Université Paris VII, 1983.) Rendement quantique. CCD amincis Les progrès de rendement quantique des ccd, dans les longueurs d’onde du visible (400 à 900 nm) ont été impressionnants. La figure 7.28(b) montre des rendements atteignant presque l’unité dans le rouge extrême, et supérieurs à 50 % dans le bleu. L’essentiel de la perte de rendement effectif est dû aux pertes par réflexion. La sensibilité d’un ccd dans le bleu (<400 nm) et l’ultraviolet diminue fortement, à cause de l’absorption intrinsèque des photons par le silicium (phonons) à ces longueurs d’onde. Ainsi, les électrodes situées en face avant absorbent le rayonnement. L’idée est venue d’éclairer le ccd par l’arrière, auquel cas le rayonnement ne traverse plus que du silicium immédiatement efficace pour la conversion photoélectrique : toutefois, l’épaisseur d’un ccd étant d’environ 300 μm, la distance à parcourir par les photocharges avant de rencontrer les puits de potentiel, dont l’extension sous les électrodes ne dépasse guère 10 μm, est telle que ces charges seront perdues pour la recombinaison. Éclairer le ccd par l’arrière impose donc également de l’amincir, jusqu’à une épaisseur d’une quinzaine de micromètres. Un compromis doit être trouvé entre la capture des photocharges et leur génération, qui requiert un parcours des photons dans le silicium d’autant plus grand que la longueur d’onde est grande. L’amincissement est donc requis dans le bleu et bien entendu l’UV et les X, mais défavorable au
384
L’observation en astrophysique rendement quantique élevé dans le rouge. Il est impossible de fabriquer directement des supports en silicium (wafer, en anglais) de cette épaisseur. Un ccd standard est donc retourné, sa face avant collée sur un substrat adéquat, puis sa face arrière est amincie par des procédés mécaniques ou chimiques, passivée (traitement anti-oxydation), puis recouverte d’un traitement antireflet pour diminuer les pertes par réflexion (Fig. 7.28(a)).
Fig. 7.28 – (a) Coupe schématique d’un ccd aminci. On voit l’extension limitée du puits de potentiel et de la zone de déplétion que les photocharges doivent atteindre. (b) Rendements quantiques équivalents pour une illumination frontale et pour un traitement antireflet. (D’après Lesser M., 1994.)
7. Les récepteurs du rayonnement
385
Bruit de lecture Le transfert des photocharges et l’amplification qui suit s’accompagnent de deux sources de bruit, dont on observe généralement la somme (quadratique) : d’une part, une fluctuation de ce nombre de charges, d’origne thermique et liée à la capacité qui les stocke ; d’autre part, une fluctuation additionnelle, due au transfert et à l’amplification du signal, qui constitue le bruit de lecture σr (r pour read-out) du ccd à proprement parler. Chacun de ces termes est réduit lorsque le ccd est refroidi, généralement à 77 K (azote liquide). Le bruit ultime de lecture dépend de la cadence de lecture : le ccd est d’autant à bas bruit qu’il est lu lentement (bruit en 1/f des étages d’amplification). Or, la croissance des formats oblige à lire un très grand nombre de pixels et ceci a une incidence sur le bruit de lecture : il descend (en 2007) à quelques photocharges (1 à 2 électrons en éqm ou rms) à des cadences de 50 kilopixels s−1 (soit 20 secondes pour lire un ccd de format 1 k × 1 k). Des cadences très rapides (≤1 Mpixels s−1 ) sont recherchées pour certaines applications, comme la lecture d’images ou de fronts d’onde (optique adaptative) en des temps inférieurs au temps de cohérence de la turbulence atmosphérique. L’objectif est d’atteindre un bruit σL ≈ 2 e− rms à une cadence de lecture de l’ordre de 1 Mpixel s−1 . Une autre solution, pour augmenter la cadence de lecture sans accroître le bruit de lecture, consiste à paralléliser les sorties en faisant une partition (en 2, 4 ou 8) du ccd, chaque sous-ensemble possédant une sortie. Pour un nombre fixé de charges photoproduites, évaluons la fluctuation du nombre de charges lues. De même que nous avons pu caractériser le bruit thermique à la sortie d’une résistance R à la température T (cf. supra) par l’expression d’une puissance 4kTR Δf , on peut également montrer qu’aux bornes d’une capacité C la charge q présente une variance : σq2 = kT C Δf, qui est donc la limite fondamentale du bruit aux bornes de C. En admettant une capacité de 50 femtoF, limite au-dessous de laquelle il est difficile de descendre, on a σq = 46 e− à 77 K et 10 e− à 4 K. On a donc intérêt à réduire cette capacité, mais ceci réduit d’autant la charge maximale stockable, et conduit donc à un flux plus faible saturant le ccd. Cette charge maximale, stockable par cette capacité sous la tension V , est évidemment CV. Sous 1 V, ce stockage est de 6.25 × 106 e− par pF. On a donc une relation simple exprimant la dynamique de cette capacité, en l’absence de toute autre source de bruit qui la réduirait : dynamique = V C/kT.
Une propriété importante des ccd est leur linéarité jusqu’à une capacité de stockage importante de charge (jusqu’à 106 charges pixel−1 ) dans les cas les plus favorables. Ceci permet des poses très longues sur des objets faibles, sans
386
L’observation en astrophysique
augmenter le bruit de lecture ni être saturé par les objets les plus brillants du champ (exercice 7.11). Les poses très longues augmentent néanmoins la probabilité de voir un bruit additionnel se superposer au bruit de lecture : l’impact du rayonnement cosmique, aléatoire et pouvant créer la saturation d’un pixel. Ces événements se produisent au sol comme dans l’espace, particulièrement en présence d’éruptions solaires ou lors de la traversée de l’anomalie sud-atlantique (cf. § 2.9). Ils contribuent alors au bruit de fond. Un traitement particulier des pixels permet de réduire ce bruit pour les ccd placés dans l’espace (cf. infra).
Format des CCD Le format 2 048×4 096 paraît en 2007 une limitation technologique difficile à franchir à cause de la difficulté du maintien de l’uniformité du processus de fabrication sur des surfaces comprenant plusieurs dizaines de millions de pixels. En 2007, on réalise ainsi couramment des ccd au format 1 024 × 1 024 (couramment désignés 1k × 1k), mais celui-ci peut atteindre 4k × 4k. Audelà, il est plus aisé d’abouter des ccd pour réaliser de grandes mosaïques. On s’oriente donc vers le pavage des plans focaux par juxtaposition, conduisant à des formats de 8k × 8k (soit 8 192 × 8 192). Il existe évidemment un espace mort entre les ccd, qui peut être réduit à la dimension de quelques dizaines de pixels. Si un des quatre côtés du ccd est réservé aux contacts électriques, alors l’aboutage permet de former une mosaïque 4 × 2. Ainsi la caméra Megacam du télescope Canada-France-Hawaii comprendelle quarante ccd amincis, chacun au format 2k × 4.5k, aboutés pour fournir au total un champ de 1.4 degré comprenant 3.6 × 108 pixels. Le pas des ccd est de 13.5 μm. Chaque pose, d’une durée de 20 s maximale (pour éviter la saturation) fournit 0.77 Gbits de données. Un centre de traitement spécifique (Térapix, présenté au chapitre 10) a été mis en place pour le traitement de ce volume considérable d’information. Courant d’obscurité. La génération thermique de charges dans le CCD crée un signal, même en l’absence d’illumination. Celui-ci, principalement généré dans les pièges à l’interace Si-SiO2 , doit donc être étalonné en valeur moyenne (d’où l’expression franglaise douteuse faire un dark ), puis soustrait du signal. Ce courant d’obscurité décroît avec la température. Il peut être fortement réduit par un mode dit de balancement (charge sloshing, dithering), qui module les tensions de lecture plus rapidement que la durée de vie des états de surface. Le L3-CCD La désignation L3 est employée pour Low Light Level ccd, donc pour qualifier un ccd fonctionnant sous un bas niveau de lumière. Ici, le bruit de lecture
7. Les récepteurs du rayonnement
387
devient négligeable, jusqu’à des fréquences de lecture élevées (∼ 1 kHz). Ce résultat est obtenu grâce à un effet multiplicatif d’avalanche dans le registre de transfert, qui transforme le photon-électron incident en un paquet de charges. Un gain d’environ 500 est possible et fait de ce l3-ccd un récepteur prometteur, fonctionnant effectivement en comptage de photon. Il se présente comme un concurrent sérieux des photodiodes à avalanche. CCD pour le rayonnement X L’amincissement permet d’étendre jusqu’aux rayons X la sensibilité des ccd. La mission européenne xmm-Newton (1999-2010) est ainsi dotée de deux caméras utilisant chacune sept ccd au format 600 × 600. Une troisième caméra utilise douze ccd aboutés de 64 × 189 pixels. Les ccd sont utilisés soit dans le mode full-frame, soit dans le mode frame transfer, de façon à minimiser le bruit de lecture et à maximiser le temps de pose utile10 . Des schémas analogues sont en préparation pour la future mission allemande rosita (vers 2010), avec des rendements quantiques dépassant 0.8 pour des rayonnements X compris entre 0.2 et 20 keV. Le pn-ccd diffère du ccd classique par la structure des registres de transfert, ici formés de jonctions p-n dans le silicium. Ceci garantit une plus faible sensibilité aux rayonnements parasites durs (rayons γ ou cosmiques), un transfert rapide de charges et une capacité importante de stockage de celles-ci11 . Enfin, les ccd utilisés dans le domaine X possèdent une certaine sélectivité spectrale, c’est-à-dire une résolution intrinsèque en énergie. ΔE ∼ 100 eV pour E < 1 keV et ΔE ∼ 140 eV pour E ∼ 6 keV. En effet, un photon, possédant une énergie de l’ordre du keV, libère un nombre élevé de photocharges, nombre qui devient alors une mesure de l’énergie du photon incident. Pour mesurer ainsi l’énergie de chaque photon, il est impératif de lire le ccd avant qu’un autre photon provoque au même endroit une nouvelle libération de photocharges. Contrôleur de CCD Élément essentiel de l’utilisation des ccd, ce dispositif électronique produit les signaux d’horloge et contrôle la gestion des charges comme celle de leur transfert : – il permet de modifier la fréquence de lecture (dite aussi fréquence pixel ) selon qu’il est important de minimiser le bruit de lecture (fréquence lente) ou non. 10 On trouve à l’adresse www.src.le.ac.uk/projects/xmm/instrument/index.html une description détaillée des caméras de la mission xmm. 11 Voir par exemple l’adresse www.pnsensor.de/Welcome/Detector/pn-ccd/index.html.
388
L’observation en astrophysique
– Le contrôleur permet encore de modifier le gain, c’est-à-dire le nombre d’électrons par niveau de numérisation, en fonction du niveau du signal et de la dynamique souhaitée. – Il permet de lire les ccd en mode sommation (en anglais, binning) où l’on somme les pixels adjacents selon une géométrie prédéfinie (2 × 2, 4 × 4, etc.). Dans ce cas, on perd de la résolution spatiale, mais on gagne en rapport signal à bruit, puisque on augmente le signal pour un même bruit de lecture. Ce mode, qui réduit le volume de données recueillies et le temps de lecture, est utile pour les réglages, afin de tenir compte d’une qualité d’image variable en photométrie si on ne recherche pas une résolution spatiale élevée, etc. – Il peut également offrit un mode fenêtrage où on sélectionne une partie des pixels dans une fenêtre choisie sur la mosaïque. À titre d’exemple de manipulation des pixels du ccd, présentons un dispositif proposé pour la détection d’une exoplanète, basé sur la mesure de la faible polarisation différentielle au cours du temps du rayonnement reçu de l’ensemble étoile + planète, lors de la rotation de cette dernière autour de l’étoile. Le rayonnement stellaire diffusé par l’atmosphère de l’exoplanète est en effet polarisé, et dépend de l’angle de phase. La polarisation du signal incident est analysée très rapidement (1 kHz) puis transformée en variation d’intensité. L’image est formée sur un ccd dont une colonne sur deux est masquée ; elle sert à stocker les photocharges engendrées dans la première colonne et transférées à la seconde au rythme rapide de la modulation. Après un grand nombre de cycles, la différence entre les deux colonnes indique la présence d’une polarisation éventuelle12 .
7.4.7
Le récepteur hybride cmos
Le terme cmos vient de l’anglais (Complementary Metal Oxyde Semiconductor ) et désigne toute une famille de récepteurs bidimensionnels, également réalisés par les techniques classiques de micro-électronique, dont pourtant le principe se distingue de celui des ccd. Ici, chaque pixel est ainsi complété et comprend ses transistors de lecture et d’amplification, au nombre de 3 ou 4. La place prise sur la surface sensible par ces transistors réduit le facteur de remplissage de la mosaïque, et peut contraindre à utiliser des réseaux de microlentilles pour améliorer la collection des photons dans l’image. En outre, la technologie cmos s’accomode mal d’un éclairage arrière, qui éviterait l’absorption d’une fraction du rayonnement par les couches de surface. Au lieu de transférer les charges dans des registres comme dans le ccd, un dispositif 12 Technique dite zimpol, proposée par Schmid, H.M. et al., saturn.ethz.ch/instrument/ zimpol.
7. Les récepteurs du rayonnement
389
Tab. 7.8 – Récepteur CCD. Seuil Dynamique Rendement quantique Réponse spectrale Réponse temporelle Format Bruit Stockage de l’information
un quantum 106 charges pixel−1 η ≥ 0.8 entre 500 et 900 nm ccd normal : 400–1 100 nm ccd aminci : X mous (0.1–50 keV) environ 50 ms jusqu’à 2 048 × 4 096 pixels de lecture : σL ∼ 2 à 5 e− rms selon cadence numérique, lecture destructive
(Les valeurs données dans ce tableau sont des moyennes, par rapport auxquelles des progrès demeurent possibles.)
d’horloge vient successivement adresser les pixels de la matrice pour y lire le signal. De nombreuses formules ont été tentées dans les années 1980-2000 pour fabriquer des détecteurs destinés à l’infrarouge. Mentionnons simplement ici, pour mémoire puisqu’elles sont été abandonnées, les cid (Charge Injection Device), les ccd réalisés entièrement en InSb (au lieu de Si), l’hybridation de photoconducteurs tels HgCdTe sur ccd silicium.
Cette technique a d’abord été développée pour le proche infrarouge, afin de réaliser des récepteurs d’image au-delà de la photoconductivité du silicium. Elle s’est ensuite (milieu des années 1990) étendue à l’infrarouge moyen et lointain. Reposant sur l’effet photovoltaïque, ces récepteurs couplent en effet une photodiode, faite d’un matériau photosensible à la longueur d’onde recherchée, avec un circuit de lecture réalisé en silicium, le tout sous forme de matrice de grand format. On les désigne aussi sous le nom de matrices hybrides puisque faisant appel à deux matériaux différents hybridés entre eux. Ces matrices ont permis un développement rapide, depuis les années 1980, de l’imagerie astronomique dans le domaine infrarouge (Fig. 7.29). Il n’est pas inutile de replacer ces progrès dans l’histoire du développement lent d’abord, puis foudroyant ensuite, de l’exploration du domaine infrarouge astronomique, liée à la qualité des détecteurs disponibles, ce qu’illustre la figure 7.30, établie jusque l’an 2000. La valeur faible des énergies mises en jeu (une fraction d’électron-volt) conduit à refroidir les dispositifs afin d’éviter la génération thermique de charges (courant d’obscurité) : la température est comprise entre 77 K (azote liquide) aux plus courtes longueurs d’onde de fonctionnement (≤2.5 μm) et 4 à 20 K aux longueurs d’onde plus élevées, où le gap est plus faible. L’utilisation de cryogènes liquides consommables (N2 , He) cède progressivement la place, au sol comme dans l’espace, à des systèmes cryogéniques en circuit fermé (détente Joule-Thomson).
390
L’observation en astrophysique
Fig. 7.29 – Croissance du format des détecteurs d’image dans le proche et moyen infrarouge, en technologie cmos. En ordonnée : nombre de pixels du récepteur. La droite représente un doublement tous les 18 mois (progression qualifiée de loi de Moore). (Figure aimablement fournie par Hodapp K.W. & Hall D.N., Université d’Hawaii.)
Fig. 7.30 – Progrès dans les performances de la détection infrarouge. Le tasimètre d’Edison (Eddy A., J. Hist. Astr., 3, 187, 1972) présentait une sensibilité remarquable pour l’époque (nep ≈ 10−8 W-Hz−1/2 ). La courbe continue fine est représentative d’une sensibilité moyenne obtenue par les détecteurs à pixel unique. La courbe tiretée montre l’émergence des détecteurs mosaïques (cid et ccd) dont elle donne le format. Le bruit de lecture σL est donné par la courbe pleine, avec une indication des tendances de performances au delà de l’an 2000 selon les domaines de longueur d’onde : • = 1–2.5 μm, O = 2.5–5 μm, = 5 − 20 μm.
7. Les récepteurs du rayonnement
391
Fig. 7.31 – Température de fonctionnement des mosaïques en technologie cmos, selon la longueur d’onde d’utilisation. On distingue les domaines couverts par le Silicium Si, puis par InGaAs, HgCdTe, InSb et S:As. (Figure aimablement fournie par Hodapp K.W. & Hall D.N., Université d’Hawaii.)
Domaine du visible La technologie cmos concurrence ici le ccd lui-même, par couplage d’une diode silicium avec les transistors du pixel, également réalisés dans le même substrat silicium (Tab. 7.9). Les populaires webcam sont équipées de récepteurs construits selon cette technologie. Tab. 7.9 – Comparaison entre ccd et cmos. Propriétés
ccd
cmos hybride
Résolution Pixel (μm) Domaine spectral Bruit Obturateur Consommation Sensibilité aux radiat. Électronique de contrôle Modes spéciaux
> 4k x 4k 10-20 400-1000 nm quelques e− rms manuel élevée sensible horloge à haut voltage binning optique adapt.
4k x 4k (en cours) 18-40 (< 10 en cours) 400-1000 (Si pin) idem avec échantill. multiple électronique 10 fois inférieure très peu sensible bas voltage fenêtrage accès aléatoire grande dynamique
(D’après Hodapp K.W. & Hall D.N.B, Inst. of Astronomy, Hawaii, 2005.)
392
L’observation en astrophysique
Infrarouge proche et moyen Les mosaïques hybridées HgCdTe, commercialisées sous le nom de nicmos13 (Fig. 7.33, et Fig. 7.32, cahier couleur), puis de Hawaii, sont les récepteurs devenus quasiment universels pour les bandes photométriques J, H, K et sont présents sur tous les grands télescopes, au sol comme dans l’espace. Ces récepteurs, en constante amélioration de format et de bruit de lecture, présentent d’excellentes performances de bruit de lecture dans le domaine 1-2.5 μm, soit σL ≈ 10 e− . En 2006, leur format, qui n’a cessé de croître, atteint 6 144 × 6 144 avec des pixels de 10 μm. Ils comprennent 248 millions de transistors fet. La génération thermique de charges (courant d’obscurité) est faible et autorise, en l’absence de rayonnement de fond, des poses de plusieurs dizaines de minutes. Le récepteur peut être également lu rapidement, en quelques dizaines de millisecondes, ce qui est précieux pour l’utilisation en optique adaptative ou en interférométrie optique (cadences liées à l’évolution temporelle de la turbulence atmosphérique). La capacité des puits de potentiel n’est pas très importante (105 photocharges), ce qui limite l’utilisation en longues poses à fort flux incident ou en présence d’un signal de fond important (bandes J et H).
Les mosaïques hybridées InSb (antimoniure d’indium), commercialisées sous le nom d’Aladdin, assurent le relais jusqu’à la limite de photoconductivité de ce matériau, dans des formats atteignant 512 × 4 096 sur un des instruments focaux (crires) du Very Large Telescope européen. Les mosaïques hybridées Si:As, dans un format 256 × 256, atteignent la fenêtre d’observation au sol de la bande N, autour de λ = 10 μm (instrument visir du vlt). Elles fonctionnent dans le mode bib, ci-dessous. La caméra irac de la mission spatiale Spitzer (lancée en 2003) est également équipée de ce récepteur, fonctionnant à 5.8 et 8 μm. Le photomètre imageur (mip) de cette même mission possède une mosaïque Si:As de format 128 × 128, observant autour de λ = 24 μm. Elle fonctionne sur le principe de la bande bloquée (bib), explicité ci-dessous. Le même schéma d’hybridation peut s’appliquer à Si:Sb, dont la photoconductivité s’étend jusque 40 μm, dans des formats 256 × 256, pour utilisation dans l’espace. Le spectromètre irs de cette même mission est ainsi équipé d’une caméra au format 128 × 128. Détecteurs à bande bloquée (bib)14 Un photoconducteur extrinsèque utilisé en détection doit concilier deux exigences contradictoires : un dopage faible afin que la résistivité soit élevée et, à l’opposé, un dopage suffisant pour obtenir un rendement quantique 13 Acronyme de Near Infrared Camera for Multi Object Spectrograph, instrument destiné au télescope spatial Hubble dans les années 1990, comprenant une mosaïque 1 024 × 1 024. 14 Cette présentation suit de près Rieke G.H., Detection of Light : from the Ultraviolet to the Submillimeter, Cambridge, 2nd éd., 2003.
7. Les récepteurs du rayonnement
393
Fig. 7.33 – Une image obtenue avec un récepteur « Nicmos » équipant le télescope de 1 m à l’Observatoire européen austral (La Silla, Chili). Champ de 12 × 12 sur la région centrale d’Orion : nuage moléculaire et région de formation d’étoiles. Longueur d’onde : bande photométrique J (1.2 μm). Le format de l’image est 780 × 780, bien que le dtc ne comprenne que 256 × 256 pixels : le télescope est déplacé par décalages (offsets en anglais) d’un tiers de pixel et l’image est reconstruite par interpolations. Temps de pose total : 9 × 1 secondes. (Cliché dû à Éric Copet, programme denis, 1995.)
adéquat en absorbant les photons. Le principe de la bande bloquée d’impuretés (Blocked Impurity Band ou bib) est de séparer spatialement ces deux fonctions dans le matériau photoconducteur, afin d’optimiser chacune. Un bénéfice additionnel est un effet d’amplification, qui améliore les performances de bruit. Considérons le matériau silicium dopé arsenic (Si:As), dont le gap situe l’effet photoconducteur pour λ ≤ 23 μm. La couche photosensible (Fig. 7.34) est fortement dopée n, d’où un bon rendement quantique et de surcroît un faible volume, ce qui rend le détecteur moins sensible dans un environnement de particules énergétiques (par exemple dans l’espace, cf. § 2.9). Cette couche est précédée d’une couche bloquante, mince et formée d’un matériau pur. Ceci assure une résistivité
394
L’observation en astrophysique élevée entre les deux électrodes. Un photoélectron libéré dans la couche sensible dérive dans le champ électrique vers la couche bloquante : l’importance du champ peut alors lui communiquer assez d’énergie pour qu’il produise des électrons secondaires par ionisation d’impact. Celleci ne se produit pas dans la couche bloquante car le matériau y est pur et donc l’énergie d’ionisation trop élevée (≈1 eV). L’amplification peut atteindre un facteur 10.
La logique d’amplification du détecteur bib est poussée plus loin dans les photomultiplicateurs solides (Solid State Photo Multiplier ou sspm). Une des difficultés du bib est le caractère insuffisamment défini de la zone d’amplification, qui se situe à l’interface de la couche bloquante et de la couche sensible. Si cette fonction est elle-même isolée dans une troisième couche, chargée du gain, on obtient un véritable effet d’avalanche, un seul électron pouvant conduire à un pic de courant formé de 40 000 charges. De plus, le pic de courant est très bref, de quelques nanosecondes s’il est suivi d’une électronique rapide : le détecteur fonctionne alors en compteur de photons et est capable de discriminer des événements très fluctuants dans le temps. On retrouve ici, dans le domaine infrarouge, une propriété déjà signalée pour les diodes à avalanche en silicium.
Fig. 7.34 – Coupe schématique d’un détecteur à bande bloquée d’impuretés (bib). L’électron est libéré dans la couche photosensible et dérive vers la couche bloquante. Les électrodes sont de part et d’autre. Ici, le bib est éclairé en face avant. (D’après Rieke G.H., 1996.)
Détection dans l’infrarouge lointain Le seul photoconducteur pratiquement utilisable au-delà de 40 μm est le matériau Ge:Ga, dont le domaine de sensibilité peut être étendu jusque 210 μm par application d’une pression (stressed detector ). L’encombrement du dispositif de mise sous pression ne permet plus d’utiliser les techniques de micro-électronique, et l’hybridation est donc réalisée pixel par pixel, ce
7. Les récepteurs du rayonnement
395
qui réduit les formats possibles. Ainsi, ces détecteurs équipent le photomètre imageur de la mission Spitzer (format 2 × 20), l’instrument pacs de la mission spatiale européenne Herschel (format 5 × 5) ou l’instrument fifi du télescope aéroporté sofia (format 25 × 16). Couplage quasi optique. Aux longueurs d’onde allant de l’infrarouge lointain au millimétrique, les phénomènes de diffraction deviennent importants car la taille des détecteurs devient de l’ordre de grandeur de la longueur d’onde. Pour améliorer la concentration d’énergie sur le détecteur, on utilise des guides qui fonctionnent dans un mode quasi optique, c’est-à-dire intermédiaire entre la formation géométrique classique d’image (cf. Chap. 5) avec une lentille et le guide d’onde standard (cf. § 6.4). Ceci est illustré par la figure 7.35 pour une détection aux longueurs d’onde comprises entre 100 et 240 μm.
Fig. 7.35 – Configuration quasi optique d’une mosaïque de détecteurs (5 × 5) en germanium dopé gallium fonctionnant pour λ < 240 μm. (D’après Geis N., Thèse, Max Planck Institut für Extraterrestrische Physik, 1991.)
7.4.8
Conditions d’observation dans l’infrarouge
Le rayonnement reçu par les détecteurs comprend le signal issu de la source, mais aussi un rayonnement thermique de fond : il peut être dû à l’optique du télescope, si celui-ci n’est pas refroidi, ou au fond thermique de l’atmosphère. Il est possible de réduire ou même d’éliminer totalement ces deux composantes lorsque le récepteur est placé dans l’espace et équipé d’une optique entièrement refroidie. Sauf dans ce dernier cas, il n’est pas nécessaire
396
L’observation en astrophysique
de réduire le bruit de lecture du détecteur au-dessous du bruit thermique engendré par le signal de fond. Pour l’observation au sol notamment, on distingue ainsi nettement deux domaines spectraux : les longueurs d’onde inférieures à 1.8 μm environ, où le signal de fond est négligeable et les performances en bruit de lecture σL des détecteurs peuvent être poussées à leurs limites. Au-delà apparaît la fluorescence du radical OH atmosphérique, comme présenté en § 2.3, suivie de la montée importante du fond de rayonnement thermique ; ce domaine ne requiert donc pas des performances extrêmes en bruit de lecture σL . Dans l’espace, l’absence de fond thermique ou celui, très limité, dû à un télescope et une optique entièrement refroidis, imposent de rechercher des bruits de lecture les plus faibles possibles. Un instrument des années 1990 : le satellite iso. Il est intéressant de mesurer les progrès accomplis en rappelant ici les performances de la voie à grandes longueurs d’onde (5 à 17.8 μm) du satellite iso, conçu au milieu des années 1980, lancé en 1995 et ayant épuisé son fluide cryogénique en 1998 (projet commun à trois pays : usa, gb, nd). Une mosaïque 32 × 32, réalisée avec le matériau Si:Ga hybridé sur Si avec un dispositif de lecture15 préfigurant les cmos, équipait cette caméra (isocam). Le bruit de lecture σL valait environ 180 e− rms et était inférieur au bruit de fond, le temps d’intégration ne dépassait pas 100 ms à cause du fond thermique résiduel, les pixels ayant néanmoins une capacité de stockage de 106 charges. Cette caméra, qui fournit les premières images de qualité dans le domaine infrarouge proche au format 32 × 32 (avec deux mosaïques : HgCdTe et Si:Ga), a apporté une extraordinaire moisson de résultats nouveaux. Les importants développements réalisés pour la caméra du satellite iso en France entre 1985 et 1993 ont produit de nombreux fruits. Il est intéressant d’observer qu’un même concept peut être transformé pour répondre à des conditions d’exploitation différentes : au sol, le fond thermique est très supérieur à celui rencontré dans l’espace sur un télescope refroidi. Un dtc bâti sur les mêmes principes, mais avec une capacité de stockage de 107 charges par pixel, fut réalisé pour équiper une caméra d’un télescope sol (caméra timmi du télescope de 3.5 m ntt de l’Observatoire européen austral), avec un format de 128 × 128. Puis, après une extrapolation à un format de 256 × 256, un changement de dopant, du Ga à As, a permis d’équiper le Very Large Telescope, (vlt) pour opérer dans la fenêtre de transmission atmosphérique 8-12 μm. La comparaison de l’opération au sol (fort signal de fond) et dans l’espace avec une optique entièrement refroidie (bas flux de fond) utilisant un même récepteur est intéressante. Plus avant dans l’histoire, avant l’avènement des mosaïques, le satellite iras (InfraRed Astronomical Satellite, nasa), qui fut le premier à car15 Dispositif de lecture appelé dvr pour Direct Voltage Read-out, ne transférant plus les charges, mais lisant en séquence les tensions amplifiées sur chaque pixel.
7. Les récepteurs du rayonnement
397
tographier le ciel infrarouge tout au long de l’année 1983, était équipé de récepteurs individuels, disposés côte à côte (Fig. 7.36).
Fig. 7.36 – Une mission historique : le plan focal du télescope de 60 cm du satellite iras (1983). Les détecteurs individuels sont disposés de façon à obtenir une précision maximale de positionnement d’une source lorsqu’elle défile dans le plan focal. Les senseurs visibles positionnent le champ en détectant le passage d’étoiles connues dans le visible. (D’après Neugebauer G. et al., Ap. J., 278, L1, 1984. Avec l’aimable autorisation de l’Astrophysical Journal.)
7.4.9
Évolution des matrices dtc pour l’infrarouge
Comme pour bien d’autres récepteurs astronomiques, de nombreux paramètres sont nécessaires pour qualifier complètement ces récepteurs. Citons-en quelques-uns : – La capacité maximale de stockage de photocharges par pixel. Cette quantité est importante lorsqu’on cherche à détecter des sources très faibles au voisinage d’une source brillante : la saturation par cette dernière détermine la dynamique du détecteur. Également, et comme déjà mentionné, la présence d’un rayonnement de fond thermique peut saturer très rapidement les puits, en quelques dizaines de millisecondes, et ôter toute signification à l’extraction du signal après soustraction de ce fond. On cherchera alors à augmenter la capacité qui pourra atteindre quelques 106 ou 107 photocharges par pixel.
398
L’observation en astrophysique
– La dépendance de σL avec la vitesse de lecture. Plus celle-ci est grande, plus le bruit σL augmente. Ceci est dommageable pour les applications à lecture rapide, telles qu’interférométrie optique, optique adaptative, interférométrie des tavelures où les changements du front d’onde et des images sont déterminés par le temps de cohérence atmosphérique. Il en est de même pour l’observation de sources rapidement variables : pulsars, sursauts stellaires. – Le format. La tendance est à la croissance de celui-ci. Si la technologie ne permet guère d’espérer dépasser des formats 4 096 × 4 096 par détecteur mosaïque unitaire à des prix abordables16 , des techniques de juxtaposition pour former une mosaïque permettent d’augmenter encore le format utile, donc d’obtenir une meilleure utilisation du champ au foyer des télescopes. Puissance équivalente de bruit. Le photoconducteur, travaillant à la température T , présente en l’absence d’éclairement une résistance finie, due à la libération thermique de porteurs de charge. Les fluctuations thermodynamiques de cette résistance à la température T (bruit Johnson) sont généralement négligeables devant les autres sources de bruit. Chaque photon incident produisant η paire électron-trou et non plus η électron comme dans l’effet photoélectrique dans le vide, le bruit quantique dû au signal ou au fond thermique voit sa variance doublée. Enfin, la source dominante de bruit propre au récepteur est généralement imposée par le transistor du premier étage d’amplification. Appelant R (V W−1 ), la réponse du détecteur, et σR (V Hz−1/2 ), le bruit de ce transistor, on obtient la puissance équivalente de bruit ou nep (en anglais, Noise Equivalent Power ), souvent utilisée pour caractériser le détecteur, par : 4 $ % nep = σR R W Hz−1/2 . Les valeurs courantes de nep sont de 10−16 à 10−17 W-Hz−1/2 . Le tableau 7.10 résume quelques propriétés communes aux détecteurs à transfert de charge utilisés dans le proche et moyen infrarouge.
7.4.10
Le bolomètre
Dans ce type de détecteurs, l’énergie du photon incident ne sert pas à exciter un saut quantique d’un électron vers la bande de conduction. Elle est directement convertie en agitation thermique, soit du réseau cristallin, soit du gaz d’électrons libres si celui-ci est découplé du réseau cristallin (bolomètre 16 Le prix – élevé – de ces détecteurs tient surtout au processus complexe mis en œuvre pour assurer la qualité des très nombreuses opérations de la fabrication micro-électronique et trier, dans la série produite, les seuls détecteurs sans pixels ni transistors défectueux.
7. Les récepteurs du rayonnement
399
Tab. 7.10 – Dispositifs à transfert de charge dans l’infrarouge. Sélectivité spectrale Seuil Dynamique Rendement quantique Réponse temporelle Temps d’intégration Bruit de lecture Stockage Format Température d’emploi Signes particuliers
fixée par le matériau et son dopant un quantum 104 à 107 photocharges généralement >0.5 1 ms ≈10 min si limité par génération thermique ≈10 ms si limité par fond thermique de 10 à 500 e− selon le dispositif 1 024 × 1 024 → 4 096 × 4 096 (4 k × 4 k) 77 K (≤2,5 μm) → 4 K (grandes λ) pixels adressables
à électrons chauds). Ces détecteurs mesurent donc la variation de température soit du réseau, soit du gaz d’électrons, par une variation de résistance électrique. Ils ont joué un très grand rôle entre 1960 et 1990 dans le développement de l’astronomie infrarouge puis, considérablement améliorés, continuent, dans les années 2000, de le faire dans le domaine submillimétrique, où leur non-sélectivité spectrale intrinsèque leur donne un avantage significatif sur la détection hétérodyne. L’utilisation des techniques de micro-électronique et de multiplexage permet désormais de réaliser des matrices de grand format, tant pour les télescopes au sol que dans l’espace. Bolomètre standard au germanium Le principe de fonctionnement du bolomètre au germanium Ge (dopé au gallium Ga), consistant à mesurer une faible variation de résistance due à l’échauffement d’un matériau, est illustré par la figure 7.37. Développé dès 1960 par F. Low17 , il a couvert l’infrarouge proche et moyen (photométrie ou spectrophotométrie infrarouge) et permis de nombreuses découvertes. Ici, on utilise un cristal semi-conducteur refroidi entre 2 K et 4 K par de l’hélium liquide. On peut considérer que le bolomètre se décompose en deux parties thermiquement couplées, que l’on cherche à optimiser séparément : un absorbeur du rayonnement, et une résistance faisant office de thermomètre. Le bruit de ce type de bolomètre est d’origine thermique à sa température de fonctionnement T (bruit Johnson de la résistance et bruit de phonons conduisant l’énergie thermique). Les performances atteignent ces puissances équivalentes de bruit : nep ∼ 10−15 W Hz−1/2 (à T = 2 K), jusqu’à 10−16 (à T = 0.3 K). Ce principe de bolomètre, classique, a connu des perfectionnements importants18 avec la réalisation de la matrice équipant la mission spatiale 17 Frank James Low, physicien des solides et astronome (États-Unis), né en 1933, fut un pionnier de l’astronomie infrarouge, découvrant dans Orion l’émission de la nébuleuse de Kleinmann-Low. Voir fr.wikipedia.org/wiki/Frank-Low. 18 Voir Billot, N. et al. « Recent achievements on the development of the Herschel/pacs Bolometer arrays », arXiv :astro-ph/0603086 (2006).
400
L’observation en astrophysique
Fig. 7.37 – Principe du bolomètre au germanium (Ge:Ga). Le cristal semiconducteur présente une résistivité variant rapidement avec la température (ρ ∝ T −2 ). Un bouclier noirci absorbe efficacement (∼ 100 %) les photons incidents. La section efficace est améliorée par une sphère intégratrice réfléchissante. Le cristal (capacité calorifique C) est relié au thermostat par des fils (conductance thermique G). La constante de temps est τ ∼ C/G. Une tension de polarisation V0 est appliquée au travers de la résistance de charge Rc . La variation de résistance ΔRB du bolomètre due à l’échauffement se traduit par un signal ΔV = ΔRB /RC + RB . L’angle solide dans lequel est reçu le rayonnement est limité par un écran à basse température.
européenne Herschel (lancement 2008), pour la voie couvrant le domaine spectral 60-210 μm. Cette matrice comprend 2 560 bolomètres en silicium, organisés en sous-ensembles aboutés 16 × 16, fonctionnant à la température de 0.3 K, obtenue par un réfrigérateur 3 He à dilution. Le nep atteint 10−16 W Hz−1/2 , valeur comparable au bruit induit par le fond thermique, dans l’étendue de faisceau observée, et qu’il est donc inutile d’améliorer. Les signaux, issus des amplificateurs individuels, sont multiplexés, de façon à réduire le nombre de fils de connexion. Bolomètre supraconducteur Ici, un matériau supraconducteur – par exemple un alliage Nb-Si – est maintenu au voisinage immédiat de sa température critique où la pente reliant la résistivité à la température est très grande. Un apport d’énergie, par absorption du rayonnement incident, modifie la résistance. La variation de courant produite induit un champ magnétique qui est mesuré par un circuit squid (Superconducting Quantum Interference Device). La température de fonctionnement est voisine de 0.1 K, et s’obtient avec un réfrigérateur à 3 He. Ces réfrigérateurs peuvent fonctionner en circuit fermé, et fournissent une solution élégante lorsque des durées de vie importantes sont recherchées dans une mission spatiale, sans dépendre d’un fluide cryogénique qui s’épuise. Les performances peuvent atteindre un nep ∼ 10−17 W Hz−1/2 , d’autant meilleur que la température est basse. Une des difficultés concerne le couplage de la surface du bolomètre avec le rayonnement incident. Celle-ci doit en effet avoir une dimension comparable
7. Les récepteurs du rayonnement
401
à la longueur d’onde, tout en gardant une capacité calorifique, qui fixe la constante de temps du bolomètre, la plus faible possible. Enfin, la réalisation de matrices de bolomètres au format N × N est souhaitable pour l’obtention efficace d’images. Le télescope de 10.4 m de l’observatoire submillimétrique19 cso (Caltech Submillimeter Observatory, Hawaii) est équipé d’une barrette de 24 bolomètres thermiques (Si) fonctionnant à la température de 0.3 K, obtenue par un réfrigérateur 3 He à dilution. Les fenêtres atmosphériques de 0.35, 0.45, 0.87 mm sont accessibles en photométrie large bande (Δλ/λ ∼ 0.1). Le cso est également équipé d’une mosaïque, au pavage hexagonal, de bolomètres (11 × 11) fonctionnant à 1.2 et 2.1 mm (instrument bolocam). La mission spatiale européenne Planck (lancement en 2008), destinée à l’étude du corps noir cosmologique et de la structure spatiale de ce rayonnement, recherche une sensibilité maximale et une capacité d’imagerie aux longueurs d’onde submillimétriques, à l’aide d’un télescope de 1.5 m, refroidi à 60 K. L’instrument hfi (High Frequency Instrument)20 couvre, en six bandes à faible résolution spectrale (∼ 0.3), le domaine 100-857 GHz (3 à 0.35 mm) à l’aide de matrices de bolomètres (4 × 4 ou 8 × 8) refroidis à 0.1 K. La réfrigération se fait en plusieurs étages : étage à désorption d’hydrogène, puis étage à détente Joule-Thomson à 4 K, puis étage à dilution 3 He. Le nep atteint est d’environ 10−17 W-Hz−1/2 .
En moins de trois décennies, les spectaculaires progrès des bolomètres en font ainsi de précieux récepteurs submillimétriques, tant au sol que dans l’espace. Bolomètre à électrons chauds Dans un matériau tel que InSb très pur (∼3 × 1013 porteurs cm−3 ), à basse température (∼4 K), une fraction des électrons de conduction demeure libre et interagit faiblement avec le réseau cristallin. L’absorption de photons par les électrons élève leur température et modifie rapidement la résistivité du matériau : il s’agit d’une photoconductivité par porteurs libres, conduisant à la réalisation du bolomètre à électrons chauds 21 . Toutefois, on peut aussi considérer que la résistivité, proportionnelle à l’énergie incidente, l’est aussi au carré du champ électrique : le système fonctionne en mélangeur, devenu d’utilisation fréquente aux radiofréquences comme Hot Electrons Bolometer, heb (cf. § 7.5). 19 Mis en service en 1988 sur le sommet de Mauna Kea, voir www.submm.caltech.edu/cso/. 20 Cet instrument est décrit à l’adresse www.rssd.esa.int/SA/PLANCK/include/payl/ node7.html. 21 Le principe du bolomètre à électrons chauds a été donnée par Kinch M.A. et Rollin B.V., Br. J. Appl. Phys., 14, 672, 1963.
402
L’observation en astrophysique
Fig. 7.38 – Une mesure historique particulièrement difficile utilisant un bolomètre : l’émission continue du fond du ciel (rayonnement fossile à 2.7 K) au voisinage de son maximum. On a tracé les fonctions de Planck (2.7 et 2.9 K) ainsi que les mesures : (a) À l’aide d’un bolomètre à 0.3 K (nep ∼ 10−15 W Hz−1/2 ), Woody et Richards mesurent le spectre en ballon (altitude 40 km). (b) Le résultat d’une mesure analogue, faite en fusée (150 à 370 km) par Gush. Les zones grisées correspondent aux barres d’erreur données par les auteurs. (D’après Weiss R., ARAA, 18, 489, 1980. Reproduit avec l’aimable autorisation de Annual Review of Astronomy and c 1980, Annual Review Inc.) Ces résultats ont été considérablement Astrophysics, améliorés par le satellite cobe à partir de 1990, puis par les missions boomerang et wmap au début des années 2000.
Bolomètre pour rayonnement X Aux énergies importantes des rayons X (>0.1 keV), l’apport d’énergie est suffisant pour qu’une impulsion de température se produise dans le bolomètre, signalant l’arrivée des photons individuels, et que son amplitude en détermine l’énergie. On a ainsi affaire à un détecteur présentant une sélectivité spectrale intrinsèque précieuse pour les applications spectroscopiques. Le seuil en énergie et la résolution spectrale étant proportionnels au volume du détecteur, on privilégiera de petits détecteurs. Ce besoin rejoint celui de l’imagerie qui requiert de petits pixels. En revanche, l’efficacité de détection dépend de l’épaisseur du détecteur. Un cristal de diamant de quelques mm3 , refroidi à moins de 0.1 K, est couplé thermiquement à un élément de germanium dont la conductivité varie
7. Les récepteurs du rayonnement
403
Fig. 7.39 – a) Vue schématique d’un bolomètre au germanium dopé. Au centre, la résistance en germanium, collée sur un disque en diamant qui absorbe. b) Mise en évidence de la constante de temps du bolomètre après absorption d’énergie déposée par un photon (ou toute autre particule absorbée). c) Spectre d’émission de particules α par un matériau radioactif, avec Tbol = 1.3 K. (Données aimablement fournies par Coron N., 1985.)
rapidement avec la température (Fig. 7.39). Si les arrivées de photons X sont séparées par des intervalles de temps supérieurs à la constante du temps du bolomètre, qui est de l’ordre de la milliseconde, la discrimination des événements individuels est possible. En 2007, ces détecteurs fonctionnent en laboratoire et atteignent une résolution en énergie de quelques eV.
404
7.5
L’observation en astrophysique
Les récepteurs astronomiques : radiofréquences
Le principe de détection des radiofréquences par l’emploi d’éléments non linéaires fonctionnant en mélangeur avec changement de fréquence, puis détection, est né aux longueurs d’onde métriques. Il s’est progressivement étendu au centimétrique, au millimétrique puis au submillimétrique, faisant ainsi la jonction avec les techniques de détection par effet quantique (photoconducteurs) ou thermiques (bolomètres) vues précédemment. Les techniques de changement de fréquence sont parfois appliquées avec succès à la spectroscopie infrarouge, utilisant des photoconducteurs comme mélangeur (cf. § 8.4). Nous examinons successivement un ensemble de concepts et principes dont la validité s’étend à tout le domaine des radiofréquences, puis précisons les réalisations pratiques et les performances des systèmes de détection utilisés.
7.5.1
Principes généraux
Examinons successivement ici comment convertir le champ électrique incident en courant, soit directement, soit par un changement de fréquence ; puis quelles sont les caractéristiques de bruit affectant le signal à l’issue de la mesure, en tenant compte du caractère thermique des rayonnements reçus, tant de la source elle-même que de l’environnement du télescope. Conversion du champ en courant L’onde focalisée au foyer d’un télescope pénètre dans un cornet qui adapte l’impédance du vide à celle d’un guide d’onde. Celui-ci sélectionne une polarisation. L’onde est guidée jusqu’à une cavité résonnante, qui définit par sa sélectivité Q = ν/Δν une bande passante Δν au voisinage de la fréquence ν du rayonnement (Fig. 7.40). • Dans une première configuration (a), une spire, normale au vecteur champ magnétique par exemple, est excitée par induction et transforme le champ en courant, lequel est transporté par un câble coaxial. Une variante de cette configuration consiste à exciter directement l’élément non linéaire par le champ électrique. • Dans une seconde configuration (b), un amplificateur est placé sur le trajet du guide et amplifie le champ avant qu’il n’excite la spire ou ne soit détecté. • Dans une troisième configuration (c), un oscillateur local, de fréquence ν0 , superpose son champ à celui du signal incident, à l’aide d’un coupleur. Le champ somme est alors appliqué à l’élément non linéaire. Cette configuration peut s’augmenter d’un amplificateur.
7. Les récepteurs du rayonnement
405
Fig. 7.40 – Trois configurations de réception de l’onde électromagnétique. a) Détection directe. b) Détection directe après amplification. c) Détection hétérodyne, pouvant comprendre un amplificateur en amont du détecteur.
Puissance reçue, température d’antenne Considérons d’abord le cas simple d’une source de rayonnement thermique d’émissivité εν et de température T . La puissance disponible sur l’élément non linéaire est donnée par l’expression : dPν 1 = εν Bν (T )ην E , dν 2 où E est l’étendue de faisceau prélevée, le facteur 1/2 correspondant à la sélection d’une polarisation. ην désigne la transmission totale et Bν (T ) la fonction du Planck. Nous supposons être dans la configuration simple (a) ci-dessus. Nous avons montré, au chapitre 6, que l’étendue de faisceau E est nécessairement limitée par la cohérence du rayonnement et doit être prise égale à λ2 . Autrement dit, à surface S de télescope donnée, le champ sur le ciel, imposé par la cohérence, est donné par l’angle solide ω = λ2 /S. Un récepteur de radiofréquences est intrinsèquement limité à l’analyse d’un pixel unique, de champ égal à ω. (En synthèse d’ouverture, le récepteur est limité à un « pixel dans le plan de Fourier » (fréquel ), plutôt que dans le plan image.)
406
L’observation en astrophysique
La puissance par intervalle de fréquence s’écrit alors : 1 dPν = εν ην λ2 Bν (T ), dν 2 et, dans le cas particulier d’un rayonnement de corps noir (εν = 1) dans l’approximation de Rayleigh-Jeans : dPν = ην kT. dν La puissance reçue est donc simplement exprimée par une température, appelée température d’antenne, qui est indépendante de la transmission du système. Si la source est : (i) optiquement épaisse à la longueur d’onde considérée ; (ii) à une température telle que l’approximation Rayleigh-Jeans s’applique pour la fréquence considérée (hν kT) ; (iii) suffisamment étendue pour remplir le champ ou lobe ω de l’instrument ; (iv) en équilibre thermodynamique local ; alors la température d’antenne Ta est aussi la température physique du rayonnement de la source. Dans le cas d’une source non thermique ou rayonnant de façon quelconque, la puissance à l’entrée du télescope est évidemment donnée par : dPν = kT a (ν) dν, lorsque Ta est la température d’antenne mesurée à la fréquence ν. Température de bruit Dans la pratique, même si l’instrument est dirigé vers une région ne contenant aucune source de rayonnement et de température nulle, un courant non nul sera mesuré, dont la puissance sera également non nulle. Ce signal résiduel a diverses origines : – émission thermique résiduelle de l’atmosphère (cf. § 2.3), du télescope, du guide d’onde ; – contribution due à l’émission thermique du sol, détectée dans les lobes secondaires de la figure de diffraction ; – bruit thermique engendré dans le récepteur lui-même (par exemple, fluctuations du courant tunnel dans une diode AsGa). Les champs de ces différentes sources sont incohérents, ils s’ajoutent quadratiquement et on peut écrire la somme de ces puissances sous la forme : T (bruit) = T (atmosphère) + T (lobes) + T (récepteur),
7. Les récepteurs du rayonnement
407
même si les températures ainsi désignées ne correspondent pas à des températures au sens physique du terme. Elles représentent une puissance de laquelle il faudra distinguer le signal. Les deux premiers termes dépendent fortement de la longueur d’onde, comme l’émission atmosphérique ou la diffraction. Ils sont de l’ordre de 100 K pour des télescopes basés sur Terre et de l’ordre de 10 K dans l’espace. Dans le meilleur des cas, la limitation sera imposée par T (récepteur), appelée encore température de système, et ne pourra être inférieure à la température physique du récepteur ; elle lui est, en général, significativement supérieure. Considérons les configurations (a), (b) et (c) ci-dessus et déterminons, dans chacun des cas, la température totale de bruit du système, sans inclure la contribution due aux émissions de l’antenne et de l’atmosphère. (a) Tb = T (récepteur quadratique), (b) Tb = T (amplificateur) + T (mélangeur)/gain, (c) Tb = T (ampli RF) + T (mélangeur)/gain ampli RF + T (ampli IF), + T (mélangeur IF)/gain ampli IF. L’expression (c) est écrite dans le cas le plus général d’une détection hétérodyne Les éléments les plus critiques sont les mélangeurs, dont la température de bruit peut aller de quelques dizaines à quelques milliers de kelvins (Fig. 7.41), et dont les principes de réalisation sont présentés plus loin. On notera que les meilleurs récepteurs approchent la limite quantique (exercice 7.9). Aux fréquences inférieures à 100 GHz (centimétrique et métrique), il est nécessaire d’amplifier le signal νs (radiofréquence rf) et l’emploi d’un amplificateur permet de ramener Tb dans le domaine 50 K (6 à 21 cm) à 300 K (1.3 cm) : ces valeurs caractérisent les récepteurs du radiotélescope à synthèse d’ouverture appelé Very Large Array (vla, Nouveau-Mexique). En pointant alternativement le récepteur sur la source et sur un point voisin du ciel, supposé vide de source astronomique, on mesure donc deux valeurs de la température d’antenne : T (système) + T (source) et T (système), dont la différence, en valeur moyenne, donne la quantité cherchée, affectée des fluctuations de chacun des termes. Puissance minimum détectable, rapport signal à bruit La figure 7.42 représente le schéma de détection le plus simple. Il est utilisable aux longueurs d’onde métriques, lorsque la fréquence du signal est basse (< 100 MHz). Après l’antenne, la cavité, fonctionnant comme un filtre passe-bande, isole dans le signal une bande de fréquence Δνs centrée sur une fréquence νs .
408
L’observation en astrophysique
hv =
k Tb
Fig. 7.41 – Température de bruit des mélangeurs utilisés en radioastronomie : (+) diodes Schottky à 300 K ; (×) diodes Schotty refroidies ; () jonctions sis, (o) bolomètre à électrons chauds (heb). Tous ces récepteurs ont une large bande passante intrinsèque (>100 MHz), sauf le bolomètre. La droite trace la limite hν = kTb . (D’après Philips T.G., Woody D.P., ARAA, 20, 285, 1982. Reproduit avec l’aimable autorisation de Annual Review of Astronomy and Astrophysics, Vol. 20, c 1980 by Annual Review Inc.). Les valeurs initiales de cette figure (Tb ≥ 100 K) sont celles du milieu de la décennie 1980. Au milieu des années 1990, les performances n’avaient que peu progressé dans le domaine inférieur à 500 GHz : au mieux un facteur 2 pour les jonctions sis. Au milieu des années 2000 (symboles pleins), l’amélioration des jonctions sis se poursuit (Tb de 50 à 150 K pour les récepteurs du télescope de 30 m de l’iram) ou ceux de l’instrument hifi de la mission européenne Herschel (lancement 2008) au-delà de 1 THz, tandis que le bolomètre à électrons chauds permet à cette mission de dépasser la fréquence de 1 THz, soit λ = 330 μm. (Valeurs 2007 dues à l’amabilité de G. Beaudin.)
Fig. 7.42 – Schéma de détection simple du champ de l’onde électromagnétique (détection dite « vidéo »).
Nous admettrons, pour la commodité du calcul, que l’élément non linéaire forme, à partir du signal x(t), la quantité : y (t) = x2 (t) ,
courant i (t) ∝ E 2 (t) .
7. Les récepteurs du rayonnement
409
Dans la pratique, la transformation peut être légèrement différente, par exemple : y (t) = |x(t)| ,
courant i (t) ∝ |E (t)| ,
etc.
mais les conclusions seront analogues : il suffira de traiter la transformation convenable de la variable aléatoire x(t). Nous admettrons que x(t) est un processus gaussien, de densité spectrale blanche, caractérisée par une température T (bruit) = Tb . Le courant i(t) est alors filtré par un filtre passe-bande (Fig. 7.43) de bande passante (ε, fc), de façon à exclure la fréquence 0. Le signal est finalement enregistré sous forme analogique ou numérisé.
Fig. 7.43 – Densités spectrales successives (a) du signal incident νs filtré ; (b) après détection quadratique, seule la partie bf est tracée ; (c) après filtrage basse fréquence, en échelle dilatée. Le filtre passe-bande élimine la fréquence 0, donc l’impulsion à l’origine, et, puisque fc Δνs , la dsp est pratiquement constante sur toute la largeur du filtre.
Appliquons le résultat de l’appendice II donnant la densité spectrale du carré d’un processus aléatoire, notant que Δνs νs (par exemple, dans le cas d’un récepteur centimétrique, νs ∼ 1010 Hz, Δνs ∼ 107 Hz). La dsp du signal est finalement donné par la convolution # " fc ν fc 2 +δ ν+ Π Ss (ν) ≈ (2 kTb ) Δνs δ ν − , fc Δνs . 2 2 fc Par transformation de Fourier, on obtient l’autocovariance Cs (τ ) et finalement : 2 σs2 = Cs (0) = (2 kTb ) 2Δνs fc . Le signal dû à la source se calcule simplement en faisant Tb = 0 : 2 2 (t) = σE = 2kTsource Δνs , signal = s(t) = Esource
410
L’observation en astrophysique
et le rapport signal à bruit s’en déduit : 2kTsource Δνs 1/2
=
2kTb (2Δνs fc )
Tsource Tb
Δνs 2 fc
1/2 .
La bande passante fc du filtre est reliée au temps d’intégration τ par une relation de la forme : fc τ = α, α ∼ 1. La valeur exacte du coefficient α dépend de la fonction de transfert du filtre particulier utilisé. On vérifie à nouveau la règle générale qui énonce que le rapport signal à bruit n’augmente que comme la racine carrée du temps de mesure. De surcroît, ce rapport n’augmente que comme la racine carrée de la bande passante Δνs . En effet, lorsque Δνs augmente, le signal augmente, mais la puissance de bruit prélevée augmente également. Pointer l’antenne sur deux points voisins du ciel permet, par différence, d’éliminer les contributions parasites (émission atmosphérique, valeur moyenne du bruit instrumental), et la puissance minimale détectable est alors, pour un rapport signal à bruit égal à l’unité : Pmin = kTb
2fc Δνs
1/2 Δνs
(watt) .
Dans le modèle discuté ici, nous avons supposé que le même filtre Δνs s’appliquait à toutes les composantes de i(t) : signal dû à la source, signal dû à l’émission instrumentale, signal dû aux fluctuations du récepteur. Si ce n’est pas le cas, la discussion est aisée à reprendre.
7.5.2
La détection hétérodyne
Il s’agit de la méthode la plus courante, employée désormais sur les radiotélescopes, qu’ils soient au sol ou dans l’espace, depuis le domaine submillimétrique jusqu’au métrique. Elle a été présentée brièvement figure 7.40. Nous examinons ici, successivement, les différents composants nécessaires, leurs principes physiques et leur mise en œuvre. La figure 7.44 présente une vue d’ensemble, plus détaillée, des opérations successives que subit le signal incident. La fréquence du signal incident est changé, sans perte d’information, par superposition, sur un détecteur quadratique, du champ signal à la fréquence νs et du champ d’un oscillateur local à la fréquence ν0 . Le courant est alors, à la sortie de ce mélangeur, proportionnel à : i (t) ∝ E0 (t) Es (t) . Il est donc linéairement dépendant du champ Es (t) et comprend une composante à la fréquence (ν0 – νs ). Ce courant, dit moyenne fréquence ou fréquence intermédiaire (fi), est alors amplifié, filtré, puis à nouveau détecté et
7. Les récepteurs du rayonnement
411
Fig. 7.44 – Étapes successives d’un récepteur hétérodyne simple bande (ssb). (a) Sous-systèmes. (b) Le signal dépendant du temps. (c) Densité spectrale des signaux. On notera la fréquence image νI éliminée par le filtre Δν.
412
L’observation en astrophysique
moyenné par le filtre de sortie, de largeur fc . Le premier avantage de cette méthode est de pouvoir contrôler avec précision le filtrage à la sortie de l’étage moyenne fréquence, donc de faire une analyse spectrale du signal. Le second avantage est l’amplification du signal, réalisée par le mélange des deux fréquences : si l’oscillateur local fournit un champ rigoureusement cohérent, le courant i(t) peut être rendu grand devant toutes les sources de bruit internes au récepteur et ne demeureront que les seules fluctuations contenues dans le signal. Ce raisonnement serait en défaut aux longueurs d’onde où le bruit quantique de l’oscillateur local ne pourrait plus être négligé. En définitive, les propriétés de bruit de l’ensemble sont fixées par celles du (ou des) amplificateur(s) et celles du mélangeur. Les propriétés spectrales sont fixées par la faisabilité et la stabilité de l’oscillateur local, la fréquence d’opération et la largeur de bande de fréquence du mélangeur, puis par les propriétés des étages d’analyse spectrale qui sont décrits plus loin (cf. § 8.4). Le mélangeur ne distingue pas a priori entre deux fréquences du signal qui seraient symétriques par rapport à la fréquence ν0 de l’oscillateur local. Cette confusion peut perturber la mesure (analyse d’une raie spectrale), auquel cas un filtre précédant le mélangeur bloque les fréquences ν < ν0 . On parle alors de réception simple bande (en anglais, Single Side Band ou ssb) ou, dans le cas contraire, de réception double bande (Double Side Band ou dsb). Dans√ce dernier cas, le rapport signal à bruit est évidemment dégradé d’un facteur 2 (exercice 7.8), mais la couverture spectrale est doublée. L’étage de fréquence intermédiaire, après le mélangeur, ainsi que les étages qui suivent, sont indépendants de νs et de ν0 : ils ne dépendent que de (ν0 −νs ). On comprend donc que le schéma hétérodyne est applicable à toute longueur d’onde, à condition de disposer d’un oscillateur local, d’un amplificateur et d’un mélangeur adaptés à la fréquence, la sensibilité et aux caractéristiques spectrales de la source étudiée. Oscillateur local La fonction de ce sous-système est de fournir un signal cohérent, donc de fréquence stable, sans bruit, à une fréquence ν0 très voisine de la fréquence νs du signal. De surcroît, la puissance fournie doit, si possible, suffire pour que le signal après mélange dépasse le bruit du mélangeur. Les trois contraintes d’un oscillateur local sont ainsi définies : fréquence stable et adaptée, puissance suffisante, absence de bruit. Mentionnons brièvement deux types d’oscillateur local qui ont pu jouer un rôle important lors du développement de la radio-astronomie, tout au long de la seconde moitié du xxe siècle. Le klystron est un générateur d’onde qui fut utilisé pour ν 180 GHz. Capable de fournir des puissances très importantes (25-100 mW), il avait été largement développé pour les télécommunications et le radar.
7. Les récepteurs du rayonnement
413
Le carcinotron est un générateur d’onde fonctionnant sur le principe suivant : un faisceau monocinétique d’électrons circule parallèlement à une grille. La modulation du potentiel de la grille crée un champ électrique variable, dont la fréquence est liée au pas de la grille. Susceptible d’émettre quelques dizaines de mW jusqu’à 1 000 GHz, c’est une source de bonne qualité, mais lourde et consommant une puissance élevée, impossible à placer dans l’espace. Les générateurs harmoniques sont des doubleurs ou multiplicateurs de fréquence qui utilisent un élément non linéaire (diode Schottky) excité par un klystron. L’élément non linéaire rayonne alors les harmoniques 2, 3... de la fréquence d’excitation. La puissance obtenue atteint quelques mW, jusqu’à 500 GHz environ. Les lasers moléculaires offrent une très grande pureté spectrale et stabilité, ainsi qu’un grand nombre de raies couvrant non seulement le submillimétrique, mais aussi l’infrarouge lointain et moyen (20 μm et au-delà). La puissance disponible est de 0.1 à 1 mW. Leur inconvénient est de ne fournir que des raies à fréquences discrètes, qui ne sont pas nécessairement proches de la fréquence νs étudiée (Fig. 7.45).
Fig. 7.45 – Domaines de fréquence couverts entre 150 et 850 GHz (0.35 à 2 mm) par des lasers moléculaires (fréquence indiquée par une flèche verticale) et des mélangeurs dont la largeur de bande serait de ±5 GHz. Les hachures indiquent les fréquences qui peuvent être atteintes en utilisant ces lasers comme oscillateurs locaux. (D’après Roeser H. P. et al., Astron. Astrophys., 165, 287, 1986.)
Les oscillateurs modernes (2007) sont des générateurs à effet Gunn. Une diode solide est réalisée de façon à ce que sa caractéristique courant-tension présente, dans un certain domaine, une résistance négative (dV /dI < 0). Alimentée en courant continu, la diode entre en oscillation, et la fréquence recherchée νo est obtenue en plaçant la diode dans une cavité résonante à cette fréquence, d’où elle est extraite par un guide d’onde. Ces diodes sont réalisées avec des matériaux semi-conducteurs, tels que GaAs (de quelques GHz à 100 GHz), puis en nitrure de gallium (jusqu’au THz) : devenues les sources locales standard, elles ont facilité le développement de l’astronomie
414
L’observation en astrophysique
submillimétrique, par exemple sur le California Submillimeter Observatory 22 (cso, Hawaii) ou dans l’instrument hifi de la mission spatiale Herschel. Une autre configuration possible est de faire suivre la diode d’un amplificateur de puissance High Electron Mobility Transistor (hemt, cf. infra), suivi d’un multiplicateur de fréquence produisant un harmonique à la fréquence recherchée. Les performances atteintes sont une température de bruit inférieure à 100 K à 300 GHz, et inférieure à 1 000 K à 700 GHz. D’autres méthodes de réalisation d’oscillateurs sont en cours de développement (2007), telles l’utilisation de jonctions Josephson23, les battements de lasers, jusqu’à des fréquences très élevées (THz) ou, au-delà et jusque l’infrarouge moyen, le laser à cascade quantique (Quantum Cascade Laser, qcl). En conclusion, nous présentons une configuration assez générale de réception des radiofréquences : nous avons montré qu’en pratique, sur un schéma général commun (cf. Tab. 7.11), de très diverses configurations sont accessibles. Amplificateurs Dans la plupart des schémas de réception des radiofréquences, l’élément non linéaire est une source de bruit significative. Il est donc avantageux, soit d’amplifier le signal incident de fréquence νs , soit le signal moyenne fréquence νIF = ν0 − νs , avant mélange. Le principe des différents types d’amplificateurs est le suivant : on prélève de l’énergie à une source locale de rayonnement, cette énergie est transférée à l’onde incidente, proportionnellement à l’énergie incidente, en phase avec le champ incident. Un effet d’amplification cohérente est obtenu : le rapport signal à bruit sera amélioré aussi longtemps que le gain de l’amplificateur sera inférieur à la valeur : Tb g= , Ta où Ta est la température de bruit à l’entrée de l’amplificateur, et Tb celle de l’élément de détection. La méthode moderne d’amplification, qui peut s’appliquer soit directement au signal incident rf, soit au signal de fréquence intermédiaire if, utilise des transistors dits hemt (High Electron Mobility Transistor ), qui sont des transistors à effet de champ utilisant une hétérojonction (deux matériaux semi-conducteurs de gaps différents). Par exemple, la mission spatiale odin (Suède, avec le Canada, la Finlande, la France), lancée en 2001 et encore active en 2007, comprend un radiotélescope de 1.1 m et un équipement focal entre 180 et 520 GHz, où se trouvent des amplificateurs if basés sur ce principe. 22 Voir
www.submm.caltech.edu/cso/receivers. le projet suédois Submillimetron (2007), qui propose un module autonome de longue durée de vie, portant un télescope submillimétrique, venant se ravitailler auprès de la station spatiale internationale. 23 Dans
7. Les récepteurs du rayonnement
415
Rappelons ici quelques-uns des systèmes développés au cours des années 1950-2000. Le principe de l’amplificateur paramétrique est le suivant. Soit un oscillateur représenté, par exemple, par un circuit résistance R, inductance L, capacité C, dont il est possible de faire varier l’un des éléments intervenant dans la fréquence de résonance, C par exemple. Soit ω0 la fréquence originale et 2 ω0 la fréquence de modulation de C. Supposons l’amortissement faible, c’est-à-dire Q = 1/ω0 RC 1. L’équation de l’oscillateur s’écrit : x ¨+
1 x˙ + ω02 (1 − ε sin 2ω0 t) x = 0, τ
avec : C = C0 (1 − ε sin 2ω0 t) ,
ε 1,
LC0 ω02 = 1,
τ =
L · R
Cherchant une solution de la forme x = f (t) sin ω0 t, il vient : εω0 εω0 1 ε 1 · f (t) = K exp − t − sin 2ω0 t ∼ K exp − 2 2τ 4 2 2τ Il y a amplification si les conditions : ε>
1 ω0 τ
et
ε 2+
1 , ω0 τ
sont simultanément remplies, ce qui est possible lorsqu’effectivement la sélectivité Q est très grande devant l’unité. Le système n’est linéaire que dans une plage d’amplitude limitée. Un gain appréciable peut être obtenu ; la puissance est transférée au signal par l’intermédiaire de la modulation de la capacité C ; elle est prélevée à l’oscillateur qui module cette capacité à la fréquence 2 ω0 . Dans la pratique, la capacité variable (parfois appelée Varactor) est une jonction-barrière de Schottky (cf. infra), dont la capacité dépend du voltage appliqué : −n V 0.3 n 0.5. C = C0 1 − V0 La température de bruit typique d’un amplificateur paramétrique refroidi est de 10 à 20 K. L’amplificateur maser a pour principe d’utiliser une source de puissance externe pour peupler des niveaux excités d’un solide ou d’un gaz audelà de la population correspondant à l’équilibre thermique. L’émission stimulée produite par le rayonnement incident est en phase avec celui-ci, et dans la même direction : il y a donc amplification. Le maser à rubis est un monocristal d’alumine Al2 O3 dont 0.05 % des ions Al3+ sont remplacés par des ions chrome Cr3+ . L’effet combiné du
416
L’observation en astrophysique
Fig. 7.46 – États d’énergie dans un maser à rubis, en fonction de l’induction magnétique appliquée.
champ électrique du réseau Al2 O3 et d’une induction extérieure appliquée crée quatre niveaux d’énergie (Fig. 7.46) pour le spin électronique S = 3/2 de l’ion Cr3+ . Des transitions dipolaires magnétiques sont possibles entre ces niveaux. Le maser peut être pompé par un oscillateur local (Fig. 7.46) à la fréquence (E4 −E2 )/h et émettre la transition d’énergie (E4 −E3 ) de façon stimulée. Il est nécessaire de refroidir le cristal pour que les différences de population soient significatives : E3 − E1 (à B = 0) = 11.46 GHz, h correspond à une température : T =
E3 − E1 = 0.55 K k
La température de bruit typique des amplificateurs masers est de 15 à 50 K. Le maser à états de Rydberg utilise les états proches du continu d’ionisation de l’atome d’hydrogène. La différence d’énergie entre deux de ces états est donnée par : 1 1 ΔE = R 2 − ∼ Rn−3 si n 1. n (n + 1)2 Pour n ∼ 30, cet écart correspond aux longueurs d’onde millimétriques. Les transitions dipolaires électriques entre ces niveaux sont faciles à exciter et le principe de l’amplification est le même que précédemment.
Étage mélangeur Nous avons vu ci-dessus que deux facteurs sont essentiels dans la conception d’un mélangeur : la largeur de bande spectrale B qu’il accepte, et la température de bruit qui le caractérise. Toutes choses égales par ailleurs, la valeur recherchée de B est d’autant plus élevée que la fréquence νs du signal incident l’est. Cette remarque conduit à des techniques plus simples de
7. Les récepteurs du rayonnement
417
mélange aux fréquences inférieures à 80 GHz (λ ≥ 4 mm environ). On peut désormais utiliser des transistors tels les hemt, fonctionnant à des fréquences de plus en plus élevées et permettant d’amplifier puis de détecter les signaux if, tout en disposant d’une bande spectrale B suffisamment large. Aux fréquences plus élevées (millimétrique et submillimétrique), le mélangeur qui s’est imposé est la jonction supraconductrice sis et le mélangeur à électrons chauds heb. La diode Schottky est encore utilisée, mais ses performances en bruit sont inférieures. Jonction sis. Nous avons rencontré plus haut (cf. § 7.3) le principe de cette jonction Supraconducteur-Isolant-Supraconducteur. La circulation d’un courant de quasi-particules dans l’isolant est un effet non linéaire, comme le montre la caractéristique courant-tension de la jonction (Fig. 7.16). Il peut donc être utilisé comme mélangeur de fréquence 24 . Puisque l’interaction entre le rayonnement et le matériau se fait par quanta, la limite théorique de température de bruit est très basse, soit To = hν/k. À 100 GHz, on a To = 5 K, alors que les meilleures diodes atteignent Tb ≈ 20 K et à 1 THz, Tb ≈ 1 000 K. Ce facteur favorable permet d’utiliser un oscillateur local de faible puissance, qui peut même être intégré dans la diode. Mais la capacité intrinsèque de la géométrie utilisée (Fig. 7.47) ne permet guère une utilisation dépassant le THz.
10 μm
Fig. 7.47 – Vue, prise au microscope électronique, d’une jonction sis, réalisée à l’observatoire de Paris (Département lerma) et destinée à la bande 385-500 GHz du télescope européen alma (Chili). (Document aimablement communiqué par le lerma.) Le comportement à fréquence élevée dépend du produit résistance-capacité de la jonction : des jonctions Nb(niobium)-AlO2 (alumine)-PbBi sont utilisées (2007) jusqu’à 1.2 THz (λ = 0.35 mm). Le faible encombrement des jonctions sis permet de les organiser en mosaïques bidimensionnelles de petit format, pour réaliser enfin des récepteurs 24 L’effet mélangeur d’un courant de quasi-particules est décrit par Richards P.L. et al., Appl. Phys. Lett., 34, 345, 1979.
418
L’observation en astrophysique
d’image multipixels aux radiofréquences. C’est ainsi que le télescope de 30 m de l’iram est équipé d’une matrice 3 × 3, alimentée par des cornets juxtaposés (d’où une perte de facteur de remplissage), et que le James Clerk Maxwell Telescope (jcmt, Hawaii) possède une matrice 4 × 4, fonctionnant à λ = 800 μm. Mélangeur à électrons chauds. Nous avons vu plus haut la possibilité de chauffer, à l’aide du rayonnement incident, le gaz d’électrons libres d’un semi-conducteur très pur (InSb), et d’utiliser le transfert de cette énergie au réseau cristallin, dont elle modifie la résistivité, pour réaliser le bolomètre à électrons chauds (Hot Electron Bolometer, heb). Mais on peut aussi remarquer que cette variation de résistivité, proportionnelle à l’énergie incidente, l’est donc au carré du champ électrique subi par le matériau : celui-ci peut donc fonctionner en mélangeur. Dans ce cas, on utilise un pont supraconducteur de dimension nanométrique en nitrure de niobium (NbN), connectant deux électrodes en or25 . Le signal (source et oscillateur local) est concentré sur ce pont par une lentille ou un cône quasi optique. Le mélange hétérodyne résulte de la transition purement résistive entre l’état supraconducteur et l’état normal, induite par l’échauffement dû au signaux rf. Une largeur de bande fi importante (jusque B = 2 GHz) s’obtient en réduisant le volume du film de NbN, pour obtenir la constante de temps thermique la plus faible possible. On obtient des températures de bruit Tb = 750 K à 1.5 THz, s’élevant à 3 000 K à 3 THz dans un mode dsb (Double Side Band ). Diode Schottky. Cet élément non linéaire porte aussi le nom de barrière de Schottky 26 . La diode Schottky a longtemps représenté le mélangeur idéal aux radiofréquences. Elle a été progressivement supplantée par des récepteurs s’approchant, mieux qu’elle, de la limite quantique de bruit, tels que ceux que nous venons de décrire. Toutefois, elle demeure largement utilisée lorsque le niveau de signal est assez élevé pour ne pas voir les performances se dégrader à cause du bruit du mélangeur. C’est par exemple le cas lorsqu’un instrument millimétrique est utilisé pour observer l’atmosphère de la Terre depuis l’espace, ou la surface de la planète Mars depuis une sonde placée en orbite autour de celle-ci : le signal, celui d’un corps noir à une température voisine de 250 K, est alors suffisamment élevé. Donnons une description élémentaire des propriétés de ce contact entre un métal et un semi-conducteur27 . La figure 7.48 décrit les phénomènes qui se produisent lorsqu’un métal et un semi-conducteur sont mis en contact : à l’équilibre, les porteurs majoritaires du semi-conducteur s’éloignent de la zone de contact, de façon que les niveaux de Fermi 25 Voir
www.sron.nl/index.php ?option=com-content&task=view&id=44&Itemid=111. Schottky, physicien allemand, 1886-1976, fut l’un des premiers à s’intéresser à l’électronique des semi-conducteurs et à construire des dispositifs avec ceux-ci. 27 Voir aussi Kittel C., Physique de l’état solide, Chap. 8., Dunod, 2007. 26 Walter
7. Les récepteurs du rayonnement
419
Fig. 7.48 – Contact entre un métal et un semi-conducteur n. Le tireté représente le niveau de Fermi dans chaque matériau. Le potentiel électrostatique est en ordonnée. du métal et ceux du semi-conducteur coïncident. Une barrière ou zone de déplétion, vide de porteurs majoritaires, apparaît dans le semiconducteur. Un calcul simple montre que la largeur de cette barrière est donnée par l’expression : 1/2 2 ε |V0 | , xb = Ne où ε est la permittivité du matériau, V0 la différence des niveaux de Fermi et N la densité de porteurs. Avec ε = 16 ε0 , V0 = 0.5 V, N = 1016 cm−3 , il vient xb = 0.3 μm.
Fig. 7.49 – Caractéristique courant-tension de la jonction entre métal et semiconducteur n. Une tension positive accroît la barrière de potentiel : le courant est diminué. La caractéristique courant-tension de la jonction ou diode est donnée figure 7.49. En l’absence de tension appliquée, un courant peut néanmoins traverser la jonction : soit l’énergie thermique des électrons est suffisante pour qu’ils franchissent la barrière de potentiel, soit, leur énergie étant insuffisante, la barrière est néanmoins franchie par effet tunnel. À basse température (T 300 K), ce dernier effet domine et la caractéristique peut s’écrire : eV I ∼ Is exp , E∞ où Is est le courant de saturation et E∞ ∝ x−1 ∝ N 1/2 . b
420
L’observation en astrophysique Si Δf est la bande passante en fréquence du filtre qui suit la diode, le courant i donne lieu à la fluctuation (cf. § 7.2) :
Δi2 = 2 ei Δf,
et la puissance de bruit correspondante est (exercice 7.2) : P =
R Δi2 dV = 4 dI
2eiΔf · 4
Cette puissance peut être caractérisée par une température de bruit, en utilisant la densité spectrale de puissance d’un bruit thermique (cf. 7.2). Il vient : P = kTd Δf =
1 dV 2 dI
ei Δf
soit
Td =
E∞ · 2k
La température de bruit Td caractérisera donc la qualité propre de la diode. Dans la pratique, le semi-conducteur utilisé est l’arséniure de gallium (AsGa), fortement dopé. À sa surface, une couche mince, faiblement dopée, est formée par épitaxie moléculaire et mise au contact d’un métal. On appelle épitaxie le procédé qui consiste à faire croître, sur un monocristal, une couche superficielle de composition différente, mais dont la structure cristalline reste identique à celle du substrat. Ce procédé est très employé en micro-électronique, par exemple pour déposer du silicium dopé sur du silicium pur. La couche est déposée par condensation d’une vapeur ou cristallisation d’un liquide. La nécessité de réduire le bruit conduit donc à un fonctionnement à basse température (20 K) et à une couche épitaxiée faiblement dopée pour réduire l’effet tunnel ; de surcroît, l’épaisseur de cette couche ne doit pas dépasser celle de la couche de déplétion, sous peine d’introduire une résistance supplémentaire. Quelle est la limite, du côté des fréquences élevées, de la réponse de ces diodes ? Au-delà de 300 GHz (λ < 1 mm), la capacité propre de la diode crée un filtre résistance-capacité qui en diminue la réponse. Certains procédés ont réduit cette capacité à 1.5 × 10−15 F, permettant d’étendre le domaine de fonctionnement jusqu’à 700 GHz.
Récepteur à puissance totale. La détection hétérodyne possède une capacité de sélectivité spectrale intrinsèque, par analyse spectrale du signal de fréquence intermédiaire (cf. Chap. 8). Mais il est possible de mesurer directement en sortie de mélangeur l’intégrale de la puissance reçue, limitée seulement par la bande passante B de ce dernier, donc avec une très faible sélectivité spectrale. Un exemple est donné par la figure 7.50.
7. Les récepteurs du rayonnement
421
Fig. 7.50 – Récepteur à puissance totale. Une mesure de la puissance rayonnée par la planète Vénus () à λ = 6 cm, avec le radiotélescope de Kitt Peak (Arizona), de diamètre 42,6 m. La planète est alternée avec le fond de ciel à son voisinage (E, O, N, S ). CAL désigne une calibration (§ 3.5.1). La polarisation sélectionnée est dans la direction N − S. La dimension de la planète est petite devant le champ de ' 2 cohérence et la déviation est proportionnelle à Δν Bν (TTM ) πθ4 dν.
7.5.3
La diversité de la radio-astronomie
La réception des radiofréquences couvre un domaine très vaste, faisant désormais la liaison avec celui de l’infrarouge en couvrant le submillimétrique, et utilisant des technologies diversifiées pour ses divers composants. Le tableau 7.11 résume les propriétés de base des récepteurs, à partir desquelles toutes sortes de combinaisons observationnelles sont possibles. Tab. 7.11 – Réception des radiofréquences. Constituants
Propriétés géométriques Polarisation Propriétés spectrales Bruit Réponse temporelle
amplificateur rf oscillateur local élément non linéaire rf amplificateur, filtre(s) ou corrélateur fi détecteur fi (transistor) pixel unique, d’étendue λ2 fixée petites mosaïques (N ≤ 10) une polarisation composants à bande large sélectivité spectrale post-fi proche de la limite thermodynamique, imposée par la température du système sans limitation particulière
rf = radiofréquence, fi = fréquence intermédiaire.
Comme dans les autres domaines de longueurs d’onde, le système d’observation couple le télescope, au sol ou dans l’espace, organisé éventuellement en réseau (cf. § 6.5.1), avec ces récepteurs, associé à une capacité
422
L’observation en astrophysique
spectrographique qui est étudiée en détail au chapitre 8. Ces différents éléments sont à organiser et combiner en fonction de l’observation souhaitée et du problème astrophysique posé. En fréquentant les sites internet des observatoires de radioastronomie, le lecteur peut y vérifier l’extrême diversité et richesse des combinaisons possibles, afin d’optimiser le mode d’observation. À titre d’exemples, considérons les objectifs suivants : – Détection d’une radiosource extragalactique très faible, en utilisant une surface collectrice de grande taille, une bande spectrale Δνs aussi large que possible et un temps d’intégration aussi élevé que possible. – Analyse de fluctuations très rapides d’un pulsar, dont on cherche à déterminer la période. La bande spectrale peut encore être large, mais le temps d’intégration est court (milliseconde ou inférieur). – Analyse de sursauts solaires : les variations rapides de l’émission dépendent de la fréquence : il faut conjuguer ici sélectivité spectrale et résolution temporelle, tout en maintenant le rapport signal à bruit. – Analyse du profil d’une raie d’une molécule interstellaire. La résolution spectrale doit être très grande (νs /Δνs ∼ 105 ). Il s’agit alors d’un spectromètre étudié plus en détail § 8.4. – Mesure de la dimension angulaire et imagerie d’une radiosource. Ceci requiert l’utilisation d’un réseau interférométrique, avec comparaison de la phase de l’onde sur deux récepteurs spatialement distincts, afin d’obtenir une information sur la dimension de la source. La résolution spectrale n’est pas nécessairement élevée, sauf si l’émission est spectralement étroite (raie). La figure 7.51 illustre schématiquement les configurations pouvant être associées à de tels problèmes. Il conviendrait d’ailleurs d’y ajouter une quatrième dimension, celle de la fréquence du signal reçu.
7.6
Les systèmes d’observation en astronomie γ
Dans ce domaine de hautes énergies, que nous définissons avec une frontière inférieure de l’ordre de 10 keV (λ ∼ 0.1 nm), faisant donc suite au domaine du rayonnement X, les notions de télescope, de récepteur (ou détecteur) et de spectromètre, jusqu’ici considérés comme des entités indépendantes, deviennent floues, car c’est souvent un unique système, qui remplit ces différentes fonctions. Ceci est principalement dû à l’absence de miroirs permettant, comme aux autres longueurs d’onde, la formation d’images. Cette frontière basse, clairement fixée dans les décennies 1970-2000 autour de 10 keV par les limites de l’utilisation possible de miroirs, tend à se déplacer vers des énergies de plus en plus hautes, pour sans doute dépasser quelques centaines
7. Les récepteurs du rayonnement
423
Fig. 7.51 – Diversité des combinaisons d’observation en radio-astronomie. Les domaines schématisés ne correspondent qu’à des ordres de grandeur. Une quatrième dimension, celle des fréquences, n’a pu être représentée, mais chacun des sujets identifiés est progressivement traité sur toute la gamme de celles-ci, allant de 1 THz à 100 MHz au moins.
de keV dans un avenir prévisible, le domaine X, avec ses techniques propres, progressant vers les énergies plus élevées. C’est dire le caractère commode, mais quelque peu arbitraire, des découpages proposés dans cet ouvrage. Du côté des hautes énergies, le domaine γ ne cesse de s’étendre, au-delà de 10 TeV. Après avoir néanmoins présenté au chapitre 5 quelques modalités de la formation d’image aux longueurs d’onde γ, s’apparentant davantage à celles des télescopes classiques, nous regroupons donc ici, s’agissant du rayonnement γ, les notions qui, pour les autres domaines de longueur d’onde, ont été réparties entre les chapitres 7 (récepteurs) et 8 (spectromètres). En outre, nous conservons la dénomination de télescope, qui est couramment employée pour désigner l’ensemble du système recevant, détectant et analysant en énergie le rayonnement γ de sources astronomiques. Ces systèmes ont d’ailleurs pris naissance, de façon assez naturelle dès les années 1960, au sein de laboratoires de physique nucléaire ou particulaire, qui possèdent leur propre culture instrumentale. Ainsi s’est développé, surtout depuis les années 1990, le domaine appelé astroparticules, qui regroupe les problèmes d’astrophysique faisant appel aux hautes énergies (mécanismes où interviennent plutôt les noyaux que les cortèges électroniques des atomes), ainsi que les instruments d’observation de sources astronomiques à ces énergies. Ce domaine est en pleine expansion.
424
L’observation en astrophysique
Tab. 7.12 – La détection en astronomie γ. Interaction Absorption photoélectrique
Diffusion Compton
Effet de paire Effet de paire (formation de gerbe et rayonnement Čerenkov)
Type de détecteur Cristal CdTe
Gamme d’énergie 10 keV - 1 MeV
Scintillateurs
100 keV - 10 MeV
Cristal Ge
10 keV - 10 MeV
Imagerie masque codé et imageur segmenté (104 pixels) masque codé et imageur segmenté (103 pixels) masque codé et imageur segmenté (10 pixels) intrinsèque et/ou masque codé
Scintillateurs 100 keV - 10 MeV ou CdTe + CsI Si + Ge Si + CdTe Chambre à étincelles 20 MeV - 300 GeV intrinsèque puis grilles Si Tubes 100 GeV - 100 TeV intrinsèque photomultiplicateurs
Précisons ici qu’en dépit des immenses progrès accomplis depuis les années 1970 dans le domaine γ, la capacité de résolution angulaire demeure, en 2007, moins bonne que dans les autres domaines spectraux, et la plupart des sources doivent encore être considérées comme non résolues par les instruments utilisés. En revanche, ce sont les niveaux de sensibilité pour la détection de sources faibles, la résolution spectrale et la frontière vers les très hautes énergies qui ont surtout progressé. Nous examinerons donc successivement la question de la résolution spatiale, puis celle de la résolution spectrale : l’une et l’autre sont étroitement liées aux types de détecteurs utilisés. Le tableau 7.13 en donne une vue générale. Chacun de ces dispositifs est ensuite utilisé dans un instrument particulier, placé le plus souvent dans l’espace, mais parfois lié à l’utilisation de l’atmosphère terrestre comme détecteur.
7.6.1
Résoudre spatialement les sources γ
Nous présentons ici un certain nombre de types de télescopes γ, au sens généralisé de systèmes, qui utilisent différents processus physiques pour déterminer la direction du rayonnement incident. Télescope Compton Dans un domaine d’énergie allant de quelques centaines de keV à quelques MeV, les interactions des photons γ avec la matière sont dominées par la
7. Les récepteurs du rayonnement
425
Tab. 7.13 – Principaux instruments en astronomie γ. Mission
Date
Domaine
heao-1 heao-3 cos-b granat cgro cgro cgro cgro integral integral agile glast Télescope Whipple hegra cat hess magic
1977-1979 1979-1981 1975-1982 1989-1998 1991-2000 1991-2000 1991-2000 1991-2000 2002200220072008-
80 keV - 2 MeV 50 keV - 10 MeV 50 MeV - 10 GeV 30 keV - 1 MeV 20 keV - 10 MeV 20 keV - 10 MeV 1 - 30 MeV 20 MeV - 30 GeV 15 keV - 1 MeV 15 keV - 8 MeV 10 MeV - 10 GeV 10 MeV - 100 GeV
1989-2000 1993-2002 1996-2002 2003 2004 -
500 GeV - 5 TeV 500 GeV - 10 TeV 200 GeV - 10 TeV 100 GeV - 100 TeV 50 GeV - 50 TeV
Instrument
sigma batse osse Comptel egret ibis/isgri spi lat lat
Pouvoir séparateur 17◦ 30◦ 0◦ 20’ 5◦ 3.8◦ × 11.4◦ 2◦ - 4◦ 1◦ - 5◦ 12’ 2.6◦ 0.1◦ - 3◦ 0.1◦ - 3◦
Rés. spectrale E/ΔE 4 500 2 5 - 10 10 10 10 - 20 5 3 - 30 50 - 500 10 10
-
0.5◦ 20’ 20’ 10’ 18’
5 5 5 7 7
a4-med hrgrs
diffusion Compton28 (cf. § 7.3.1). Une mesure correcte de l’énergie du photon incident ne peut, en général, être assurée dans ce domaine que par une série d’interactions se concluant par une absorption photoélectrique. Une telle succession d’interactions ne peut être garantie que par un détecteur suffisamment épais. Ce type de détecteur, irradié par les protons des ceintures terrestres (cf. § 2.9) et par le rayonnement cosmique est très bruyant. S’il est scindé en deux parties indépendantes et que seuls les événements déclenchant simultanément ces deux parties sont retenus, la plupart des événements dus au fond est éliminée, car ces événements ne déclenchent le plus souvent que l’un des deux détecteurs. En revanche, une grande fraction des événements ayant subi une diffusion Compton est préservée. En définitive, on obtient une forte réduction du fond, le plus souvent de plus d’un ordre de grandeur, laquelle peut procurer un gain sensible en terme de rapport signal à bruit si le système est conçu pour favoriser la diffusion Compton des photons dans l’axe du télescope. La nature et les dimensions de la première partie du détecteur doivent être choisies de manière à rendre maximale la probabilité d’une diffusion Compton unique (le nombre Z de son matériau doit être faible). Inversement, le second détecteur doit offrir un pouvoir d’absorption maximal (Z élevé, masse élevée) afin d’assurer une absorption complète de l’énergie. Équipé d’un collimateur, un tel détecteur Compton peut fournir une image de la voûte céleste par balayage. Ce fonctionnement est analogue à celui de l’expérience heao1-a4 (1977-1979), mais donne accès à des 28 Arthur Compton, physicien (1892-1962, États-Unis), prix Nobel de physique 1927, découvreur de l’effet de diffusion inélastique de la lumière par une particule de matière, effet qui porte son nom.
426
L’observation en astrophysique énergies plus élevées. Si les détecteurs employés sont sensibles à la position, il n’est pas nécessaire d’effectuer un tel balayage mais l’on retrouve le dilemne classique : une grande ouverture donne accès à une bonne sensibilité mais procure une médiocre résolution angulaire ; une faible ouverture est garante d’une bonne résolution angulaire aux dépens de la sensibilité. Comme on l’a vu § 5.2.5, le masque codé permet de résoudre ce problème et on l’applique ici avec profit. Ce mode de fonctionnement est alors analogue à celui de sigma, et devrait donner accès à des performances d’imagerie comparables, puisque liées au masque codé, mais à des énergies plus élevées (supérieures à 1 MeV). Toujours dans le cas de détecteurs sensibles à la position, il est aussi possible d’utiliser la balistique de l’interaction Compton pour contraindre la direction d’origine (angle de diffusion) des photons et en déduire statistiquement la position des sources. Dans ce cas, les performances d’imagerie dépendent de la résolution spectrale des deux détecteurs et de la distance entre eux. Cependant l’efficacité décroît rapidement avec cette distance et un compromis entre la sensibilité et la résolution angulaire doit être trouvé. Ce dernier mode est utilisé par l’expérience comptel à bord du Compton Gamma-Ray Observatory, gro (1991– 2000). Pour une distance entre les deux détecteurs de l’ordre de 1.2 m, il offre un pouvoir séparateur de l’ordre de 5 degrés. Il est également possible, dans le cas de détecteurs très proches l’un de l’autre, d’utiliser à la fois un masque codé pour l’imagerie et la balistique Compton pour une réduction supplémentaire du fond : on ne sélectionne alors que les événements dont l’ensemble des directions incidentes calculées est contenu dans l’angle solide sous-tendu par le masque depuis le point de première interaction. Ce mode de fonctionnement est utilisé par l’instrument ibis à bord de la mission integral (lancée en 2002).
Les performances spectrales de ce type de télescope, en sensibilité et éventuellement en imagerie, sont gouvernées par la résolution en énergie du plus mauvais des deux détecteurs. Télescope à effet de paire Au-delà d’une énergie de quelques MeV, c’est l’effet de paire qui domine les interactions des photons avec la matière (cf. § 7.3.1). La détection des photons se fait en deux étapes : la conversion, c’est-à-dire la création de paire, puis la mesure de la trajectoire de l’électron et du positon, dont on déduit la direction du photon γ incident. En effet, dans le système du centre de masse, l’électron et le positon sont émis dans des directions opposées ; mais dans le système du laboratoire, ils sont émis dans la direction du photon, modifiée du mouvement de recul du noyau responsable du champ électrique où se produit la paire électron-positon. À ce recul près, les directions de l’électron et du positon sont liées à la direction du photon incident.
7. Les récepteurs du rayonnement
427
La création de paire est d’autant plus efficace que le champ électrique où elle se produit est intense. Dans la matière cette création se produit dans le champ électrique des noyaux dont l’intensité dépend du nombre de protons contenus dans le noyau. C’est pourquoi les matériaux à numéro atomique élevé offrent une plus grande efficacité de conversion (cf. Fig. 7.19). On utilise le plus souvent du plomb pour garantir une bonne efficacité de conversion. Une bonne efficacité requiert aussi un convertisseur épais. Mais les électrons diffusent dans le convertisseur (diffusion de Molière) d’autant plus qu’il est épais et que son numéro atomique est élevé. En sortie d’un convertisseur épais, les électrons ont donc perdu la « mémoire » de la direction du photon γ incident. De cette difficulté résulte la conception de base des télescope à effet de paire : pour limiter la diffusion des électrons, on utilise de minces plaques de plomb insérées entre des dispositifs permettant la mesure de la trajectoire des électrons. Un grand nombre de plaques assure une bonne efficacité de conversion, et leur finesse une bonne mesure de la trajectoire des électrons et positons. La mesure de la trajectoire de l’électron et du positon fait appel à des techniques développées auprès des accélérateurs de particules : la chambre à étincelles jusqu’au milieu des années 2000 dans les missions sas-2, cos-B, Compton/egret (Energetic Gamma Ray Telescope), des grilles de silicium à l’avenir dans la mission Gamma ray Large Area Space Telescope (glast, lancement 2008). La résolution angulaire d’un tel télescope dépend donc de l’énergie des photons, l’erreur qui résulte des diffusions d’électrons étant en effet d’autant plus grande que l’énergie est faible. De l’ordre de quelques degrés à 50 MeV, elle atteint quelques dizaines de minutes d’arc au-delà du GeV. L’énergie des photons, généralement mesurée à l’aide d’un calorimètre absorbant la paire, peut également être estimée à partir des diffusions observées de l’électron et du positon. Le taux de déclenchements est assez élevé, mais les déclenchements dus à des photons γ célestes sont assez rares et les temps d’observation et de traitement des données sont donc très longs (de l’ordre du mois). La production de paires e+ e− est une signature sans ambiguïté des photons γ d’énergie supérieure à quelques MeV. Cette signature permet une réjection efficace du fond, si bien que les télescopes à effet de paire affichent une sensibilité relativement bonne : ≈ 10−7 cm−2 s−1 en un mois d’observation de l’instrument egret. Chambres à étincelles Dans une chambre à étincelles, les photons γ interagissent par effet de paire dans des plaques formées d’un matériau à Z élevé. Des nappes de fils alternativement chargées positivement et négativement sont insérées entre les plaques. L’électron et le positon créés ionisent un gaz (néon) et une étincelle éclate dans le gaz entre les électrodes formées par les nappes de fils. La trajectoire des particules est donc matérialisée et enregistrée, photographiquement ou à l’aide d’un tube vidicon (cf. § 7.4).
428
L’observation en astrophysique
Fig. 7.52 – À droite : le télescope du satellite cos-b, (1975-1982). On distingue les plaques de la chambre à étincelles, les scintillateurs (hachures) destinés à détecter le signal parasite de fond dû aux particules chargées et à l’éliminer au maximum par anticoïncidence, les scintillateurs B1, C, B2 (grisé) qui déclenchent la chambre, et le calorimètre E qui mesure l’énergie des particules. PMT désigne les tubes de photomultiplicateurs. À gauche : aspect d’un événement (formation de paires) dans la chambre à étincelles. (D’après Paul J., 1979, Comm. Pers. Voir aussi Bignami et al., Sp. Sci. Instrum. 1, 245, 1975. Avec l’aimable l’autorisation de D. Reidel Publishing Company.) Ensemble de grilles de silicium On utilise également ici des plaques (convertisseurs) assurant la création des paires, mais le gaz et les fils sont remplacés par des grilles de détecteurs silicium. L’électron ou le positon ionise le silicium se trouvant le long de sa trajectoire. Les électrons et les trous créés migrent alors sous l’effet du champ électrique vers les électrodes et induisent une impulsion de courant aux bornes de ces électrodes. On peut reconstituer la trace de la paire en analysant les signaux en coïncidence dans toutes les grilles. 29 ˇ « Télescope » Cerenkov atmosphérique
Un photon de 1 TeV pénétrant dans l’atmosphère interagit avec celle-ci à une dizaine de kilomètres d’altitude en créant une paire électron-positon. L’électron génère rapidement des photons γ de haute énergie par diffusion Compton inverse tandis que le positon s’annihile en émettant deux photons γ de haute énergie. Ces photons γ vont à leur tour créer des paires e+ e− et le processus se répète, engendrant toute une gerbe atmosphérique. Les électrons de la gerbe sont relativistes, se déplaçant à une vitesse v proche de celle de 29 Pavel Čerenkov, physicien russe (1904-1990), prix Nobel de physique, a expliqué en 1937 l’origine du rayonnement lumineux émis par un liquide irradié par une source radioactive, effet qui porte son nom.
7. Les récepteurs du rayonnement
429
la lumière dans le vide, plus élevée que celle de la lumière dans l’atmosphère (c/n, où n est l’indice de réfraction de l’atmosphère). Il en résulte une émission ˇ Cerenkov très brève – quelques nanosecondes – et de couleur bleue, émise le long de cônes dont les axes sont proches de la direction du photon γ à l’origine de la gerbe et dont l’angle d’ouverture θ est d’autant plus grand que la vitesse v des électrons est élevée : cos θ = c/(vn). Vers 1 000 m d’altitude, ˇ une gerbe électromagnétique n’est plus constituée que de photons Cerenkov et son extension est de l’ordre du kilomètre. ˇ Il existe deux techniques de mesure des gerbes Cerenkov atmosphériques. Dans la technique dite d’imagerie, la plus populaire – utilisée entre autres par l’expérience hess (High Energy Stereoscopic System, installée en 2004 en ˇ Namibie30 (Fig. 7.53, cahier couleur) –, chacun des cônes Cerenkov, réfléchi par un miroir parabolique, forme une ellipse dans le plan focal du miroir. La dispersion en direction et en vitesse des électrons se traduit par des ellipses de centres et de dimensions différents, formant une tache quasi elliptique et relativement uniforme. Cette caractéristique permet de distinguer les gerbes électromagnétiques des gerbes hadroniques qui produisent des taches beaucoup plus irrégulières. L’orientation de l’ellipse est liée à la direction du photon γ ˇ initial. La mesure de la distribution angulaire de la lumière Cerenkov permet, d’une part de rejeter 99 % des protons du rayonnement cosmique, et d’autre part d’atteindre des résolutions angulaires du dixième de degré. Le seuil de détection de cette technique est de l’ordre de quelques centaines de GeV. La seconde technique, dite d’échantillonnage, consiste à mesurer le plus précisément possible la forme du front d’onde de lumière bleue reçue, grâce à un échantillonnage spatial fin et des mesures temporelles précises. Ce front d’onde est quasiment sphérique pour une gerbe électromagnétique et plus étalé pour une gerbe hadronique. Cette technique, qui requiert un réseau de réflecteurs optiques de grande surface, s’est développée en réutilisant d’anciennes installations de production d’électricité solaire. C’est le cas notamment de l’expérience celeste, développée depuis l’an 2000 sur le site de la centrale Thémis dans les Pyrénées françaises. Les échantillonneurs actuels sont moins sensibles que les imageurs mais offrent un seuil de détection en énergie près de dix fois plus faible. Quelle que soit la technique utilisée, la brièveté et ˇ la couleur de l’émission Cerenkov imposent le choix de photomultiplicateurs (cf. § 7.4.3) comme élément détecteur de celle-ci. Entre 1996 et 2007, on a assisté à des progrès décisifs dans cette méthode. D’une part, la technique d’imagerie – développée aux États-Unis pour l’instrument Whipple dans les années 1980 – s’impose comme la plus performante. D’autre part, de nouveaux instruments améliorent cette technique. L’expérience française cat – installée en 1996 sur le site de Thémis en France – met en œuvre une caméra haute résolution à 600 pixels qui permet une analyse fine des images Čerenkov et donc une séparation plus efficace entre photons γ 30 Voir
la description de ce projet sur www-dapnia.cea.fr/Sap/.
430
L’observation en astrophysique
et hadrons. À la même époque, l’expérience allemande hegra31 (High Energy Gamma Ray Astronomy), installée aux Canaries, a développé une technique innovante de stéréoscopie, qui consiste à observer simultanément une même gerbe atmosphérique avec quatre télescopes. Cette technique robuste permet d’atteindre des résolutions angulaires de l’ordre d’un dixième de degré et de réduire encore le bruit de fond hadronique. En 2004, une nouvelle génération de détecteurs voit le jour avec la mise en service de l’expérience franco-allemande hess32 (High Energy Stereoscopic System). Cette expérience associe les techniques utilisées avec succès dans cat et hegra, à savoir l’imagerie Čerenkov à haute résolution et la stéréoscopie. L’instrument hess est formé de 4 grands miroirs, de 100 m2 chacun, placés aux coins d’un carré de 120 m de côté. La longueur focale des miroirs est de 15 m. Au foyer de chacun des miroirs est installée une caméra formée de 960 petits tubes photomultiplicateurs qui, par leur rapidité de réponse, leur bonne sensibilité dans le bleu et leur faible bruit, sont particulièrement bien adaptés à la détection du flash de lumière Čerenkov. La sensibilité atteinte au-delà de 1 TeV est de 10−13 cm−2 s−1 . Le gain en sensibilité par rapport aux expériences précédentes est tel (un ordre de grandeur) qu’entre 2004 et 2006, une trentaine de nouvelles sources de rayonnement γ de très haute énergie ont été découvertes, principalement dans le plan galactique. L’implantation de l’expérience en Namibie donne accès au ciel austral, donc à la région centrale de notre Galaxie, région qui abrite un grand nombre de sources γ. Le champ de vue de 5 degrés et la résolution de l’ordre de 10 minutes d’angle (fwhm) permettent pour la première fois de résoudre les sources étendues, en particulier d’étudier la morphologie des restes de supernovae.
7.6.2
L’analyse spectrale des sources γ
La résolution spatiale et l’efficacité de détection sont clairement les critères de qualité d’un détecteur formant des images (dit imageur ), mais ceux concernant un spectromètre sont plus subtils. En effet, si la résolution spectrale est un critère évident, en revanche l’efficacité totale n’est pas en soi un bon critère dans le domaine γ, car une diffusion Compton, dans laquelle le photon diffusé s’échappe, ne permet pas de déterminer l’énergie du photon incident. En fait, c’est l’efficacité dans le pic d’absorption totale qu’il est nécessaire de considérer. Celle-ci est d’autant plus élevée que le détecteur possède un nombre de charge Z élevé et qu’il est massif (densité × volume). La résolution spatiale d’un détecteur γ dépend de l’énergie puisqu’elle est limitée par les diffusions Compton. Elle sera d’autant meilleure que ces diffusions seront minimes, c’està-dire dans le cas d’un matériau à Z élevé et à forte densité. Un nombre Z et une densité élevés sont donc des critères utilisables pour sélectionner des 31 Voir
www.mpi-hd.mpg.de/hfm/CT/CT.html. note que cet acronyme évoque aussi le nom du physicien autrichien Viktor Hess (1883-1924), prix Nobel de physique 1936, qui découvrit en 1912 le rayonnement cosmique. 32 On
7. Les récepteurs du rayonnement
431
matériaux, tant pour un imageur que pour un spectromètre. En revanche, un grand volume est favorable à la spectrométrie mais défavorable pour un imageur segmenté, imageur où chaque pixel est un détecteur indépendant. Ces simples remarques permettent de classer les matériaux (Tab. 7.14). Il n’aurait pas été illogique de placer ce qui suit dans des sections précédentes, en particulier celle traitant des principes physiques de la détection (cf. § 7.3). Le choix fait, avec sa part d’arbitraire, démontre une fois encore combien les frontières entre longueurs d’onde, effets physiques utilisés et techniques de réalisation des détecteurs sont floues et surtout mouvantes, au gré des progrès de la physique et de la technologie. Tab. 7.14 – Matériaux détecteurs du rayonnement γ. Matériau
Nature
Z
Densité
Volume
(cm3 )
(g cm−3 )
min
max 4
Résolution spectrale à 122 keV
à 511 keV 0.09
NaI(T1)
Scintillateur
23-53
3.7
1
10
0.12
CsI(T1)
Scintillateur
50-53
4.5
1
104
0.16
0.12
Ge
Semi-cond.
32
5.3
1
102
0.015
0.004
CdTe
Semi-cond.
48-52
6.1
10−3
1
0.016
0.010
HgI2
Semi-cond.
53-80
6.4
10−3
10−1
0.1
0.04
Scintillateurs (100 keV à 10 MeV) L’absorption photoélectrique, ou la diffusion Compton des photons X ou γ sur les électrons d’un solide, communique à ces derniers une fraction importante de l’énergie des photons incidents. Cette énergie des électrons est progressivement transférée aux atomes du solide, soit par excitations électroniques ou moléculaires d’états liés, soit par excitation de vibrations acoustiques du réseau cristallin (phonons). Ces états excités se désexcitent de façon radiative, émettant en particulier des photons dans le visible et le proche ultraviolet. Si le matériau est transparent à ces longueurs d’onde, il suffit de mesurer l’intensité de la scintillation observée, pour en déduire la perte d’énergie du photon incident et donc, dans certaines limites, son énergie. Un photomultiplicateur est utilisé, qui cumule un bruit propre très faible ou nul, une bonne sensibilité spectrale dans le domaine de désexcitation (le bleu) et une réponse impulsionnelle très brève, qui permet une excellente discrimination en temps (≈10−3 s, exercice 7.7). On distingue les scintillateurs inorganiques et les scintillateurs organiques. Dans les premiers, le matériau est un halogénure alcalin (NaI, CsI) dopé d’impuretés (du thallium par exemple) produisant des centres intersticiels dans le réseau cristallin, centres faciles à ioniser et dont la recombinaison est luminescente. Le rendement de conversion dépend de la température : environ 20 % de l’énergie du photon X ou γ incident est converti en photons visibles : un photon de 100 keV produit typiquement 4 000 photons autour de 420 nm.
432
L’observation en astrophysique
Principalement pour répondre aux besoins de la médecine nucléaire, de nombreux scintillateurs ont été développés à la suite du NaI:Tl, qui est apparu dès 1948. Le tableau 7.15 donne les caractéristiques des scintillateurs les plus couramment utilisés. Les scintillateurs n’ont pas de directivité géométrique propre : ils doivent être combinés à une optique (X) ou à des collimateurs ou masque (γ) pour qu’on puisse former et détecter une image (cf. Chap. 5). Tab. 7.15 – Caractéristiques des scintillateurs. Cristaux
NaI (Tl)
CsI (Tl)
BGO*
GSO*
LSO*
YAP*
Densité Z effectif Longueur d’atténuation à 500 keV (mm) Nombre de photons de scintillation pour 100 keV Temps de réponse (μs) Hygroscopique Indice de réfraction
3.67 51 29.1
4.5 54 22
7.1 75 10.4
6.7 59 14.1
7.4 66 11.4
5.5 33.5 21.3
4 100
1 800
900
800
3 000
1 700
0.23 oui 1.85
1 ≈ non 1.79
0.3 non 2.15
0.06 non 1.85
0.04 non 1.82
0.03 non 1.95
*Composés : BGO : Bi4 Ge3 O1 2 ; GSO : Gd2 SiO5 ; LSO : Lu2 SiO5 ; YAP : YAlO3 .
Anticoïncidence. On peut limiter l’effet des particules chargées, tout au moins leur effet direct et l’émission de désexcitation prompte, en équipant les télescopes γ de systèmes d’anticoïncidence. Il s’agit d’un détecteur entourant le détecteur principal ; son déclenchement génère un signal dit de veto, empêchant le déclenchement du détecteur principal pendant un court instant – d’une durée supérieure aux temps de réponse du détecteur principal et du détecteur d’anticoïncidence. Utilisé pour limiter le champ de vue d’une expérience, il présente, par rapport au collimateur, l’avantage d’éliminer sa propre émission de désexcitation prompte. De plus, il peut améliorer la réponse spectrale des spectromètres en éliminant une fraction importante des diffusions Compton ayant eu lieu dans le détecteur principal. Cependant, ce système ne présente pas que des avantages. D’une part, il augmente la production de neutrons et la contribution due à la désexcitation différée, et d’autre part il augmente le temps mort de l’observation. L’anticoïncidence est probablement la partie la plus délicate de la conception d’une expérience d’astronomie γ, car elle est essentielle mais très complexe. La conception d’un tel système fait appel à des simulations Monte-Carlo et à des mesures auprès d’accélérateurs de protons. À cause de leur rapidité de réponse et de leur mise en œuvre aisée, les scintillateurs sont le plus souvent choisis pour réaliser les détecteurs d’anticoïncidence. Ceux qui sont destinés à rejeter les particules chargées utilisent un scintillateur en plastique. Ceux qui
7. Les récepteurs du rayonnement
433
doivent aussi assurer l’arrêt de photons γ en dehors de l’axe du télescope font appel à des scintillateurs lourds (CsI, bgo), qui offrent une efficacité de détection des photons atteignant 100 % jusqu’à des énergies de plusieurs centaines de keV. Détecteur phoswich. Un détecteur phoswich est un détecteur constitué d’un sandwich de deux scintillateurs. Ces scintillateurs sont choisis afin que leurs temps de réponse soient très différents (cf. Tab. 7.15). La lumière émise par les deux détecteurs est collectée par un photomultiplicateur ou une photodiode. Une sélection basée sur la forme du signal psd (Pulse Shape Discrimination ou discrimination de forme d’impulsion) est alors effectuée. Cette sélection permet de distinguer des événements ayant interagi dans les deux scintillateurs – particules chargées ou interactions Compton – et ceux ayant interagi seulement dans l’un d’eux. Le détecteur phoswich est équivalent à un ensemble détecteur-anticoïncidence. L’électronique associée est plus compliquée mais permet la suppression du système de lecture du scintillateur supérieur. Cette réduction sensible de la masse se trouvant à l’intérieur de l’anticoïncidence se traduit par une réduction importante du bruit de fond du détecteur qui, dans le domaine γ, est dominé par la désexcitation de la matière environnante. On utilise souvent des sandwichs NaI-CsI qui permettent de bonnes performances spectrales et une sélection efficace des événements. Détecteurs à semi-conducteur (10 keV-10 MeV) Dans ce domaine d’énergie, les détecteurs à semi-conducteur ne sont pas employés en photoconduction (mesure d’un courant continu comme en 7.4), mais en tant que spectromètres, c’est-à-dire en mesurant le dépôt d’énergie induit par les interactions des photons avec la matière (cf. § 7.3.1). Les électrons produits lors de l’interaction ont, en général, une énergie très supérieure à celle des niveaux d’énergie des atomes du détecteur. En se propageant, ils perdent très vite leur énergie en ionisant les atomes se trouvant sur leur parcours, créant ainsi des paires électron-trou ou porteurs de charge, qui se propagent à leur tour en suivant les lignes du champ électrique. Cette migration sous l’effet du champ électrique, jusqu’aux électrodes collectrices (Fig. 7.54), constitue le courant chargeant le condensateur. Le signal collecté Q (une charge) est alors le produit de la charge élémentaire par la somme, faite sur les électrons et les trous, de leurs parcours élémentaires relatifs à la distance interélectrodes xi /d (théorème de Ramo) : Q=
e xi . d
Pertes de charge. En général, cette migration ne se fait pas sans perte, les électrons et les trous ayant chacun une probabilité de capture par unité de temps qu’on caractérise par leur temps de vie moyen (τe , τt ). Si le temps de transit d’un type de porteurs de charge n’est pas négligeable devant le temps
434
L’observation en astrophysique
Fig. 7.54 – Diode p − i − n. Le matériau de départ est du silicium (ou germanium) dopé p. Un dopage supplémentaire au lithium compense le dopage p dans le volume, rendant le silicium intrinsèque par compensation. La couche superficielle présente un excès de lithium (n). La paire créée par le photon dérive dans le champ électrique appliqué.
de vie de ces porteurs, une partie du signal sera perdue, ce qu’on appelle une perte de charge. Le temps de transit des porteurs dépend de leur distance à l’électrode collectrice, du champ électrique appliqué E et de ce qu’on appelle leur mobilité, qui est une caractéristique du semi-conducteur (μe , μt ). Les pertes de charge dépendent donc des libres parcours moyens des porteurs λe = μe Ee τe et λt = μt Et τt . Pour n paires électrons-trous produites à la distance x de l’électrode négative, la charge collectée est donnée par l’équation de Hecht (cf. exercice 7.13) : ⎞ ⎤ ⎡ ⎛ ⎛ x⎞ (d − x) − ne ⎢ ⎜ ⎟ ⎥ Q= ⎣λe ⎝1 − e λe ⎠ + λt ⎝1 − e λt ⎠⎦ d Le nombre de paires électron-trou créées dans les semi-conducteurs est bien supérieur au nombre de photoélectrons créés dans les scintillateurs, c’est ce qui explique leur meilleure résolution spectrale (Fig. 7.55). On peut donc, en principe, minimiser la perte de charge d’un détecteur donné en augmentant le champ électrique, c’est-à-dire la tension aux bornes du détecteur. En pratique, une trop forte tension génère un bruit important qui dégrade la résolution du détecteur. Si toutes les interactions des photons se produisaient à la même distance d’une électrode collectrice, la perte serait toujours la même et, la perte de gain pouvant être corrigée, son seul effet serait une dégradation minime de la résolution spectrale. En fait, les interactions se produisent à diverses distances d’une électrode et on observe un ensemble continu de pertes. Ces pertes se traduisent par l’apparition d’un continuum dans le spectre d’amplitude des impulsions produites par une source radioactive (Fig. 7.56). Cette perte de charge agit donc comme une perte d’énergie analogue à celle observée lors d’une diffusion Compton. Cependant, lorsque la perte de charge est importante, cela signifie que les porteurs ont dû voyager plus
7. Les récepteurs du rayonnement
435
Fig. 7.55 – a) Résolution spectrale des détecteurs. (a) Scintillateur au NaI (dopé au thallium). b) Détecteur à semi-conducteur Ge-Li. Les ordonnées sont en unité de 5 × 10−4 coup s−1 . longtemps et, s’il est possible d’observer finement la forme de l’impulsion recueillie, on notera un temps de montée beaucoup plus long. Une mesure du temps de montée de l’impulsion peut donc permettre une correction de la perte de charge. Cette correction permet de rendre symétriques les raies observées (Fig. 7.56), mais la perte de charge se traduit toujours par l’élargissement des raies, c’est-à-dire une dégradation de la résolution.
Le tableau 7.16 donne une idée des semi-conducteurs sensibles à cet effet de perte de charge. Facteur de Fano. Si toute l’énergie déposée dans un semi-conducteur était convertie en paires électron-trou, le nombre produit de celles-ci ne dépendrait que de l’énergie totale déposée. À l’inverse, si l’énergie se distribuait de façon complètement décorrélée entre paires électron-trou et phonons, le nombre de paires électron-trou suivrait une statistique de Poisson et sa variance serait égale à la valeur moyenne. En fait, on observe que la variance de ce nombre est toujours inférieure à la valeur moyenne. Le rapport entre la variance et la valeur moyenne est appelé facteur de Fano. Ce facteur est de l’ordre de 0.1 pour la plupart des semi-conducteurs.
436
L’observation en astrophysique
Fig. 7.56 – Correction du phénomène de perte de charge dans le matériau CdTe. Le comptage par canal d’énergie est représenté en fonction de l’énergie, pour des sources radioactives de laboratoire (57 Co et 133 Ba). Ce spectre, obtenu en 1995, est amplifié au-delà de 160 keV. En pointillé : spectre d’amplitude des impulsions. En trait continu : spectre corrigé de la perte de charge. Tab. 7.16 – Caractéristiques des semi-conducteurs. Si (300 K)
Ge (77 K)
CdTe (300 K)
Hgl2 (300 K)
Largeur de bande interdite (eV)
1.12
0.74
1.45
2.1
Énergie de création de paire (eV)
3.61
2.96
4.43
4.22
μe (cm2 V−1 s−1 )
1 300
36 000
1 100
100
μt (cm2 V−1 s−1 )
500
42 000
80
4
τe (μs)
3 000
1 000
1
1
τt (μs)
3 000
1 000
1
1
Emax (V cm−1 )
1 000
100
1 000
10 000
Le germanium. Le germanium refroidi offre la meilleure résolution spectrale. Les pertes de charge sont très faibles mais peuvent néanmoins être corrigées pour améliorer encore la résolution. La possibilité d’obtenir des cristaux de grand volume en fait le meilleur choix possible pour un spectromètre de laboratoire. En revanche, pour un spectromètre spatial, le problème du refroidissement (à 77 K) limite considérablement ses possibilités d’emploi. De plus, il est relativement sensible à l’irradiation par des particules chargées, sa
7. Les récepteurs du rayonnement
437
résolution spectrale se dégradant au rythme de 50 % par an. Cependant, on a pu montrer à l’aide du spectromètre33 spi (Spectromètre integral), à bord de la mission de ce nom), qu’on peut effectuer périodiquement en orbite des recuits qui permettent de récupérer les performances spectrales. Ces recuits consistent à réchauffer à 300 K le détecteur pendant quelques jours, puis à le ramener à sa température d’utilisation (77 K). Cette procédure supprime en grande partie les pièges créés par le passage des protons. En ce qui concerne l’imagerie, des dépôts de bandes conductrices sur les faces opposées d’un cristal permettent de le diviser en plusieurs pixels offrant ainsi une résolution spatiale de l’ordre du centimètre – résolution limitée cependant à haute énergie par la diffusion Compton dans ce materiau dont le numéro atomique n’est pas très élevé (Z = 32). Le tellurure de cadmium (CdTe). Ce matériau présente d’importantes pertes de charge, dues essentiellement à la faible mobilité des trous. On peut corriger ces pertes en se basant sur la mesure du temps de montée des impulsions ou sur le rapport des signaux induits sur chaque électrode, mais ces mesures sont difficiles et peu précises. Il est plus efficace de segmenter l’anode en petits pixels de façon à ce que le signal induit par les trous soit négligeable et que celui induit par les électrons dépende peu de la profondeur d’interaction. Avec cette configuration et grâce aux progrès de la micro-électronique et de l’hybridation, ses performances spectrales (Fig. 7.57) approchent en 2007 celles du germanium avec l’avantage considérable de fonctionner à température ambiante (20 ◦ C). Néanmoins, ses performances sont sensiblement meilleures à plus basse température (entre −40 ◦ C et 0 ◦ C). Cependant, les détecteurs produits restent relativement petits et limitent le domaine d’emploi de ce semi-conducteur au-dessous du MeV. En orbite, l’irradiation due aux protons du rayonnement cosmique et des éruptions solaires dégrade légèrement les propriétés de transport des électrons. On a observé, sur la caméra isgri (integral Soft Gamma Ray Imager ) à bord de la mission européenne integral, une perte de gain de l’ordre de 3 % par an. Contrairement au germanium, il n’est donc pas nécessaire d’effectuer des recuits avec les détecteurs CdTe. La fabrication du CdTe a maintenant atteint un stade industriel, où il est le plus souvent obtenu par fusion de zone. Les cristaux obtenus par cette méthode présentent une résistivité limitée de l’ordre de 109 Ω-cm qui empêche l’application des tensions élevées requises pour minimiser la perte de charge, le courant de fuite, générateur de bruit, devenant trop important. Mais il existe, depuis le milieu des années 1990, une nouvelle méthode de croissance sous haute pression (100 atmosphères) incluant 20 % de zinc et permettant d’obtenir de plus gros cristaux, plus résistifs qui permettent l’emploi de champs plus élevés (jusqu’à 10 000 V cm−1 ). Les cristaux de CdTe produits par fusion de zone 33 Voir
la description de ce spectromètre à l’adresse sigma-2.cesr.fr/spi/index.php3.
438
L’observation en astrophysique
Fig. 7.57 – Spectre d’amplitude obtenu en 2007 en sommant la réponse des pixels d’une matrice Schottky CdTe de format 8 × 8, éclairée par une source radioactive (241 Am). La taille des pixels est de 1 mm2 . Le cristal est épais de 2 mm. La matrice est hybridée sur un substrat connecté aux composants de lecture asic (idef-x). (Crédit : O. Limousin, cea/dapnia/sap.)
peuvent être équipés d’une électrode en indium pour former une barrière Schottky (cf. § 7.5.2). Ces diodes présentent un courant de fuite extrêmement faible autorisant l’emploi de tensions très élevées. La perte de charge est alors minime (Fig. 7.57).
Dans le domaine de l’imagerie, la faible taille des détecteurs n’est pas un inconvénient significatif et le CdTe semble un bon choix pour la construction d’un imageur segmenté fonctionnant jusqu’à quelques centaines de keV. L’iodure mercurique (HgI2 ). Ce matériau présente grosso modo les mêmes avantages et inconvénients que le CdTe, mais il est plus difficile à fabriquer. Il est extrêmement résistant à l’irradiation. L’épaisseur des détecteurs actuels ne dépasse pas le millimètre, limitant son emploi à des énergies inférieures à 100 keV en dépit de son meilleur pouvoir d’arrêt intrinsèque, dû aux propriétés du mercure. De plus, le dépôt assez délicat des électrodes ne permet pas d’envisager (en 2007) une fabrication à l’échelle industrielle. En dépit de ces inconvénients, l’iodure mercurique a été utilisé en astronomie X. Des vols en ballon stratosphérique ont permis d’illustrer l’avantage d’un détecteur à Z élevé : à pouvoir d’arrêt égal, il est environ cinq fois moins bruyant qu’un détecteur au germanium ou à scintillation fonctionnant entre 40 et 80 keV.
7. Les récepteurs du rayonnement
7.7
439
Les systèmes d’observation des neutrinos34
Nous avons souligné au chapitre 1 la venue, relativement récente, des neutrinos dans la panoplie des porteurs d’information qu’exploite l’astrophysique aux côtés du rayonnement électromagnétique. Plus encore que pour le rayonnement γ, il n’est pas possible ici de séparer les fonctions de télescope de celles de spectromètre et de détecteur. C’est donc de l’ensemble de ces outils que traite cette section. Nous nous intéressons aux neutrinos dont l’énergie varie depuis quelques keV (neutrinos solaires) jusqu’aux neutrinos issus de supernovae ou de noyaux actifs de galaxie (TeV et au-delà).
7.7.1
La détection radiochimique des neutrinos solaires
Historiquement la première rencontre entre les neutrinos et l’astrophysique s’est produite quand John Bahcall35 prit contact avec Raymond Davis pour s’enquérir des moyens de détecter les neutrinos solaires. Le principe de base de ces techniques radiochimiques est ici la réaction dite β inverse, qui aboutit à la transmutation d’un noyau cible (A, Z) en un noyau généralement instable, (A, Z+1) : νe + A XZ → e− + A XZ+1 . Le grand avantage de ce principe de détection est sa quasi-insensibilité à des phénomènes parasites. Sur ce principe, plusieurs cibles ont été utilisées avec succès, comme le chlore et le gallium. Les conditions à réunir pour l’utilisation d’un noyau cible donné sont : (i)
un seuil de la réaction de transmutation compatible avec les neutrinos à détecter ; (ii) une probabilité suffisament grande d’induire cette réaction ; (iii) une abondance isotopique suffisante du noyau cible ; (iv) une signature exploitable du noyau produit. Détection utilisant le chlore Raymond Davis construisit dans le milieu des années 1960 la première expérience destinée à détecter les neutrinos solaires. Il utilisa la réaction βinverse proposée par Pontecorvo36 dès 1946 : νe + 37 Cl → e− + 37 Ar 34 Cette
section repose sur une précieuse contribution de Michel Cribier. Bahcall, (États-Unis, 1934-2005), astrophysicien à Princeton, un des défricheurs du problème des neutrinos solaires avec Raymond Davis, chimiste et physicien (1914-2006, États-Unis), prix Nobel de physique 2002. 36 Bruno Pontecorvo (1913-1993), physicien atomiste né en Italie, assistant d’Enrico Fermi à Chicago, puis émigré en Union soviétique en 1950. 35 John
440
L’observation en astrophysique
Cinq ou six fois par an, l’isotope 37 Ar est extrait par entraînement grâce à un flux d’hélium. Cet isotope radioactif de l’argon Ar se désintègre avec une demi-vie de 35 jours, en émettant un rayonnement caractéristique. La section efficace de la réaction de transmutation est très faible ; elle ne peut se produire que si le neutrino a une énergie supérieure à 814 keV. Davis avait disposé 615 tonnes de tétrachloréthylène C2 Cl4 au fond d’une mine d’or dans le Dakota du Sud, aux États-Unis. La théorie du Soleil prédit le nombre de neutrinos émis par unité de temps ; compte tenu de la masse du détecteur et de la section efficace de la réaction, un atome de 37 Ar aurait dû être produit chaque jour ; or l’expérience ne produisit qu’un atome tous les trois jours. Cette différence importante constitua la base de l’énigme des neutrinos solaires, résolue seulement en 2002 et attribué aujourd’hui à la propriété d’oscillation entre les différentes espèces de neutrinos. Raymond Davis reçut le prix Nobel de physique pour ce résultat en 2002. Détection utilisant le gallium L’idée d’utiliser une cible de gallium pour détecter les neutrinos solaires revient à Kuz’min qui, dès 1964, proposa d’utiliser la réaction de transmutation d’un isotope du gallium (71 Ga) en un isotope radioactif du germanium (71 Ge) : νe + 71 Ga → e− + 71 Ge. L’avantage sur l’expérience précédente utilisant le 37 Cl est le suivant : le Ga, grâce au seuil plus bas (233 keV), permet la détection des neutrinos dits primordiaux, émis par le Soleil. Le détecteur gallex (1991-1997), rebaptisé ensuite gno (Gallium Neutrino Observatory), a fonctionné dans le laboratoire souterrain du Gran Sasso, dans les Abruzzes (Italie) avec 30 tonnes de gallium. Un détecteur, sage (Russian American Gallium Experiment ), fonctionnant sur le même principe depuis les années 1990, est en opération au laboratoire de Baksan (Caucase russe). Le 71 Ge se désintègre avec une demi-vie de 11.4 jours. Après avoir exposé le gallium pendant plusieurs semaines aux neutrinos solaires, il faut récupérer les atomes de germanium qui ont été produits, puis observer leur désintégration. Compte tenu de la masse de gallium utilisée et de la prédiction théorique de production solaire, on s’attend à ce que les neutrinos solaires produisent un peu plus d’un atome de germanium par jour. Le gallium est sous la forme d’un composé liquide, le trichlorure de gallium en solution dans l’acide chlorhydrique, dans un grand réservoir cylindrique de 8 m de haut et 4 m de diamètre. Le germanium produit est sous la forme de tétrachlorure de germanium, extrêmement volatil en présence d’acide chlorhydrique. Toutes les trois ou quatre semaines, on fait circuler dans ce grand réservoir plusieurs milliers de mètres cubes d’azote pour entraîner le chlorure de germanium. Un piège, constitué par une colonne de verre contenant de 71
7. Les récepteurs du rayonnement
441
petits torons de verre, est placé à la sortie du réservoir pour capturer le tétrachlorure de germanium ; de l’eau pure y circule de haut en bas alors que le courant gazeux y circule de bas en haut. L’eau pure met en solution le tétrachlorure de germanium et laisse l’azote s’échapper. L’étape suivante consiste à faire passer le germanium à l’état d’hydrure GeH4 . Ce gaz, très semblable au méthane, est placé dans un petit compteur proportionnel. Pour ne pas masquer le signal ténu du 71 Ge sous un signal dû aux désintégrations du tritium, cette réaction chimique s’effectue avec de l’eau, prélevée à 3 000 m de profondeur dans le désert du Neguev, dans laquelle les atomes de tritium sont inexistants. Dans le compteur, on observe la désintégration par capture électronique du germanium qui donne un signal électrique bien caractéristique. Chaque compteur est laissé plusieurs mois dans son blindage de plomb (datant de l’Antiquité romaine), lui-même placé dans une cage de Faraday où les rayonnements parasites sont réduits au minimum. Ces compteurs sont en quartz, taillés et travaillés à la main, et sélectionnés pour avoir le moins de bruit parasite possible. Détection utilisant l’eau lourde L’expérience sno (Sudbury Neutrino Observatory) est un détecteur fonctionnant en temps réel, composé de 1 000 tonnes d’eau lourde (D2 O) placée dans une mine de nickel au Canada, en activité à environ 2 000 m sous terre. La détection des neutrinos électroniques utilise les réactions suivantes : νe +2 H → e− + p + p, νe + e− → νe + e− . Dans la première réaction, l’énergie de l’électron fournit une détermination directe de l’énergie du neutrino, mais avec des informations plutôt limitées sur la direction du neutrino incident. Dans la seconde qui est une diffusion élastique, l’information est limitée sur l’énergie du neutrino, mais on recueille des informations sur la direction du neutrino incident. Mais surtout l’instrument sno peut, pour la première fois, explicitement mesurer le flux des autres saveurs de neutrino, par l’intermédiaire de la désintégration du deutéron induite par un neutrino, laquelle produit un neutron et un proton : νx + 2 H → νx + p + n ;
x = e, μ, τ .
Grâce à cette complémentarité des réactions, l’expérience sno a grandement contribué à résoudre l’énigme des neutrinos solaires, démontrant que tous les neutrinos en provenance du Soleil, qui semblaient manquer, s’étaient transformés pendant leur trajet en neutrinos d’une autre espèce (saveur) par le phénomène d’oscillation. Le détecteur est constitué d’une sphère en matériau acrylique de 12 m de diamètre contenant 1 000 tonnes d’eau lourde ultra pure, elle-même immergée dans un réservoir – 22 m de diamètre, 34 m de hauteur – d’eau ordinaire très
442
L’observation en astrophysique
pure, le tout scruté par 9 600 photomultiplicateurs. Les exigences de pureté radioactive sont considérables. La détection des neutrons, signant la troisième réaction, a nécessité de dissoudre deux tonnes de chlorure de sodium hautement purifié, tout en conservant la pureté. Il faut aussi être capable de retirer en quelques jours tout le sel dissous pour restaurer la pureté initiale de l’eau lourde, de façon à pouvoir entreprendre une autre méthode de détection des neutrons à l’aide de compteurs proportionnels à 3 He plongés dans l’eau. Avenir de la détection utilisant l’indium L’indium a été proposé comme cible pour les neutrinos par le physicien Raju Raghavan en 1968. La réaction β-inverse utilisée aboutit à un état excité du noyau final, d’une vie moyenne de 4.7 μs, se désexcitant avec émission de deux photons : νe + 115 In → e− +115 Sn∗∗ , suivie de : 115
Sn∗∗ →
115
Sn + γ1 (116 keV) + γ2 (496 keV).
L’intérêt ici est d’avoir une détection directe, dont le seuil à 117 keV permet d’accéder aux neutrinos primordiaux, de mesurer leurs énergies individuellement par la mesure de l’énergie de l’électron final et enfin d’espérer une grande discrimination grâce aux différentes coïncidences spatiales (e− , γ1 ), temporelles (γ1 ,γ2 ) et aux énergies caractéristiques des photons. De nombreux groupes expérimentaux ont tenté de concrétiser cette attirante idée, sans succès à ce jour (2007). Le projet lens37 (Low Energy Neutrino Spectrometer ) est l’avatar le plus récent de ces tentatives. Plusieurs cibles sensibles aux neutrinos solaires (Yb, Gd, In) fonctionnant sur le même principes ont été étudiées. La quantité totale de ces métaux pour obtenir un taux d’interaction d’un par jour doit approcher au minimum 5 à 10 tonnes. En dépit de l’ingéniosité des expérimentateurs, le problème commun de ces détecteurs reste le manque de sélectivité du rayonnement final, ce qui ne permet pas de combattre avec assez d’efficacité les bruits de fond intrinsèques (radioactivité naturelle de l’indium) ou externes. En 2007, cette voie est quasiment abandonnée, d’autant plus que les motivations initiales pour percer les mystères des neutrinos solaires sont tombées.
7.7.2
La détection par rayonnement Čerenkov
Pour détecter les particules qui résultent des interactions de neutrinos incidents, le détecteur Super-Kamiokande, et les détecteurs de même type, 37 Voir
www.mpi-hd.mpg.de/nubis/lens.html.
7. Les récepteurs du rayonnement
443
utilisent le rayonnement Čerenkov, déjà rencontré ci-dessus à propos de la détection par l’atmosphère terrestre. Les particules chargées – et seulement les particules chargées – traversant l’eau avec une vitesse 75 % plus grande que de la vitesse de la lumière dans l’eau, rayonnent une lumière dans une configuration conique autour de la direction de la trajectoire. Cette lumière Čerenkov, bleue, traverse sans absorption l’eau pure du réservoir, et est détectée sur son mur intérieur, tapissé de tubes de photomultiplicateurs, fonctionnant en mode comptage. Chaque photomultiplicateur mesure la quantité totale de lumière l’atteignant, ainsi que l’instant d’arrivée des photons. Ces mesures servent à reconstruire la trajectoire et l’énergie des particules traversant l’eau. Le cône de lumière Čerenkov dessine un anneau plus ou moins régulier sur les parois ; si cet anneau est bien dessiné, la particule est un muon, mais si ces bords sont brouillés, la particule est un électron dont la diffusion multiple modifie la direction. Cette dernière caractéristique permet de distinguer à coup sûr entre les interactions de muon-neutrino et celles d’électron-neutrino. Cette technique est utilisée avec succès pour des neutrinos de quelques MeV (SuperKamiokande) mais aussi pour des neutrinos d’énergie extrême (amanda, antares. . . ) Depuis 1987, Kamiokande, et depuis mai 1996, SuperKamiokande, développés par Masatoshi Koshiba38 , mesurent la partie supérieure du spectre des neutrinos solaires avec un détecteur Čerenkov à eau. L’expérience de SuperKamiokande se compose de 50 000 m3 d’eau pure, vus par 11 000 tubes de photomultiplicateurs (PMT). Les neutrinos diffusent sur les électrons de la cible (νe + e− → νe + e− ) et leur transmettent une grande partie de leur énergie. La lumière de rayonnement Čerenkov, produit par l’électron diffusé, fournit des informations sur l’énergie et la direction du neutrino incident. Le taux de production de photons dus aux neutrinos solaires est environ 10 par jour. Le seuil en énergie de SuperKamiokande se situe vers 5.5 MeV : en dessous de ce seuil, la quantité de lumière Čerenkov est trop faible pour dépasser le signal de fond, produit par des phénomènes parasites. SuperKamiokande peut mesurer l’énergie des neutrinos aussi bien que la direction de leur arrivée. Ces détecteurs ont confirmé l’origine solaire des neutrinos observés, et ont par ailleurs permis la détection des neutrinos produits par la supernova 1987a.
Les neutrinos de la supernova SN 1987A C’est aussi dans ce type de détecteurs « Čerenkov à eau » – Kamiokande et imb aux États Unis – que les neutrinos de la supernova 1987a ont été enregistrés, par ce même principe d’émission Čerenkov, le 23 février 1987. La difficulté expérimentale est moindre que pour la détection des neutrinos 38 Masatoshi Koshiba, physicien japonais né en 1926, prix Nobel de physique 2002 pour sa contribution à la démonstration des oscillations de neutrinos.
444
L’observation en astrophysique
solaires du fait de l’énergie en moyenne plus élévée (≈ 20 MeV) et de la fenêtre en temps très courte (≈ 50 ns) où les 13 événements décelés se sont concentrés.
7.7.3
L’astronomie des neutrinos de haute énergie
Depuis la décennie 1990, des détecteurs gigantesques se construisent pour réaliser des télescopes à neutrinos d’énergie atteignant plusieurs TeV. En effet des rayons γ très énergiques (≥ 1012 eV) ont été détectés en provenance de noyaux actifs de galaxies ou de la nébuleuse du Crabe. Les mécanismes de fonctionnement de ces sources compactes produisent simultanément des neutrinos qui peuvent s’échapper et traverser les espaces intergalactiques sans dévier de leur trajectoire initiale. La détection de ces neutrinos si énergétiques, mais si rares, utilise la Terre, à la fois comme filtre des rayonnements parasites et comme cible pour convertir les neutrinos en un muon voyageant dans la même direction que son progéniteur. Ce muon, parcourant des centaines de mètres, émet dans l’eau, par effet Čerenkov, un rayonnement électromagnétique, pouvant être mesuré par des récepteurs optiques. Plusieurs expériences enfouissent sous l’eau des centaines de ces détecteurs de lumière : amanda39 sous les glaces antarctiques, sensible donc à des sources dans l’hémisphère Nord, et antares40 à 2 500 m sous la mer, au large de Toulon (France) forment un couple complémentaire, pouvant ainsi observer tout le ciel, et notamment le centre de la Galaxie par antares. À terme, c’est un cube de près d’un kilomètre de côté qui constituera le télescope à neutrinos de l’avenir, dont ces projets ne sont que des prototypes. Une profondeur de 2 500 m est suffisante pour réduire le flux de muons atmosphériques descendants, issus de l’interaction du rayonnement cosmique avec l’atmosphère terrestre, muons qui pourraient être reconstruits à tort comme montants. Les photons de la lumière Čerenkov, émis par le muon montant des profondeurs de la Terre, sont détectés par un réseau tridimensionnel de photodétecteurs. Le signal résultant est numérisé in situ puis envoyé par un câble électro-optique reliant l’ensemble des détecteurs à la côte.
Dans l’hémisphère Sud Amanda. L’expérience amanda (Antartic Muon And Neutrino Detector Array) est située au pôle Sud. Le milieu de détection est la calotte glaciaire de l’Antarctique, d’une épaisseur de 3 km. Les lignes sont déployées en y creusant un puit vertical avec un jet d’eau chaude. Après que la glace se soit reformée, ces lignes sont figées à leur position. Le détecteur, dans sa 39 Le projet amanda est international : États-Unis, Allemagne, Suise, Belgique, Venezuela et est décrit à l’adresse amanda.uci.edu/. 40 Projet français, voir antares.in2p3.fr/.
7. Les récepteurs du rayonnement
445
configuration finale, est composé des 19 lignes s’étendant entre 1 200 m et 2 500 m de profondeur, soit 676 modules optiques. Son déploiement a été achevé en février 2000. La figure 7.58 (cahier couleur) montre un dispositif semblable formant le détecteur antares. En 2007, les résultats publiés par amanda établissent la limite la plus restrictive sur le flux de neutrinos de haute énergie. Mais la recherche de sources ponctuelles reste difficile en raison du petit nombre d’événements attendus et d’une résolution angulaire modeste de 3 degrés, comme illustré par la figure 7.59. Celle-ci montre qu’en 2007, l’astronomie des neutrinos devient une réalité.
Fig. 7.59 – Carte du ciel (hémisphère Nord), où sont reportés les résultats d’observations, faites par amanda depuis l’année 2000. L’échelle en grisé (bas de la figure, en unité de 10−8 cm−2 s−1 ) donne les limites supérieures du flux de neutrinos de haute énergie au-dessus de 10 GeV, avec un spectre supposé en E −2 , mesuré à partir d’événements muoniques pendant un total de 607 journées. Aucune corrélation n’a pu encore être observée avec les sources potentielles de neutrinos de haute énergie (quasars, supernovae...). (L’autorisation de reproduire cette carte a été aimablement donnée par la collaboration IceCube.)
Icecube. La collaboration amanda a débuté la construction du détecteur de taille kilométrique appelé Icecube. Le détecteur sera composé de 80 lignes de 60 modules optiques chacune, pour un total de 4 800 photomultiplicateurs. Les lignes seront espacées de 125 m et installées entre 1 500 m et 2 500 m de profondeur. La résolution angulaire attendue sera d’environ 0.7 degrés, malgré les défauts intrinsèques de la glace. Ceci permettra, par rapport aux performances d’amanda, de diminuer par un facteur quinze le bruit de fond engendré par les neutrinos atmosphériques, facilitant ainsi la recherche de sources ponctuelles. L’agenda prévoit le déploiement de 16 lignes par été austral, ce qui permet d’obtenir le détecteur au bout de cinq années à partir de 2005, où fut mise en place la première ligne. Lors de l’été austral 2005-2006, 8 lignes supplémentaires ont été installées. Dans l’hémisphère Nord Baïkal. Situé dans le lac Baïkal en Sibérie, ce télescope à neutrinos a été le premier à fonctionner. Les opérations de déploiement et de maintien des
446
L’observation en astrophysique
lignes se font l’hiver pour profiter de la couche de glace du lac. Après plusieurs étapes de recherche et de développement (depuis 1980) puis de construction (depuis 1990), le télescope Baïkal est en fonctionnement avec 192 photomultiplicateurs répartis sur 8 lignes. Les projets d’extension prévoient d’accroître considérablement son volume effectif de détection en ajoutant quelques lignes de granularité réduite mais permettant de détecter les gerbes issues des interactions sous le détecteur principal. Nemo. La collaboration nemo, créée en 2000, projette la construction d’un télescope de taille kilométrique dans la Méditerranée. Le site de déploiement se situe à environ 70 km au sud-est de Capo Passero (Sicile) à 3 350 m de fond. Une géométrie de détecteur a également été proposée ; les photomultiplicateurs sont fixés sur des bras rigides, reliés par des câbles pour former des tours de 750 m. Chaque bras porte quatre modules optiques, deux dirigés vers le haut et deux vers le bas. Le détecteur comportera à terme 64 tours de ce type, espacées de 200 m, soit au total 4 096 photomultiplicateurs. Les simulations des performances du détecteur indiquent que la résolution angulaire pourrait être meilleure que 0.3 degrés. Nestor. Le projet nestor prévoit de déployer un télescope à neutrinos kilométrique au large de la baie de Navarino, près de Pylos en Grèce. Le site sélectionné est situé a une profondeur d’environ 4 000 m. En 2007, le dessin du détecteur prévoit six tours de 12 étages espacées de 30 m en étoile (de rayon 16 m) portant chacune 12 photomultiplicateurs orientés vers le haut et le bas. En 2002, le câble principal de 28 km entre le site en mer et la station à terre a été posé. En mars 2003, un étage-étoile a été déployé et connecté à l’aide d’une boîte de jonction. Cette étoile comportait 12 photomultiplicateurs de 38 cm aux extrémités des bras de l’étoile. Km3Net. Les trois projets pilotes précédents (antares, nestor et nemo), développés en Méditerranée, comportent des équipements qui ne représentent que quelques pour-cents seulement de l’infrastructure dont il serait souhaitable de disposer pour l’observation astronomique des neutrinos de haute énergie. Les trois acteurs de ces projets unissent leurs efforts pour construire en Méditerranée un nouveau détecteur, d’un kilomètre cube de volume, d’où le nom de km3net. Celui-ci serait sensible dans une gamme d’énergie allant de quelques centaines de GeV à 10 TeV, et pourrait détecter toutes les saveurs de neutrinos.
7.8
La détection des ondes gravitationnelles41
Les ondes gravitationnelles ont été brièvement présentées au chapitre 1, en tant que l’un des porteurs de l’information astronomique. Nous y avons, en particulier, défini la grandeur sans dimension h = δL/L, qui permet de 41 Cette
section a bénéficié d’une précieuse contribution de Philippe Laurent.
7. Les récepteurs du rayonnement
447
caractériser l’amplitude d’une onde gravitationnelle et d’évaluer les performances des détecteurs. Sa détection repose sur la mesure du déplacement relatif de deux masses libres – c’est-à-dire telles que l’on puisse négliger, dans la bande de fréquences temporelles considérée, les forces non gravitationnelles. La sensibilité maximale est atteinte lorsque les masses sont distantes d’une demi-longueur d’onde et cette propriété fixe l’échelle optimale, mais non nécessairement atteinte ou possible, de la détection : des bases de l’ordre du million de kilomètres pour les ondes de basse fréquence (≤1 Hz) et de l’ordre de la centaine de kilomètres pour les fréquences plus élevées (≈ 10 kHz). La dénomination hésite encore pour de tels instruments : les termes de télescope pour ondes gravitationnelles, d’antenne gravitationnelle ou de détecteur d’onde gravitationnelle sont également employés. Détecteurs à résonance mécanique Ici, on cherche à mesurer la déformation d’un solide au passage de l’onde. Ainsi a procédé Weber dans la première tentative de détection (1969), avec une sensibilité déjà remarquable (h ∼ 3 × 10−16 ) mais trop faible par rapport aux signaux prévisibles : un cylindre métallique est isolé des perturbations sismiques terrestres par un filtre mécanique passe-haut. L’excitation de la résonance mécanique du cylindre produit une variation relative de longueur – celle-ci étant définie par la mesure elle-même comme une valeur moyenne, ce qui lisse les aspérités atomiques locales – mesurée par des capteurs piézoélectriques. Divers perfectionnements, comme celui de refroidir le cylindre à une température de quelques kelvins pour réduire l’effet parasite du mouvement brownien, ont conduit à une sensibilité de h = δx/x ≈ 10−18 (bruit rms) dans le domaine de fréquence du kHz, avec un cylindre d’aluminium de 4 800 kg42 . Ce type de détecteur, à bande spectrale intrinsèquement étroite, est ultimement limité par l’incertitude quantique (h ∼ 1.5 × 10−22 Hz−1/2 ), si toutefois il est possible de refroidir suffisamment l’antenne pour s’affranchir du bruit thermique. Détecteurs interférométriques Le but est de réaliser un détecteur, fonctionnant dans une large bande de fréquences et susceptible d’atteindre une sensibilité : h 3 × 10−23 Hz−1/2 . On montre43 qu’un interféromètre de Michelson, dont les bras auraient une longueur L > 1 km, illuminé par un laser continu de 10 W, atteindra effectivement cette sensibilité dans le domaine de fréquences comprises entre 50 Hz et quelques kHz (Fig. 7.60). 42 Boughin
S.P. et al., Ap. J., 261, L19, 1982. la très complète présentation de Vinet, J.-Y. « Optical detection of gravitational waves », Compt. R. Acad. Sc., 8, 69-84, 2007. 43 Voir
448
L’observation en astrophysique
Fig. 7.60 – Détecteur interférométrique d’ondes gravitationnelles. Le laser monofréquence stabilisé éclaire, par la séparatrice S, les deux bras de l’interféromètre disposés en multipassage pour augmenter la sensibilité (multipliée par n pour n passages). Le principe du recyclage de la lumière par les miroirs M5 et M6 consiste à régler l’interféromètre pour une interférence destructive sur le détecteur D, puis à régler la fréquence du laser ainsi que les miroirs M1 et M2 pour minimiser le signal sur le détecteur auxiliaire d. Les couples de miroirs M1 , M4 et M2 , M3 sont suspendus et isolés des vibrations sismiques de façon à former des masses libres. Le passage d’une éventuelle onde gravitationnelle, dont le plan d’onde coïnciderait avec celui des bras de l’interféromètre, produit une variation du flux lumineux reçu par D. (D’après Brillet A., projet virgo, comm. pers., 1985.)
La grande dimension des bras fait reculer la limite imposée par l’incertitude quantique. Le bruit de photons, associé à un laser de longueur d’onde λ et de puissance P , conduit à une incertitude sur la différence de marche x : ; λ hν Δx = ≈ 10−16 m − Hz−1/2 avec P = 1 W, λ = 0.5 μm. π 2p La sensibilité recherchée imposerait P = 500 W, valeur absolument irréaliste. Il faut donc « recycler » la lumière, ce qui consiste à réinjecter dans l’interféromètre la lumière qui en sort, afin d’augmenter l’énergie stockée sans augmenter la longueur équivalente des bras. On peut ainsi espérer atteindre la sensibilité voulue (Fig. 7.61) à condition de réduire les fluctuations du laser en fréquence (Δν/ν < 10−17 Hz−1/2 ), en puissance (ΔP/P < 10−6 Hz−1/2 ) et en divergence (Δϕ < 10−7 rd). Au milieu des années 1990, deux interféromètres de ce type furent mis en construction : ligo aux États-Unis et virgo à Pise (Italie), avec des bases de l’ordre de 3 km. La figure 7.62 illustre les différentes sources de bruit qui interviennent dans la sensibilité ultime d’un interféromètre : bruit sismique, réduit par les suspensions antivibration des miroirs ; bruit thermique des suspensions, qui reflète à l’échelle macroscopique les fluctuations browniennes
7. Les récepteurs du rayonnement
449
Fig. 7.61 – Limite de sensibilité imposée par le bruit de photons, pour un interféromètre de longueur L, éclairé par un laser de puissance P = 10 W. Les facteurs de pertes optiques sont indiqués dans une gamme raisonnable compte tenu des technologies de surfaces optiques. La sensibilité souhaitée impose le recyclage et des pertes faibles. (D’après Brillet A., projet virgo, comm. pers., 1985.)
de la position de leur centre de gravité ; bruit thermique des miroirs, dont la surface présente également une incertitude de position due au mouvement thermique de ses atomes, malgré un certain refroidissement ; bruit de photons dû à la puissance finie du laser ; bruit de collision dû aux atomes résiduels dans l’enceinte sous vide contenant miroirs et faisceaux. Les instruments44 virgo et ligo sont des outils d’une extrême difficulté de réalisation, dont les résultats sont attendus dans la décennie 2000 et au-delà. La dimension de la Terre et sa séismicité propre imposeront des limites qui ne pourront être franchies qu’en plaçant les instruments dans l’espace. Il y est possible d’augmenter alors la longueur de base entre deux ou trois satellites distants de 106 km ou plus. Les ondes gravitationnelles basse fréquence deviendraient alors détectables (ν = 10−1 à 10−4 Hz) avec une sensibilité pouvant atteindre la valeur h ∼ 10−23 Hz−1/2 . La distance entre satellites est mesurable à l’aide de faisceaux lasers et la limite de détection est alors vraisemblablement imposée par les accélérations perturbatrices, dues à la pression de radiation des photons solaires, ainsi qu’à la pression dynamique des protons et électrons du vent solaire. lisa (Laser Interferometer Space Antenna), est un projet extraordinairement ambitieux, commun nasa/esa, d’observation d’ondes gravitationnelles, mis à l’étude dans la décennie 1990 et envisagé pour un lancement lors de la décennie 2010. Il sera composé de trois vaisseaux 44 Les progrès de ces instruments peuvent être suivis sur les sites : virgo.web.lal.in2p3.fr et www.ligo.caltech.edu.
450
L’observation en astrophysique
Fig. 7.62 – Sensibilité, exprimée en amplitude du spectre de puissance de h (Hz−1/2 ), porté en fonction de la fréquence ν (Hz) de l’onde gravitationnelle à détecter. Les différentes sources de bruit et leur amplitude dans un interféromètre de type virgo sont indiquées entre 1 et 104 Hz. Le tracé continu donne la résultante, donc la performance maximale espérée.
distants les uns des autres de près de 5 millions de km, qui conserveront leurs positions respectives avec une extrême précision, de l’ordre du micromètre. Au passage d’une onde gravitationnelle, les vaisseaux se déplaceront les uns par rapport aux autres comme le fait une flotille de navires au passage d’une vague. Les orbites de ces trois satellites seront situées sur un cercle, placé dans un plan incliné à 60 degrés par rapport à l’écliptique et dont le centre est situé à 20 degrés derrière la Terre, parcourant donc l’orbite terrestre. Chaque satellite comportera deux masses d’épreuve maintenues en chute libre, grâce à un système d’asservissement électrostatique qui permet de compenser les effets de freinage dus à l’interaction du satellite avec le milieu interplanétaire. La distance entre les masses tests de chaque satellite sera mesurée en permanence grâce à un système d’interférométrie laser. lisa, interféromètre spatial, vient compléter les détecteurs terrestres dans une gamme de fréquences différentes, de 10−4 à 0.1 Hz. Le
7. Les récepteurs du rayonnement
451
Fig. 7.63 – Orbites proposées pour le concept de mission européenne lisa. Les quatre satellites formant l’interféromètre naviguent dans un plan à 60◦ de celui de l’écliptique, à 20◦ en arrière de la Terre.
lancement de lisa est prévu pour 2012 ou 2013. La technologie très avancée de lisa nécessite d’être testée, grâce à une mission de préfiguration, lisa Pathfinder, qui devrait être lancée en 2008. lisa permettra de détecter les ondes gravitationnelles émises par des systèmes binaires d’objets compacts très proches l’un de l’autre. L’un ou l’autre de ces objets peuvent être des trous noirs, des étoiles à neutrons, ou des naines blanches. Parce que les masses de ces systèmes binaires sont petites, les observations de tels systèmes sont limitées à notre Galaxie et aux galaxies proches. D’un autre côté, la plupart des galaxies contiennent en leur centre un trou noir, d’une masse égale à plusieurs millions de fois la masse du Soleil. Il est possible que deux galaxies, suffisamment proches l’une de l’autre, s’attirent gravitationnellement, leurs trous noirs s’associant à terme en un seul. Notre meilleure chance de pouvoir étudier ce phénomène réside dans le rayonnement gravitationnel. Le taux d’événements de ce type est estimé à un par million d’années et par galaxie. En prenant en compte les millions de galaxies de l’Univers visible observable, lisa pourrait détecter chaque année plusieurs de ces événements associés à des objets super-massifs.
La figure 7.64 donne la sensibilité espérée et la confronte à l’amplitude prédite de certaines sources basse fréquence particulièrement intéressantes : fond gravitationnel d’origine cosmologique ; signal basse fréquence des étoiles binaires de la galaxie, donc très nombreuses ; collisions de trous noirs.
452
L’observation en astrophysique
Fig. 7.64 – Sensibilité ultime envisageable d’un détecteur spatialisé d’ondes gravitationnelles de basse fréquence (mission européenne lisa). Les amplitudes de diverses sources calculées sont indiquées. En tireté, la contribution théorique du fond cosmologique d’ondes gravitationnelles. Durée d’intégration de 1 an et rapport signal à bruit égal à 5. (Projet du groupe de travail lisa et Agence Spatiale Européenne, 1994.)
Exercices Exercice 7.1. Un photomultiplicateur (pm) reçoit un flux de N photons s−1 . Son rendement quantique est η. Décrire le processus poissonnien du photocourant i(t) (valeur moyenne, densité spectrale de puissance). Le pm est supposé filtrer i(t) par la fonction de transfert Π(f /fc ). Calculer la variance du photocourant. Réponse σ 2 = 2 η Ne2 fc = 2e < i > fc . Exercice 7.2. À partir de la puissance de bruit aux bornes d’une résistance R à la température T (cf. § 6.2), calculer la variance du courant Δi2 dans cette résistance. Réponse
Δi2 = 4 kT Δf/R. Exercice 7.3. Considérer une mire formée de traits de largeur égale, alternativement opaques et transparents (n traits mm−1 ). Décrire l’image observée
7. Les récepteurs du rayonnement
453
dans un système dont la ftm s’annule à la fréquence spatiale : (a)wc < n mm−1 ; (b)n < wc <2n ; (c)wc n. Même question pour une ftm telle que ˜ (wc ) = 0,5 G (0) (valeur à 3 dB). Le grandissement du système est 1. G Exercice 7.4. dqe en présence de courant d’obscurité. Si la photocathode du récepteur (ou son équivalent dans le cas d’un récepteur semi-conducteur) émet γ électrons cm−2 s−1 , la surface d’un pixel étant a, montrer que le dqe devient : −1 2 δg2 aγ δL 1+ ¯ + 2 ¯ δ= 1+ 2 g¯ ηN g¯ η N T . Exercice 7.5. Rapport signal à bruit et fréquences spatiales. Soit un récep˜ teur multicanal, de ftm G(w), supposé isotrope par commodité. Le récepteur fournit une image I (r). En l’absence de signal, « l’image d’obscurité » (e.g. grain de la plaque photographique vierge) est la fonction aléatoire I0 (r), de dsp I˜0 (w) On suppose ce bruit additif. Le bruit de signal est un bruit de photons sur chaque pixel ; il se traduit par une dsp S0 (w). Par extension, montrer que le dqe s’écrit : S0 (w) δ (w) = η
·
2
2 <
˜
˜ (w) + S0 (w)
I0 (w) G En déduire que le rapport S/B est en général dégradé lorsqu’on étudie les fréquences élevées d’une image en présence d’un grain, par rapport au S/B obtenu sur les basses fréquences. Exercice 7.6. Télévision rapide. Calculer la bande passante nécessaire pour passer une image tv haute résolution (1 000 lignes) à la cadence de 50 images s−1 . L’intensité de chaque pixel est définie sur 12 bits. Exercice 7.7. Sursaut gamma. La figure 7.65 illustre la structure d’une émission intense de photons γ, détectée le 13.6.79 par la sonde Venera II. La résolution en temps est inférieure à 1 ms (scintillateur). En déduire la taille maximale de la source (inconnue) responsable de cette émission. (Réf. : G. Vedrenne, « Les sursauts γ », La Recherche, 12, 536, 1981.) Exercice 7.8. Bruit en détection hétérodyne. Montrer que l’expression générale : 1/2 Tsource Δνs S/B = , Tb 2fc qui donne le rapport S/B en détection directe s’applique également à la détection hétérodyne, Δνs étant alors la largeur de bande du filtre moyenne
454
L’observation en astrophysique
Fig. 7.65 – Structure d’une émission intense de photons γ. fréquence et Tb la température de bruit totale. Dans quel cas ce résultat est-il indépendant de la puissance de l’oscillateur local (supposé sans bruit) ? À ν0 fixé, comment doit-on filtrer le signal νs avant le mélangeur, pour éviter la superposition des fréquences νs + α et νs − α ? Pourquoi, en spectroscopie, utilise-t-on la réception simple bande, alors qu’on utilise la réception double bande pour la mesure d’un √ spectre continu (continuum) ? Pourquoi le rapport S/B est-il multiplié par 2 dans ce dernier cas ? Exercice 7.9. Limite quantique du bruit. À partir de l’analyse du bruit quantique (cf. § 6.2), montrer que la fluctuation quantique du rayonnement de corps noir est atteinte lorsque la température de bruit Tb d’un récepteur, sensible à une seule polarisation d’un rayonnement de fréquence ν, est telle que kT b = hν. Examiner sous cet angle la figure 7.41. Exercice 7.10. Structure de l’Univers à grande distance. La figure 7.66 (d’après Kellermann et Pauliny Toth. ARAA, 19, 373, 1981) examine la densité N (S) de radiogalaxies en fonction de leur flux S. En abscisse, densité de flux S à λ = 6 cm. En ordonnée, écart ΔN = log [N (S)/60Jy ]−3/2 entre la distribution observée N (S) et une loi correspondant à une répartition uniforme en volume dans un univers euclidien statique, répartition observée à courte distance. Toutes les galaxies sont supposées statiquement de même luminosité. Déterminer la température d’antenne Ta correspondant aux sources les plus faibles (10 mJy). Déterminer le temps de télescope τ nécessaire pour observer une source avec S/B = 10, Δνs = 100 kHz, Tb = 300 K. Réponse τ ∼ 104 s. Exercice 7.11. Un champ contient deux galaxies, respectivement de magnitudes mν = 18 et 28. L’image est formée de façon que chacune d’entre elles occupe un seul pixel du récepteur. Le télescope, de diamètre 3.6 m, est supposé de transmission unité et on utilise un filtre standard V (de largeur effective Δλ = 0.089 μm). Adoptant des rendements quantiques raisonnables
7. Les récepteurs du rayonnement
455
Fig. 7.66 – Densité de radiogalaxies en fonction de leur flux. pour (i) un récepteur ccd, (ii) une caméra à comptage de photons, étudier comment varie, pour chaque objet, le rapport signal à bruit en fonction du temps de pose. On adoptera pour le ccd un bruit de lecture de 30 électrons rms. Réponse L’éclairement provenant de la source est, en W m−2 μm−1 : e = e0 10(−m/2,5) , et en terme de coups sur le détecteur : n = e S Δλ/ (hc/λ) ηt, où S est la surface collectrice (S = 10 m2 , Δλ est la largeur effective du filtre (Δλ = 0.089 μm), λ est longueur d’onde effective du filtre (λ = 0.55 μm), η est le rendement quantique du détecteur et t le temps de pose. (i) Récepteur ccd : le bruit de lecture est un bruit additif fixe indépendant du temps de lecture. D’où l’expression du rapport signal à bruit : √ S/B = n/ n + 30 . Le bruit de lecture devient significatif lorsque le nombre de coups accumulés pendant une pose est faible (ici 1 000). Pour un rendement de 70 %, et 3 t = 1 ms, S/B (mν = 18) = 2 × 10 √ et S/B(mν = 28)√= 8.5. (ii) Caméra à comptage : S/B = n (proportionnel à t). Pour un rendement de 10 % et t = 1 ms, S/B(mν = 18) = 7.9 × 102 , S/B(mν = 28) = 7.9. Ces valeurs sont à corriger d’une transmission réelle inférieure à l’unité. Exercice 7.12. La caméra à comptage de photons est rapidement saturée par les objets brillants situés dans le champ. Calculer la magnitude d’un quasar saturant la caméra utilisée avec un télescope de 3.6 m, de transmission unité, dans la bande photométrique B, en sachant que la saturation se produit pour 100 coups pixel s−1 .
456
L’observation en astrophysique
Exercice 7.13. Démontrer la relation de Hecht à partir du théorème de Ramo, qui donne la charge collectée dans un détecteur à semi-conducteur aux énergies supérieures à quelques dizaines de keV. Réponse
Le nombre de charges piégées dans dx après un parcours x est : dn = dx
n0 − x e λ. λ
Calculer alors la charge totale Q déposée pour un type de porteurs : ⎡ 1 ⎤ 1 x 1 − dn + n0 e λ ⎦ , Q = e⎣ d d 0
et retrouver la relation de Hecht par intégration.
Chapitre 8 L’analyse spectrale L’astrophysique est née de la spectroscopie, et c’est le plus souvent de l’observation et de l’interprétation des spectres des objets que découlent les contraintes les plus riches sur les modèles qu’élabore l’astrophysicien. Les exemples sont innombrables : bilans d’énergie, composition, abondance des molécules, des atomes, des ions ou des particules, champs de vitesse macroscopiques ou microscopiques, conditions physiques locales telles que la température, la densité, les champs magnétiques ou électriques, états d’équilibre ou d’écart à l’équipartition de l’énergie... Qu’il s’agisse d’atmosphères planétaires ou stellaires, du milieu interstellaire dilué et chaud ou des nuages moléculaires denses et froids, du milieu intergalactique, des phénomènes d’accrétion ou de fusion thermonucléaire qui se produisent à la surface des objets hyperdenses, de la génération d’énergie dans les noyaux de galaxies, de l’expansion de l’univers ou du rayonnement fossile, la spectroscopie est presque toujours l’outil fondamental de diagnostic. Le développement de spectromètres utilisant au mieux les photons disponibles est donc une priorité constante. Conjugués aux efforts de physiciens animés des mêmes préoccupations, ces développements ont porté l’outil spectrographique à un état voisin de la perfection, c’est-à-dire atteignant ou dépassant les limites de résolution imposées par les conditions physiques de production du rayonnement. Les progrès les plus notables proviennent désormais d’un meilleur couplage entre spectromètres et récepteurs, faisant profiter la spectroscopie des progrès présents et à venir des diverses catégories de récepteurs. Ce chapitre ne présente donc que des méthodes assez classiques, s’agissant de spectroscopie proprement dite. Il débute par un bref panorama sur les spectres en astrophysique qui complète et étend les propriétés du rayonnement étudiées au chapitre 3, puis introduit un vocabulaire et des notions générales propres à tout problème de spectroscopie. Il se poursuit par quelques considérations générales sur les spectromètres. Puis il décrit la spectrométrie basée sur les méthodes interférentielles, qui joue le rôle le plus fondamental des
458
L’observation en astrophysique
rayons X à l’infrarouge lointain. Il aborde l’application de celle-ci à la réalisation des spectromètres astronomiques. La spectrométrie des radiofréquences a sa spécificité qui justifie un traitement propre. La spectrométrie γ (énergies supérieures à 10 keV), ainsi que certains spectromètres X (bolomètres) utilisent la discrimination en énergie intrinsèque aux récepteurs : ceci est donc abordé au chapitre 7 qui traite des récepteurs.
8.1
Les spectres en astrophysique
Le rayonnement reçu d’une source est caractérisé par une intensité monochromatique I(ν, θ) à la fréquence ν et dans la direction d’observation θ. La polarisation du rayonnement peut également être spécifiée (linéaire, circulaire, elliptique, etc. ; cf. § 3.1). Le spectre de la source est donné par la dépendance en fréquence de I(ν, θ). Le terme spectre, utilisé ici et consacré par l’usage, désigne en toute rigueur la densité spectrale du champ électromagnétique, considéré comme une variable dépendant du temps, le plus souvent une variable aléatoire.
8.1.1
La formation des spectres
L’interaction élémentaire entre rayonnement et système matériel (noyau atomique, atome, molécule, particule solide...) conduit à un échange d’énergie. Lorsque le système passe d’états d’énergie définie E1 à E2 , et que la probabilité d’interaction radiative (émission ou absorption d’un photon) varie de façon importante avec la fréquence ν au voisinage de la fréquence de transition : ν0 =
E2 − E1 avec h, constante de Planck, h
les conditions microscopiques de formation d’une raie spectrale sont satisfaites, soit en absorption, soit en émission selon le sens de l’échange d’énergie. Cette probabilité élémentaire est décrite en détail par la physique nucléaire, atomique, moléculaire ou du solide, selon le système considéré. Le rayonnement I(ν) reçu par un observateur résulte de l’addition macroscopique d’un grand nombre d’interactions élémentaires sur la ligne de visée, soit au sein même de la source, soit, lorsqu’il s’agit d’un objet astronomique distant, tout au long du parcours entre source et observateur. Ces interactions rayonnement-matière conduisent ainsi à des émissions, absorptions, diffusions, élastiques ou non, du rayonnement, selon les milieux rencontrés, leur état physique (solides, gaz, plasmas...), leurs paramètres physiques (température, pression, champs de vitesses...) et les champs locaux (champ magnétique, gravitation...). Le spectre final observé résulte donc d’un processus complexe de transfert de rayonnement. L’équation de transfert générale s’écrit : ∞ I(ν) = S(ν, x)e−τ (ν,x) dx, 0
8. L’analyse spectrale
459
où S(ν, x) est la fonction source, caractérisant l’émission élémentaire au point d’abscisse x, mesurée le long de la ligne de visée et à la fréquence ν, et τ la profondeur optique entre O et x : x τ (ν, x) = κ(ν, ξ)dξ, 0
κ(ν, ξ) étant le coefficient local d’absorption du rayonnement. L’inversion 1 de l’équation de transfert, permettant de remonter à la fonction source locale S(ν, x) dans l’objet, est un problème fondamental en astrophysique, puisqu’elle déduit du spectre mesuré I(ν) les conditions locales conduisant à S. La grande diversité des spectres observés tient à la complexité des processus de transfert de rayonnement, dans des milieux (étoiles, gaz interstellaire, nuages moléculaires, etc.) eux-mêmes très divers. Le spectre sera dit continu lorsque la fonction observée I(ν) présente des variations lentes avec ν. Le rayonnement de corps noir du fond du ciel, le rayonnement continu du Soleil ou le rayonnement synchrotron émis par des noyaux actifs de galaxie sont de bons exemples de spectres continus, dans lesquels le transfert de rayonnement a fait disparaître ou a atténué la signature de transitions spectrales discrètes à l’échelle microscopique. Le spectre sera qualifié de spectre de raies, en émission ou absorption, lorsque I(ν) varie rapidement sur un intervalle de fréquence Δν ν (Fig. 8.1). Le spectre d’absorption d’une étoile de type spectral avancé, donc froide, le spectre d’émission submillimétrique d’un nuage moléculaire sont des exemples types de spectres de raies. Principales transitions et leurs domaines de fréquence La quantification des systèmes matériels leur assigne des niveaux d’énergie Ei , et donc des transitions spectrales associées. Selon la complexité du système, un traitement de mécanique semi-classique, ou quantique, est nécessaire pour calculer les probabilités de transition entre ces niveaux et les sections efficaces d’interaction avec le rayonnement. Nous passons ici en revue les principales transitions auxquelles s’intéresse la spectroscopie astronomique, illustrées dans le tableau 8.1. Lorsque le transfert de rayonnement est suffisamment simple, le spectre I(ν) reçu d’un objet est dominé – au moins dans un domaine spectral limité – par une fonction source locale qui traduit des transitions spectrales particulières. Transitions électroniques. Le cas simple de l’atome d’hydrogène, ou d’un atome hydrogénoïde, conduit à un rayonnement de fréquence ν0 donnée par la formule de Rydberg, lorsque l’atome change d’états d’énergie caractérisés 1 Sur les méthodes d’inversion de l’équation de transfert, voir par exemple Rybicki G. B., Lightman P., Radiative Process in Astrophysics, Wiley, 1979 et également Kourganoff V., Introduction to Advanced Astrophysics, Reidel, 1980.
460
L’observation en astrophysique
Fig. 8.1 – Terminologie des raies spectrales, (a) Spectre quelconque, (b) largeur à mi-hauteur d’une raie d’émission, (c) largeur équivalente d’une raie, (d) intensité relative d’une raie d’absorption. par les nombres quantiques principaux n et m : ν0 = 2c RZ 2
m−n , n3
R = 109 737.31 cm−1 étant la constante de Rydberg, Z la charge effective que voit l’électron. Cette expression simple permet de préciser les systèmes et domaines d’énergie concernés par ces transitions : – L’atome d’hydrogène. Les transitions de n, m < 5, dont l’énergie hν, avec Z = 1, est comprise entre 10 et 0.1 eV, sont rayonnées dans le proche UV, le visible et le proche infrarouge. Ces énergies correspondent à des températures T = hν/k comprises entre 105 et 103 K, donc caractéristiques des couches superficielles des étoiles (atmosphères stellaires) ou des régions d’hydrogène ionisé du milieu interstellaire. Les spectres de ces objets seront donc dominés par ces transitions. Ainsi, par exemple,
8. L’analyse spectrale
461
Tab. 8.1 – Exemples de transitions discrètes.
la raie Lyman α (λ = 121.6 nm) de l’hydrogène H dans les spectres d’étoiles chaudes, la raie de Balmer Hα (λ = 656.3 nm) dans les spectres des nébuleuses ionisées (régions HII), etc. – Les autres atomes hydrogénoïdes. L’expression de Rydberg conduit à déplacer les spectres vers l’ultraviolet proche (uv) ou extrême (euv) lorsque Z augmente, les énergies et températures mises en jeu augmentant également. Rappelons ici la notation propre aux astrophysiciens : un atome neutre est noté I, tels HI, CI. Un atome une fois ionisé est noté II, tel HII (He+ ), FeII, etc. On trouvera ainsi les raies importantes de l’hélium (transition 1s2 –1s2p de He à λ = 58.4 nm), du carbone (transition 2p3s-2p3p de l’atome neutre ou CI à λ = 1 069.1 nm), etc. Les ions, tels HeII, CII, Fen+ , etc., présentent également ces transitions, avec une charge effective Z croissant avec le degré d’ionisation. Ces raies spectrales sont caractéristiques de régions plus chaudes : disques d’accrétion dans des étoiles binaires, couronne solaire, éruptions à la surface des étoiles. – Les molécules. Les transitions électroniques dans les molécules, édifices polyatomiques tels H2 , CO, NH3 , etc., les radicaux tels OH, CN, etc. ou les ions moléculaires tels H2 O+ , ont des fréquences données par des expressions plus complexes que la formule de Rydberg. Le domaine d’énergie concerné est néanmoins comparable : du proche ultraviolet (10 eV) au proche infrarouge (0.1 eV). Les sites de prédilection de formation
462
L’observation en astrophysique de tels spectres seront les atmosphères (T ∼ 3 000 K) et les enveloppes circumstellaires (T = 1 000 à 3 000 K) d’étoiles froides, riches en molécules et radicaux stables à basse température, ou, encore les régions interstellaires denses excitées par des ondes de chocs.
– Les couches atomiques profondes. Les transitions affectant des électrons des couches profondes conduisent à des charges effectives Z élevées, proches du nombre de charge total de l’atome (Z = 10 à 100). La dépendance de ν0 en Z 2 conduit à des énergies importantes, jusqu’à 10 keV. Le rayonnement produit se situe dans l’euv et le domaine X, et les températures associées atteignent 108 K. L’un des avantages de ce rayonnement est qu’il est indifférent aux conditions de liaison de l’atome constituant : neutre ou ionisé, lié ou non dans une molécule ou un solide. Ce rayonnement X est observé dans la couronne solaire, les phénomènes d’accrétion (binaires serrées, quasars), dans les flashs thermonucléaires superficiels des étoiles (variables cataclysmiques). – Les états de Rydberg. On désigne ainsi les niveaux de l’atome H ou d’atomes hydrogénoïdes pour lesquels le nombre quantique n est très élevé. Les transitions entre deux tels états ont des énergies de l’ordre de 10−5 eV ; ils s’observent aux radiofréquences dans des milieux suffisamment dilués, où la température place les atomes proches de l’ionisation. Transitions électroniques (structure fine). Le couplage entre le moment orbital angulaire et le spin électronique conduit à une structure fine des niveaux électroniques : les sous-niveaux ainsi produits sont caractérisés par des différences d’énergie de l’ordre de 10−2 à 10−5 eV, donnant naissance d’une part à différentes composantes dans les raies principales n → m, d’où la dénomination « structure fine », d’autre part à des transitions entre ces sousniveaux, lesquelles sont observables dans l’infrarouge lointain et aux radiofréquences. La population relative de ces sous-niveaux très proches en énergie est pratiquement indépendante de la température du milieu, mais très sensible à la densité, d’où l’importance de ces raies spectrales. Citons les raies du carbone CI à 609 et 370 μm (submillimétrique), de CII à 158 μm, de OI à 63 et 145 μm, toutes importantes dans l’étude du milieu interstellaire galactique. Transitions électroniques (structure hyperfine). Le couplage entre le spin électronique et le spin nucléaire conduit également à des sous-niveaux, dont les énergies sont de l’ordre de 10−5 à 10−6 eV, et les transitions associées sont aux radiofréquences centimétriques. L’exemple le plus connu est la structure en deux sous-niveaux, séparés par 5.9 × 10−6 eV, du fondamental (n = 1) de l’atome H. Ces sous-niveaux, peuplés même dans la phase froide du milieu interstellaire, conduisent à l’émission de la très importante raie de radiofréquence 21 cm (1 420.406 MHz). De même, la structure hyperfine des niveaux du radical moléculaire OH, présent dans le milieu interstellaire et les enveloppes circumstellaires, conduit à plusieurs raies au voisinage de 1 667 MHz (λ ≈ 18 cm).
8. L’analyse spectrale
463
Transitions moléculaires. Le mouvement des édifices moléculaires (rotation, vibration) requiert des énergies plus faibles que celles associées aux transitions électroniques. La signature spectrale se trouvera donc dans l’infrarouge, le submillimétrique et le millimétrique. Le cas le plus simple est celui d’une molécule diatomique dissymétrique en rotation, présentant donc un moment dipolaire non nul et un moment d’inertie I. La quantification de ce mouvement, de nombre quantique J, conduit à une énergie : J(J + 1) E(J) = 2 , 2I et les transitions radiatives J → J − 1, dites de rotation pure, produisent des photons d’énergie 2 /I. Par exemple, la molécule CO présente une transition fondamentale 1-0 à λ = 2.6 mm, ainsi que toutes les transitions de J supérieur, qui s’étagent donc dans le submillimétrique et l’infrarouge lointain. Il en est de même des très nombreuses molécules ou radicaux présents dans les nuages moléculaires. La quantification des mouvements de vibration des atomes, qui constituent la molécule, conduit à des niveaux d’énergie dont la séparation est plus importante, typiquement 1 à 10−2 eV. Chacun de ces niveaux est décomposé en sous-niveaux par la rotation moléculaire. Les transitions ainsi possibles sont très nombreuses, donnant aux spectres moléculaires de vibration-rotation, situés dans l’infrarouge proche et moyen (1 μm à 100 μm) un aspect complexe. Les températures d’excitation requises sont modérées – de 100 à 3 000 K – et se rencontrent dans les enveloppes circumstellaires, les atmosphères d’étoiles froides où sont présentes des molécules ou radicaux tels SiO, OH. L’émission du radical OH est également présente dans l’atmosphère terrestre. Le cas de la molécule H2 mérite une mention particulière : très abondante mais symétrique, elle n’a pas de spectre de rotation pure : son spectre de vibrationrotation, en revanche, est observable dans le proche infrarouge (λ ∼ 2 μm), notamment lors de son excitation par des ondes de choc. Transitions nucléaires. La quantification des états d’énergie des noyaux atomiques conduit à des niveaux séparés par des énergies importantes : les transitions associées seront dans le domaine γ. Par exemple, les états excités des noyaux de 14 N, 12 C, 16 O produisent respectivement des spectres de raies de désexcitation autour de 2.31, 4.43, 6.14 MeV. D’autres mécanismes sont susceptibles de produire des spectres de raies. Citons la nucléosynthèse des éléments : raies du cobalt 60 Co à 1.33 et 1.17 MeV, observées lors de l’explosion de supernovae ou produites dans le milieu interstellaire par les rayons cosmiques. Citons encore la raie dite du positronium, produite à 511 keV par l’annihilation de paires électron-positon. Transitions dans les solides. Dans un solide cristallin comprenant un grand nombre d’atomes, un millier au moins, l’ordre à grande distance efface partiellement les propriétés individuelles des atomes ou molécules constitutives,
464
L’observation en astrophysique
et l’interaction matière-rayonnement met en jeu des transferts d’énergie collectifs au réseau cristallin ; les vibrations quantifiées de celui-ci portent le nom de phonons. Leur domaine d’énergie est nécessairement inférieur aux énergies de liaison du cristal, qui sont de l’ordre de l’électron-volt. C’est pourquoi les spectres caractéristiques des solides se situent dans l’infrarouge proche ou lointain (entre 1 et 100 μm). Un solide donné présente des fréquences caractéristiques fixées par la masse des atomes, la nature des liaisons entre eux (ionique ou covalente), etc. Dans le cas des solides amorphes, qui ne présentent pas le même ordre à grande distance que les cristaux, les raies spectrales sont néanmoins identifiables, car il subsiste un ordre à courte distance. Ainsi la glace H2 O, sous forme cristalline, présente une longueur d’onde caractéristique au voisinage de 45 μm et une autre au voisinage de 3.05 μm ; ces fréquences sont légèrement déplacées dans la glace amorphe. Certaines de ces transitions de solides sont particulièrement importantes pour la détermination de la composition physique des petites particules solides ou grains produits dans les comètes, les atmosphères d’étoiles froides et les novae ; elles sont abondantes dans le milieu interstellaire. On a pu identifier ainsi les silicates, par exemple SiO4 Mg, par leur transition à 9.6 μm, ou encore la glace H2 O déjà citée. Les agrégats représentent une transition entre les molécules isolées et les solides macroscopiques. Formés de quelques dizaines ou centaines de molécules, ils peuvent présenter déjà l’ordre cristallin, sans toutefois que soient oblitérées entièrement les propriétés spectrales des molécules ou atomes constituants. Les carbures polycycliques aromatiques ou pah, formés par juxtaposition de cycles benzéniques, représentent ainsi une transition progressive vers la structure cristalline du graphite et sont présents dans le milieu interstellaire (Fig. 8.2). Leur spectre caractéristique est formé de raies dans le proche infrarouge (3.31 μm et quelques autres).
8.1.2
L’information en spectrométrie
Nous discutons ici la relation entre le spectre tel qu’il est mesuré et l’information sur le milieu physique qui l’a émis. Il n’est pas dans l’objet de cet ouvrage de donner une théorie de la formation des spectres à partir de l’équation de transfert. Quelques notions élémentaires sont néanmoins utiles pour saisir les contraintes auxquelles doivent satisfaire l’observation spectroscopique et les outils que sont les spectromètres. Aspect qualitatif d’un spectre Nous avons souligné la complexité du processus qui lie l’interaction microscopique, de fréquence ν0 bien définie, au spectre observé I(ν). La figure 8.1 illustre l’aspect local d’un spectre I(ν) et met en évidence les principaux caractères empiriques d’une raie spectrale, susceptibles d’une interprétation physique ultérieure.
8. L’analyse spectrale
465
Fig. 8.2 – Spectres d’agrégats moléculaires. Haut : Spectre observé de l’objet HD 44179, une nébuleuse galactique par réflexion, appelée Rectangle Rouge. Le spectre est obtenu dans le proche infrarouge par un filtre interférentiel à bande passante variable. Les raies dont l’identification n’est pas élémentaire (atomes ou molécules) sont indiquées par leur longueur d’onde. (D’après Russell, 1978.) Bas : Spectre d’émission du coronène C24 H12 . L’identification probable des raies à un composé de type coronène ou carbure polycyclique de ce type résulte de la comparaison. (D’après Léger A., Puget J. L., Astron. Ap., 137, L5, 1984. Avec l’autorisation de Astronomy and Astrophysics.)
Un spectre est formé d’un continu Ic (ν) lentement variable avec ν (par exemple un rayonnement de type corps noir), auquel se superposent des raies. On définit ainsi : – Le profil de la raie. Le profil I(ν) peut être complexe, mais quelques paramètres le décrivent de façon simplifiée (Fig. 8.1) : la largeur à mihauteur Δν1 (ou à mi-profondeur), la largeur à mi-puissance (en anglais, Half Power Beam Width ou hpbw), la largeur équivalente Δν2 . Ces paramètres commodes n’ont de sens que si le profil de raie est relativement simple. On distingue également, dans le profil, le cœur ou centre, les flancs et les ailes d’une raie.
466
L’observation en astrophysique
– L’intensité de la raie. Ceci désigne la puissance totale contenue dans la raie, à l’exclusion d’un continu éventuel. L’intensité relative mesure le contraste entre la raie et le continu (Fig. 8.1d). – La position de la raie. Cette quantité est facilement déduite par la position du maximum (émission) ou du minimum (absorption) de I(ν). On donnera indifféremment cette position en unités de fréquence ν (Hz), de longueur d’onde λ, de nombre d’onde σ = 1/λ (cm−1 ou Kayser ), d’énergie hν (eV). Si la raie est large ou fortement asymétrique, on pourra préférer définir sa position par la fréquence correspondant au centre de sa largeur à mi-hauteur ou mi-puissance. – La polarisation de I(ν). Le spectre peut différer selon la polarisation du rayonnement dans lequel il est observé. Ainsi les spectres I+ (ν) et I− (ν), observés dans deux polarisations circulaires opposées, diffèrent-ils si le rayonnement est produit par effet Zeeman. Tous ces paramètres empiriques sont utilisables pour décrire un spectre quelconque, dans n’importe quel domaine spectral, des γ aux radiofréquences. Paramètres physiques associés aux raies L’identification de la présence d’un élément donné, d’une molécule, d’un ion dans le milieu émetteur est la première et fondamentale application de la spectroscopie en astrophysique. Elle acquit ses lettres de noblesse avec la découverte spectroscopique de l’hélium dans le spectre solaire (Lockyer, 1868). La mesure des champs de vitesse macroscopiques locaux est souvent concomitante. Les décalages spectraux plus faibles – gravitationnels ou magnétiques – sont des éléments d’information supplémentaire. Position de la raie. La position d’une raie, soit ν0 , est reliée à la transition responsable donc, compte tenu de la précision de détermination des fréquences spectroscopiques en laboratoire, à la présence bien identifiable d’un constituant donné. Toutefois, un changement de fréquence a pu se produire entre émission et réception, rendant plus délicate cette identification. Examinons les causes possibles d’un tel changement. • Effet Doppler . L’émetteur est ici en mouvement par rapport à l’observateur avec la vitesse relative v. Le changement de fréquence Δν est donné par l’effet Doppler-Fizeau, où v est la vitesse projetée sur la ligne de visée et s’exprime selon la valeur de v, par : – cas non relativiste : v c : v Δν = ν0 , c¯
8. L’analyse spectrale – cas relativiste :
467 ⎡ ⎢ ⎢ ⎢ Δν = ν0 ⎢1 − ⎢ ⎣
1−
v2
1/2 ⎤
c2 v 1+ c
⎥ ⎥ ⎥ ⎥. ⎥ ⎦
Certains mouvements sont relativement triviaux, bien connus et aisés à corriger : la vitesse relative de la Terre (rotation diurne et orbitale) ou celle d’un satellite observatoire par rapport au Soleil, celle du Soleil par rapport au centre de masse de la Galaxie. D’autres le sont moins, par exemple la vitesse relative d’éjection d’un jet de gaz par une galaxie, ou la vitesse locale de rotation d’un élément de nuage moléculaire. On définira le standard local de repos (en anglais, Local Standard of Rest ou lsr), en choisissant si possible le centre de masse de l’objet considéré. On pourra alors définir, après correction des effets triviaux, d’une part la vitesse vLSR de ce lsr par rapport à la Terre, puis le champ de vitesses locales par rapport au lsr : vlocal + vLSR = c
Δν . ν0
Lorsque les vitesses sont faibles (ν c), les corrections le sont aussi et l’identification des transitions est aisée. La détermination des vitesses s’ensuit. Par contre, lors de l’observation d’objets lointains à grand z = Δν/ν, z ∼ 1, tels galaxies ou quasars, ce décalage spectral cosmologique peut conduire à des identifications spectrales difficiles, puisqu’alors ni la valeur de z ni la fréquence de la transition dans le repère du laboratoire ne sont connues. Une application originale de l’effet Doppler est l’imagerie Doppler . Considérons la surface d’une étoile en rotation, vue par un observateur lointain que nous supposons pour simplifier situé dans le plan équatorial de l’étoile. La photosphère de l’étoile peut contenir des taches, caractérisées par une température plus faible et par un champ magnétique : l’un et l’autre facteurs se traduisent sur le profil des raies spectrales émises dans les taches, profil qui diffère de celui émis par la photosphère calme. La vitesse de rotation, projetée sur la ligne de visée, dépend de la latitude et de la longitude du point émetteur ; cette vitesse varie tout au long de la rotation (sauf si la tache était aux pôles). L’observateur ne dispose en général pas d’un instrument assez résolvant pour former une image de la surface stellaire : un seul spectre est obtenu qui mélange l’information issue de tous les points de celle-ci. Mais ce spectre évolue au cours du temps, et une raie particulière voit son profil changer. Il est possible d’inverser l’ensemble des profils pour restituer, moyennant quelques hypothèses raisonnablement simples, la configuration des taches à la surface de l’étoile (étendue, température, voire champ magnétique) : on obtient ainsi une « image » sans n’avoir pu disposer d’autre information que le spectre (Fig. 8.3).
468
L’observation en astrophysique
Fig. 8.3 – Imagerie Doppler d’une étoile de type T Tauri. L’étoile V410 Tau est observée dans la raie du lithium (λ = 670.7 nm) à différents instants. Le profil de la raie (en bas) varie au cours du temps et est mesuré par la phase ϕ de la rotation de l’étoile, de période 1.52 jour. En utilisant divers profils pour diverses ϕ, il est possible de déterminer une distribution unique de brillance à la surface de l’étoile (en haut), mettant en évidence des taches dont la température est de 3 000 K, sur une photosphère de température T = 4 800 K. Télescope de 1.2 m de l’Observatoire de Haute-Provence (France) et spectromètre Aurélie. (Document dû à Isabelle Joncour, 1994.) • Effet Zeeman. Lorsque la raie ν0 est produite dans un milieu magnétisé, l’existence de sous-niveaux Zeeman conduit à l’apparition de plusieurs composantes de fréquence et de polarisation différente. Dans le cas le plus simple (effet Zeeman normal), trois composantes sont observables, de fréquence ν0 (composante π) et ν0 ± Δν (composantes σ) avec : Δν =
eB = 1.4 × 1010 B, 4πm
où B (en tesla) est l’induction. La composante π est polarisée linéairement dans le plan contenant la ligne de visée et la direction de B, tandis que les
8. L’analyse spectrale
469
composantes σ sont polarisées elliptiquement. Si B est dirigé selon la ligne de visée, π disparaît, et les σ sont polarisées circulairement. Le déplacement Zeeman peut être bien inférieur (5 × 10−3) à la largeur Δν de la raie, telle que décrite ci-dessus, mais néanmoins mesurable grâce à cette propriété de polarisation. Le déplacement Zeeman a permis de mesurer le champ magnétique des taches solaires à l’aide du magnétographe sur les raies aux fréquences optiques, et également le champ magnétique galactique interstellaire sur la raie 21 cm de l’hydrogène, en utilisant la sélectivité à la polarisation des récepteurs de radiofréquences. • Effet Einstein. Lorsqu’un photon de fréquence ν0 quitte la surface d’un corps massif, sa fréquence change et le décalage vers le rouge (redshift en anglais) gravitationnel est donné par l’expression : −1/2 ν0 − ν 2GM GM Δν = 1− ∼ − 1 ou en champ faible · ν Rc2 ν Rc2 L’effet est très faible mais mesurable pour le Soleil, il devient plus important dans les naines blanches. Les raies γ émises à la surface d’une étoile à neutrons sont plus fortement affectées encore. Intensité de la raie. L’intensité intégrée (Fig. 8.1c), qui mesure l’intégrale de l’absorption ou de l’émission dans une raie, est directement fonction du nombre N de noyaux, atomes, ions, molécules, grains solides responsables de la transition ν0 : [I(ν) − Ic ] dν = f (N ). raie
La relation est linéaire pour N suffisamment petit, puis cesse de l’être lorsque N croît et que la raie sature. La théorie de la courbe de croissance des raies fournit la fonction f (N ) notamment son domaine de linéarité, en fonction des paramètres atomiques caractéristiques de la transition ν0 . Nous rencontrons ici la seconde application fondamentale de la spectroscopie : la détermination de l’abondance d’un constituant dans le milieu émetteur. Profil de la raie. Nous définissons ici le profil ϕ(ν) comme une fonction épousant au plus près la forme de la raie et normalisée à l’unité : ϕ(ν)dν = I. Le profil ϕ(ν) d’une raie reflète précisément ses conditions physiques locales de formation. Raies Doppler. Lorsque les atomes, ions, molécules... de masse M , responsables de la transition, sont en agitation thermique maxwellienne à la température T , le profil de la raie est dominé par l’effet Doppler dû à l’agitation et donné par l’expression gaussienne : 1 (ν − ν0 )2 ϕ(ν) = , exp − 2σ 2 σ(2π)1/2
470
L’observation en astrophysique
avec la dispersion de fréquence σ : 1/2 ν0 2kT 2 . +V σ= √ c 2 m Cette expression générale de σ inclue d’une part l’effet de la température cinétique T , d’autre part l’effet d’une éventuelle vitesse microturbulente isotrope, de valeur la plus probable V . La largeur à mi-hauteur, dite largeur Doppler du profil Δν0 , est donnée par : 1/2 2ν0 2kT ln 2 +V2 ΔνD = = 2.3556 τ. c m Une raie maser est formée lorsque domine un processus d’émission stimulée auto-amplifiée, cas par exemple des raies de H2 O ou du radical OH dans le milieu interstellaire. Dans ce cas, la largeur de la raie produite est réduite par rapport à l’expression ci-dessus, car l’amplification est plus importante aux fréquences où la raie est déjà intense. Si τ0 est la profondeur optique au centre de la raie, supposée non-saturée, la largeur est donnée par : ΔνD Δν = √ · τ0 Le tableau 8.2 donne quelques largeurs typiques relatives, intéressantes à comparer à la résolution des spectromètres. Lorsque le milieu source de la raie est animé de mouvements macroscopiques additionnels, tels que rotation d’ensemble, macroturbulence, expansion ou effondrement à symétrie sphérique, etc., le profil de la raie porte la signature de ces mouvements et peut être interprété. Raies dominées par les collisions. Lorsque la pression est suffisante, les collisions entre particules responsables de la transition et autres particules du milieu fournissent un amortissement additionnel, responsable de l’élargissement de la raie. Le profil de la raie, dit de Lorentz , est alors donné par l’expression : 1 ΔνL ϕ(ν) = , 2 2π (ν − ν0 ) + (ΔνL/2 )2 1 où ΔνL = πτ , τ étant le temps moyen séparant deux collisions et directement relié aux conditions physiques : section efficace de collision et vitesse d’agitation.
Cas général. Lorsqu’enfin la largeur Lorentz et la largeur Doppler sont du même ordre, le profil, dit profil de Voigt , est plus complexe et résulte de la convolution des deux profils précédents. Ces brèves considérations montrent que le profil des raies spectrales est riche d’information sur les conditions physiques du milieu producteur (Tab. 8.3).
8. L’analyse spectrale
471
Tab. 8.2 – Largeurs spectrales Doppler (atome H, m = mH ). V (km s−1 )
T (K)
Δν/ν0
10
1.9 × 10−6
104
6 × 10−5
0.3
10
2.7 × 10−6
30
10
2 × 10−4
0
Tab. 8.3 – Paramètres physiques et spectroscopiques. Nature de l’élément Abondance Champ de vitesse macroscopique Température, pression, gravité Champ de vitesse microscopique Champ magnétique
8.2
Position de la raie Intensité ou largeur équivalente Position, profil Intensité Profil Composantes Zeeman, polarisation
Les spectromètres et leurs propriétés
Nous appellerons spectromètre un instrument capable de fournir, idéalement, la quantité : I0 (ν, θ), décrivant l’intensité reçue de la source, en fonction de la fréquence ν, pour chaque direction θ de l’objet. Si l’observation est fournie simultanément pour plusieurs valeurs de θ, donc en plusieurs pixels d’une image, nous disposons d’un spectro-imageur . En pratique, le spectromètre fournit une quantité I(ν, θ) qui diffère de la quantité I0 (ν) : sa capacité de discriminer entre deux fréquences voisines n’est pas parfaite, le récepteur qui l’équipe et mesure l’intensité reçue souffre de fluctuations ou bruit, l’image éventuelle (dépendance en θ) que forme le spectromètre est affectée de distorsions, aberrations, etc. Enfin le spectromètre, par construction, ne permet la détermination de I(ν, θ) que dans un intervalle limité de fréquence. Un spectromètre et le récepteur qui l’équipe devront donc être adaptés aux types de source (ponctuelle ou étendue) et de spectre étudiés – domaine spectral, largeur et intensité des raies –, afin d’obtenir dans le temps de mesure le plus court possible l’information maximale.
8.2.1
Les grandeurs caractéristiques d’un spectromètre
Résolution spectrale Cette quantité fondamentale définit la capacité du spectromètre à distinguer la variation de I(ν, θ) avec la fréquence. Elle est illustrée par la figure 8.4 et sera la conséquence directe de la conception physique du spectromètre. Nous
472
L’observation en astrophysique
Fig. 8.4 – Observation d’une raie spectrale avec un pouvoir de résolution R croissant. (a) R ∼ 0 ; (b) la raie apparaît ; (c) la raie paraît double, mais non résolue (on utilise le terme anglais de blend : mélange, d’où le néologisme douteux « raie blendée ») ; (d) les deux raies sont résolues ; (e) la largeur propre des raies est atteinte et augmenter R ne change rien. Le trait horizontal fixe la largeur instrumentale Δν = ν0 /R utilisée.
raisonnons ici sur un instrument sans capacité d’imagerie, limité donc à une seule direction θ ou à un seul pixel d’image. La fonction d’appareil ou profil instrumental P (ν) est la réponse impulsionnelle en fréquence du spectromètre, c’est-à-dire la quantité I(ν) qu’il délivre lorsque le rayonnement incident I0 (ν) est une raie infiniment étroite I0 (ν) = δ(ν − ν0 ). Le spectre observé d’une source de spectre quelconque I est donné, si le récepteur est linéaire, par la convolution : I(ν) = P (ν)I0 (ν). On définit la largeur équivalente ΔνP du profil instrumental par l’expression : P (ν)dν · ΔνP = P (ν0 ) Il est clair que deux profils instrumentaux, de même largeur équivalente, peuvent avoir néanmoins des formes différentes et présenter des avantages ou inconvénients particuliers : l’existence d’ailes étendues ne sera pas gênante
8. L’analyse spectrale
473
pour la recherche de raies faibles autour d’une raie principale, mais nuisible à la détermination précise d’un continu, etc. Le critère de résolution est défini comme la capacité d’un spectromètre à distinguer deux raies δ(ν − ν1 ) et δ(ν − ν2 ), avec un rapport signal à bruit supposé infini. Il dépend de la forme exacte du profil P (ν). On admettra, comme approximation commode, que la séparation minimale pouvant être résolue est : ν2 − ν1 = Δνp . On appelle pouvoir de résolution spectrale, ou simplement résolution spectrale, la quantité : ν0 R= · ΔνP On appelle élément spectral une mesure de I(ν), échantillonnée sur un pas quelconque Δν, éventuellement très supérieur à ΔνP . Le pas précis d’échantillonnage à retenir pour obtenir la résolution maximale dépend de la forme exacte du profil instrumental P (ν), et d’une application correcte du théorème d’échantillonnage (cf. § 9.1). Rappelons que, celui-ci étant appliqué, il est inutile d’échantillonner plus serré en fréquence les points de mesure de I(ν), à condition que le bruit ait été convenablement filtré. Il existe un certain arbitraire dans la distinction faite entre photométrie et spectrométrie, puisque dans l’un et l’autre cas un isolement spectral est réalisé. L’habitude veut que l’on réserve le terme de spectrométrie (ou spectroscopie) aux cas où la résolution spectrale R dépasse quelques unités. Le tableau 8.4 donne quelques résolutions R typiques des spectromètres étudiés dans la suite de ce chapitre : il est intéressant de comparer ces valeurs aux largeurs intrinsèques des raies spectrales données ci-dessus et de constater qu’il est, sauf cas exceptionnel (par exemple, mesure du décalage gravitationnel dû au Soleil), inutile de pousser la résolution au-delà de 106 . Un autre cas particulier, d’importance astrophysique majeure, est celui de la mesure de vitesses radiales d’étoiles pour la détection d’exoplanètes. Ici, la précision requise en vitesse est de l’ordre de 1 m s−1 , soit une résolution R de l’ordre de 3 × 108 (cf. § 8.3). Étendue de faisceau Un spectromètre, dont l’élément dispersif a la surface S et dont le faisceau a l’ouverture d’angle solide Ω, peut accepter une étendue de faisceau E = SΩ maximale tout en conservant sa résolution R. Un spectromètre est d’autant plus lumineux qu’il accepte une grande étendue de faisceau. Puisque l’étendue de faisceau se conserve dans un instrument d’optique lors de la propagation, l’adaptation d’un spectromètre à un télescope, de surface ST , collectant le rayonnement d’une source du ciel sous-tendant l’angle solide ω, se traduit par : ST ω = SΩ.
474
L’observation en astrophysique
Tab. 8.4 – Résolution des spectromètres. Spectromètre
Domaine
Filtre interférentiel
Visible, infrarouge
Résolution typique 102 −103
Réseau
Visible, ultraviolet
103 −106
Réseau de Bragg
X
Résonance atomique
Visible, utraviolet
103 107 4
Pérot-Fabry
Visible, infrarouge
10 −106
Fourier
Visible, infrarouge
104 −106
Hétérodyne
Radiofréquences
>106
Infrarouge, submillimétrique
>105
Bolomètre (récepteur)
X
102
Scintillateur (récepteur)
γ
103
(Les valeurs de ce tableau sont des ordres de grandeur typiques, à ne pas considérer comme absolus.)
Cette relation simple montre qu’un spectromètre à grand champ sur le ciel (ω) comprendra soit un élément dispersif de grande taille (S grand), soit des faisceaux fortement inclinés (Ω grand), soit les deux. La taille du spectromètre, toutes choses égales par ailleurs, doit également croître avec celle du télescope (ST ), une condition qui devient contraignante dans les télescopes optiques dépassant 8 à 10 m. Lorsque le rayonnement est détecté de façon cohérente, aux radiofréquences, l’étendue du spectromètre est nécessairement égale à λ2 (cf. § 6.1). Transmission Elle est définie à chaque fréquence par la quantité : t(ν) =
Isortie (ν) , Ientrée (ν)
et est un facteur important de luminosité d’un spectromètre. Son optimisation résulte en général d’un traitement adéquat de toutes les surfaces optiques, pour en minimiser les pertes par réflexion ou par transmission. Malgré toutes ces précautions, il est rare que la transmission totale d’un spectromètre, placé au foyer Coudé d’un télescope, dépasse 2 à 5 %. Rapport signal à bruit Le spectromètre étant équipé d’un récepteur, le spectre final I(ν, θ) sera caractérisé par un rapport signal à bruit sur chaque élément spectral, lequel conduira finalement à un intervalle de confiance pour la détermination des quantités caractéristiques des raies spectrales. Si la fonction instrumentale P (ν) est connue avec précision par un étalonnage du spectromètre sur une raie quasi monochromatique, il est possible
8. L’analyse spectrale
475
en principe de remonter à I(ν), ou tout au moins d’améliorer quelque peu la résolution, par une opération de déconvolution (cf. § 9.6). Dans la pratique, cet avantage est exploitable si la mesure de I(ν) bénéficie d’un rapport signal à bruit élevé (102 ).
8.2.2
Les modalités d’isolement spectral
Les principes physiques des spectromètres sont divers, selon le domaine spectral d’utilisation et la résolution R recherchée. Le but est toujours d’obtenir l’isolement d’un élément spectral, de largeur fixée, avec une contamination minimale par les éléments spectraux voisins. Ceci peut être atteint par diverses méthodes, énumérées ici et détaillées plus loin. – Isolement interférentiel. L’isolement spectral est obtenu en imposant des changements de phase à l’onde incidente, puis en rendant constructive l’interférence de cette onde à la fréquence recherchée, et destructive aux autres fréquences. Cette méthode est utilisée dans un très large intervalle, depuis le rayonnement X jusque dans l’infrarouge lointain. Elle emploie soit des lames optiques (filtres interférentiels), soit des réseaux gravés, soit des dispositifs plus élaborés (interféromètres de Michelson, de Fabry-Pérot) – Isolement par filtres électriques résonants. Le signal électrique généré par l’onde incidente, après un abaissement de fréquence, est distribué sur une batterie de filtres, chacun sélectionnant un intervalle spectral ou élément de résolution. Cette méthode est utilisée aux radiofréquences, sur le signal de fréquence intermédiaire (fi), ou aux très grandes longueurs d’onde, directement sur le signal. – Isolement par autocorrrélation numérique. Cette méthode utilise la propriété de transformation intégrale qui, par transformation de Fourier, fait correspondre densité spectrale et autocorrélation (cf. Appendice I). Aux radiofréquences, la possibilité de numériser aisément le signal de fréquence intermédiaire (fi) permet de réaliser des corrélateurs très performants et offrant une grande souplesse de sélectivité spectrale. – Isolement par résonance atomique. Dans ce dispositif très particulier, la sélectivité spectrale, extrêmement grande, est obtenue par la réponse d’une vapeur d’atomes à l’excitation par le rayonnement incident, cette réponse ne se produisant que dans le très étroit domaine spectral d’une raie de résonance. – Isolement par sélectivité du détecteur. Comme étudié au chapitre 7, un détecteur possède une certaine sélectivité spectrale, ne le rendant sensible que dans un domaine limité. Certains détecteurs, utilisant des semiconducteurs, présentent une certaine sélectivité spectrale, due aux transitions entre bandes, et sont utilisés en spectrométrie X. De même, en
476
L’observation en astrophysique astronomie γ, ce sont les propriétés du récepteur qui intègrent la fonction de spectromètre. La spectrométrie est donc traitée au chapitre 7.
8.2.3
Les modes des spectromètres
Le couplage du spectromètre et du (ou des) récepteur(s) associé(s) conduit à des configurations différentes pour la détermination du spectre I(ν, θ). Chacune d’entre elles possède des avantages spécifiques, et est adaptée à des objectifs particuliers : résolution plus ou moins élevée, domaine spectral plus ou moins étendu, dimension du champ à couvrir, nombre d’objets à étudier simultanément, etc. D’autres contraintes peuvent intervenir : masse et encombrement d’un instrument à embarquer dans l’espace, stabilité de l’étalonnage en fréquence, etc. On distingue ainsi nombre de configurations, que nous précisons maintenant. • Le spectromètre séquentiel. Il analyse, séquentiellement dans le temps, les éléments spectraux successifs sur un seul élément d’image, c’est-àdire un point du champ. Ce sera le cas d’un spectromètre à réseau, dont la rotation pas-à-pas balaie le spectre sur un récepteur unique. Il fournit ainsi un spectre d’un seul tenant. Dans le cas d’un spectromètre de Fourier, c’est la transformée de Fourier du spectre (interférogramme) qui est explorée pasà-pas, le spectre étant obtenu in fine par une transformée de Fourier de l’interférogramme. • Le spectromètre multicanaux. Il combine un élément dispersif et un récepteur multi-éléments. Un grand nombre d’éléments spectraux est enregistré simultanément, le balayage spectral est supprimé, le gain de temps est considérable. Néanmoins, on n’obtient ainsi que le spectre d’un seul élément de la source. C’est le cas d’un spectromètre à réseau équipé d’une barrette ccd (par exemple 2 048 pixels), chaque pixel recevant un élément spectral distinct. Pour couvrir un très large intervalle spectral, on utilise des réseaux dits échelle. C’est également le cas d’un spectromètre hétérodyne, équipé d’une batterie de filtres recevant le signal if en parallèle aux radiofréquences, ou d’un autocorrélateur numérique. • Spectro-imageur. Un même élément spectral de fréquence ν, ou même un ensemble d’éléments spectraux couvrant l’intervalle spectral intéressant, sont enregistrés simultanément pour l’ensemble des directions θ du champ observé. Ce mode est précieux pour l’observation efficace d’objets étendus. Diverses configurations instrumentales vont conduire à différentes réalisations, plus ou moins complètes, de ce mode. Elles sont principalement employées dans les domaines spectraux ultraviolet, visible et infrarouge, où sont disponibles des récepteurs multipixels. L’objectif est toujours d’obtenir l’efficacité maximale : le plus grand nombre M d’éléments spectraux sur le plus grand nombre de pixels d’image dans le temps de mesure T .
8. L’analyse spectrale
477
Ainsi, dans le cas d’un Pérot-Fabry, on obtient un seul élément spectral à un instant donné, dans deux dimensions de l’image (sur un récepteur ccd), puis les éléments spectraux successifs par un balayage dans le temps ; ou bien, si la source présente des raies d’émission bien séparées, on peut obtenir simultanément les deux dimensions de l’image et la dispersion spectrale dans celle-ci. Dans le cas d’un spectromètre de Fourier, le mode imageur obtient un interférogramme – donc un spectre – pour chaque point du champ. Dans la spectroscopie à longue fente, une dimension de l’image est explorée le long de la fente, la dispersion se faisant perpendiculairement à celle-ci. Ce principe est utilisé pour donner des images spectrales du Soleil avec un spectrohéliographe. Dans une version différente, le découpage de l’image (image slicer ) transporte optiquement sur une fente la lumière issue des différents points du champ. Enfin, ce mode trouve, dans la version de spectroscopie intégrale de champ (Integral Field Spectroscopy, ifs), son expression la plus achevée. On découpe l’image à l’aide d’une matrice de microlentilles, à raison d’une par pixel du champ, puis chaque micro-image de la pupille sert de source à un spectrographe à grism, ou bien est injectée dans une fibre optique qui achemine la lumière jusqu’à la fente d’entrée d’un spectrographe classique (mode dit argus, en référence au mythologique berger aux cent yeux). Une autre solution est l’utilisation de découpeurs d’images juxtaposés qui redistribuent la lumière sur la fente du spectrographe en déviant de façon spécifique le faisceau lumineux de chaque élément d’image : ce sont en général des pièces optiques très délicates à réaliser. L’angle de dispersion est judicieusement choisi pour que les spectres ne se recouvrent pas sur le détecteur ccd final. • Spectromètre multi-objet. Lorsque, dans un champ étendu, se trouvent des objets bien distincts (étoiles, galaxies), il est intéressant de construire un spectromètre capable d’aller rechercher le rayonnement issu de chaque objet pour l’analyser spectralement, en ignorant tout le reste du champ. La difficulté vient évidemment du fait qu’aucun champ n’est identique à un autre, et qu’il faut donc trouver une façon de reconfigurer l’échantillonnage du champ pour chaque observation nouvelle. L’essor des observations cosmologiques et des grands relevés (cf. Chap. 10) a stimulé ce concept, appelé encore Multiple Object Spectroscopy (mos) et mis en œuvre sur les très grands télescopes avec une automatisation poussée et une efficacité remarquable. L’échantillonnage du champ peut se faire par fibres optiques, ou encore par fentes découpées dans un masque. Les spectromètres utilisés en astronomie sont le plus souvent couplés à un télescope qui collecte la lumière et forme une image. D’importance particulière est d’une part le rapport d’ouverture f /D du télescope, quantité qui peut varier de 1 à 100 selon le type de télescope et le foyer utilisé, d’autre part l’échelle focale a (en μm ou mm par seconde ou minute d’angle), qui résulte directement de la distance focale équivalente f du télescope.
478
L’observation en astrophysique
Le spectromètre est donc conçu comme partie d’un système, comme cela a déjà été souligné. Le choix d’une combinaison spectrométrique particulière est complexe. Il dépend du domaine spectral, de la résolution, du nombre M d’éléments spectraux requis, du champ sur le ciel et, le cas échéant, de la capacité d’imagerie simultanée recherchée, du type de détecteur disponible pour le domaine considéré et de la nature du bruit qui l’affecte, enfin de la taille du télescope auquel le spectromètre doit être adapté. Nous donnons ci-dessous quelques exemples.
8.3
Les spectromètres interférentiels
Cette vaste catégorie de spectromètres repose sur la réalisation de dispositifs interférentiels : l’isolement spectral est obtenu en introduisant des changements de phase sur l’onde incidente, l’interférence est rendue constructive à la fréquence recherchée et destructive si possible à toutes les autres fréquences.
8.3.1
Critères généraux
Nous utilisons les paramètres suivants, pour comparer diverses configurations : – Résolution R = ν/Δν = λ/Δλ, où Δν (ou Δλ) est l’élément de résolution spectrale. – Nombre total d’éléments spectraux M : caractérise le nombre de valeurs indépendantes de I(ν) obtenues entre les fréquences extrêmes de mesure ν1 et ν2 . – Temps total de mesure T . Le récepteur étant donné, ce temps fixera le rapport signal à bruit de la mesure du spectre. – Puissance reçue de la source : on distinguera entre une source ponctuelle, donnant un éclairement monochromatique e(ν) (W m−2 Hz−1 ) et une source étendue, caractérisée par sa luminance spectrale B(ν) (W m−2 sr−1 Hz−1 ). – Récepteur : celui-ci est caractérisé par son bruit propre, l’étendue de faisceau qu’il accepte, son nombre de pixels et leur dimension physique. – Étendue de faisceau : on démontre que, pour tout instrument interférentiel, l’étendue de faisceau maximale qu’un tel spectromètre peut accepter en fournissant la résolution R, est : U =Q
S , R
8. L’analyse spectrale
479
où Q est un facteur géométrique, sans dimension, caractéristique du type d’instrument, et S la surface de l’élément dispersif. La valeur de U est à comparer à l’étendue de cohérence λ2 s’il s’agit d’observer une source ponctuelle. Dans le cas d’une source étendue, le spectromètre, à résolution donnée, est d’autant plus lumineux que U est grande. Une combinaison de ces différents facteurs permet de définir un facteur de mérite relatif de chaque configuration2. Par exemple, pour un temps d’observation et une résolution donnée, quel est l’instrument permettant d’obtenir le maximum d’éléments spectraux avec le meilleur rapport signal à bruit ? Ou encore le rapport signal à bruit maximal et la résolution maximale pour un seul élément spectral ? Etc.
8.3.2
Filtre interférentiel
Utilisé depuis l’ultraviolet proche jusqu’à l’infrarouge lointain, ce dispositif (Fig. 8.5) illustre bien le principe de l’isolement spectral par interférence d’ondes multiples. La transmission du filtre est maximale pour une longueur d’onde donnée lorsque l’interférence est destructive pour les rayons réfléchis, soit, sous incidence normale, la condition réalisée pour : 2n1 (λ0 )e π + = 2kπ, λ0 2 une bande étroite de longueurs d’onde autour de λ0 et pour d’autres valeurs λi qui sont éliminées par un filtre absorbant (transmission ou réflexion). Le filtre interférentiel – pouvant comprendre plus de dix couches – fournit une résolution R ne dépassant pas 1 000. Ceci est illustré par les spectres de la Fig. 8.2. Dans l’infrarouge lointain, les dépôts, qui deviendraient trop épais, sont remplacés par des grilles métalliques. Des couches minces métalliques combinant les interférences et l’absorption par le matériau sont utilisées comme filtres par transmission dans l’ultraviolet extrême (λ de 10 à 100 nm). Quelques dizaines de nanomètres d’épaisseur d’aluminium, d’indium ou de silicium forment un filtre étroit (λ/Δλ ≈ 1) dont la transmission au pic peut dépasser 60 %.
8.3.3
Réseaux
Le spectromètre à réseau repose également sur une interférence d’ondes multiples, mais ici toutes les ondes, diffractées par une structure périodique, ont la même amplitude. 2 L’introduction du facteur de mérite et la comparaison entre spectrographes à réseau, de Fourier et de Pérot-Fabry sont faites de façon très claire par Jacquinot P., J.O.S.A., 44, 761, 1954.
480
L’observation en astrophysique
Fig. 8.5 – Principe du filtre interférentiel par transmission. Un seul dépôt est représenté.
Caractéristiques des réseaux Résolution. Soit a la période de l’élément diffractant, N le nombre de périodes, i et i les angles d’incidence et de diffraction, m l’ordre, λ la longueur d’onde. La condition d’interférence constructive s’écrit (Fig. 8.6a) : sin i ± sin i = m
λ a
relation du réseau,
les signes + ou − correspondant respectivement au réseau par réflexion ou par transmission. La dispersion angulaire est obtenue par différenciation de la relation du réseau, à i constant : di m = · dλ a cos i La résolution découle de la largeur angulaire de la figure de diffraction de la surface du réseau, formant la pupille d’entrée du spectromètre : (di )pupille =
λ · N a cos i
En égalant (di )pupille = (di )dispersion , il vient : λ mdλ = a cos i N a cos i
soit R = mN .
La valeur R = mN est une résolution maximale. Bien souvent la résolution R est inférieure et fixée par la largeur L de la fente d’entrée du spectromètre, placée au foyer d’un miroir collimateur de distance focale fcoll (Fig. 8.6). C’est finalement, pour l’observation au sol, la largeur de la tache image au foyer du télescope (seeing) qui impose le choix de L. C’est la raison
8. L’analyse spectrale
481
Fig. 8.6 – Principe du réseau. pour laquelle le collimateur d’un spectrographe à haute résolution doit avoir une distance focale très longue. La résolution vaut alors : R=
sin i ± sin i fcoll · cos i L
On utilise également la dispersion linéaire inverse, exprimée en Å mm−1 : D=
m dλ = , fcam di a cos i
où fcam est la distance focale du miroir de caméra (cf. fig. 8.11). Calcul du facteur Q. La nécessité d’utiliser une fente (Fig. 8.6b) pour illuminer le réseau conduit à une étendue de faisceau : U = βS cos idi, S surface du réseau, β hauteur angulaire de la fente. À longueur d’onde fixée, on a les deux relations : cos idi + cos i di = 0, λ , cos i di = m Ra d’où l’on déduit : U =β
S mλ S , avec U = Q , Q ∼ β. a R R
482
L’observation en astrophysique
Les aberrations du miroir collimateur conduisent à limiter β à des angles petits (10−2 à 10−1 rd), limitant d’autant l’étendue de faisceau utilisable, donc l’énergie acceptée par le spectromètre. Blaze d’un réseau. Si le profil de la structure diffractante périodique est quelconque, l’énergie est diffractée de façon à peu près uniforme dans les différents ordres m = 1, 2, ... et l’utilisation d’un ordre donné est peu efficace. Le choix d’un profil adapté pour le motif périodique permet de faire coïncider, pour un ordre donné et une longueur d’onde donnée, la direction d’interférence constructive et la direction de réflexion spéculaire sur les facettes du blaze (Fig. 8.7). La condition de blaze s’écrit (réseau par réflexion) : i − θ = i + θ,
θ=
i − i , 2
mλb = 2a sin θ cos(i − θ).
L’angle de blaze θ étant fixé par construction, une longueur d’onde de blaze λb est associée à chaque ordre.
Fig. 8.7 – Réseau blazé, n est normal au réseau, n1 aux facettes du blaze, θ est l’angle de blaze. Réseau échelle. Le principe consiste à utiliser un ordre d’interférence m très élevé, avec une période a grande (a λ) et un angle d’incidence i élevé, tel que i = i = θ (condition de Littrow). La relation du réseau s’écrit, à la longueur d’onde de blaze (Fig. 8.8) : mλb = 2a sin i = 2t, et la résolution R s’écrit, pour une fente de largeur L et un collimateur de focale fcoll : fcoll · R = 2 tgθ L Puisque a est relativement grand, il est possible de garder une bonne précision sur la périodicité pour un nombre élevé de traits, d’où une résolution importante (R = mN ) et une dispersion élevée (∝ m/a). Exemple : Un réseau carré, de côté 5 cm, à 40 traits mm−1 (a = 25 μm), blazé à λb = 430 nm, fonctionnant sous l’incidence i = 60◦ , conduit à : N = 2 000, t = 21.6 μm, m = 100, R = 2 × 105 .
8. L’analyse spectrale
483
Fig. 8.8 – Réseau échelle. On observe un recouvrement des ordres : on appelle intervalle spectral libre la quantité Δλ, telle que : (m + 1)λ = m(λ + Δλ) soit Δλ =
λ · m
Cet intervalle spectral est d’autant plus petit que m est grand, et ne permettrait pas d’explorer un domaine spectral étendu sans confusion entre ordres. Aussi introduit-on un prédisperseur , réseau ou prisme dont la direction de dispersion est orthogonale à celle du réseau principal. Chaque ordre est alors séparé des ordres adjacents, et le spectre entier, ou échellogramme, apparaît sous forme de bandes parallèles (Fig. 8.9). Un réseau échelle est donc bien adapté au couplage avec un récepteur bidimensionnel (ccd) : nous en donnons plusieurs exemples plus loin. Réalisation des réseaux. La recherche d’une résolution élevée s’accompagne de la nécessité de couvrir une large gamme spectrale. Les réseaux échelle, avec a λ, permettent de couvrir l’ultraviolet lointain (λ 50 nm) et ne sont limités que par le pouvoir de réflexion des dépôts métalliques utilisés. Les réseaux ordinaires (a λ) peuvent être réalisés en grande taille (N a ∼ 0.2−0.5 m). Le procédé de gravure par holographie permet de réaliser la gravure du réseau à partir de la photographie directe d’une figure de diffraction. Il est ainsi possible de bénéficier d’une extrême régularité de traits, au prix toutefois d’un profil sinusoïdal concentrant l’énergie de façon moins efficace que ne le fait le réseau blazé. Le cas échéant, le réseau est déposé sur une surface sphérique ou même asphérique qui optimise la qualité de l’image formée sur le récepteur. Dans l’infrarouge, la réalisation de réseaux ne présente pas de difficulté (λ grand), mais une résolution élevée conduit à des dimensions prohibitives (R = 106 à 100 μm conduirait à N a = 100 m !). Dès les années 1990, on a su faire des réseaux aboutés afin d’augmenter la valeur effective de Na. Ainsi le spectromètre échelle du vlt européen pour le visible et l’ultraviolet (uves ou Ultraviolet Visible Echelle Spectrograph) utilise deux réseaux plans avec un angle de blaze de 76◦ . Les
484
L’observation en astrophysique
Fig. 8.9 – Échellogramme obtenu alors de la mission du satellite International Ultraviolet Explorer (iue). Spectre d’une étoile supergéante A (αCyg) dans le domaine 200–330 nm. Résolution spectrale 0.02 nm. Récepteur Vidicon 768 × 768 pixels. Dynamique 0-256 coups ; un niveau correspond à 16 coups. (a) Cliché de l’intégralité du champ. (b) Agrandissement montrant un continu en émission et une raie en absorption. (Agence Spatiale Européenne et Praderie F., 1984, Comm. pers.)
8. L’analyse spectrale
485
Fig. 8.10 – Réseau par transmission au pas de 35 μm, pour un grisme, fabriqué en germanium par gravure anisotrope. Projet de caméra dans l’infrarouge moyen pour le vlt européen. (Photographie au microscope électronique, due à l’obligeance de H.U. Kaüfl et au Fraunhofer Institut, Münich, 1994.) réseaux holographiques peuvent être désormais réalisés avec un profil non sinusoïdal grâce à une gravure ionique, lors de laquelle le profil sinusoïdal initial est modifié par un bombardement d’ions.
Aux longueurs d’onde X (0.5-10 nm), il est encore possible d’utiliser des réseaux gravés sur du carbure de silicium (SiC) et dorés, fonctionnant par réflexion. La mission spatiale européenne xmm-Newton (1999-2010) est équipée d’un spectromètre (rgs), dont le réseau est fait de 182 plaques gravées, indépendantes et convenablement alignées. Grisme ou grism. Le prisme objectif est un prisme d’angle petit (quelques minutes) placé sur la pupille d’entrée. Chaque image d’étoile ou de galaxie est dispersée dans le plan focal sur la surface du détecteur ccd, ce qui permet de faire l’analyse spectrale à basse résolution de chaque objet, sur un champ important. Le grisme est fondé sur un principe analogue, mais combine un réseau par transmission (grating en anglais) et un prisme (Fig. 8.10). On note que seul l’effet du réseau intervient vraiment dans la dispersion par un grisme, la forme prismatique n’étant due qu’à la structure même du réseau. Un grisme n’est autre que l’équivalent d’un réseau blazé par transmission. Réseau holographique en volume. Quelle que soit l’attention portée à la concentration de la lumière dans un seul ordre, les réseaux gravés présentent une efficacité réduite par l’existence d’ordres multiples difficiles à contrôler
486
L’observation en astrophysique
entièrement. Dans le réseau holographique de volume, une mince couche de matériau transparent est placée entre deux lames de verre, et l’indice de réfraction de ce matériau est modulé en intensité, sur une épaisseur également ajustable. Comme dans un réseau en surface, la fréquence spatiale de la modulation détermine l’angle de diffraction (condition de Bragg), tandis que la fraction d’énergie diffractée, qui dépend de façon critique des propriétés (intensité et épaisseur) de la modulation, peut s’approcher d’autant plus de 100 % que l’intervalle spectral d’utilisation est relativement étroit. Ce réseau peut également être utilisé comme filtre spectral, ajustable en variant l’angle d’incidence. Spectromètres astronomiques à réseau La figure 8.11 illustre des montages simples, dans lesquels on identifie les éléments classiques d’un spectromètre à réseau : la fente d’entrée, le miroir collimateur ou tout dispositif optique équivalent fournissant un faisceau de lumière parallèle (faisceau afocal ou collimaté), l’élément dispersif, le miroir ou tout autre dispositif optique dit caméra, ou objectif de chambre, reformant l’image dispersée du champ sur un récepteur mono- ou bidimensionnel. Il est parfois possible de confondre dans un même élément optique les deux fonctions collimateur et caméra. Sur cette configuration de base viennent se greffer nombre de variantes : prédisperseur, dispersion croisée, etc. Une fois satisfaite la résolution et le champ requis, la préoccupation principale est la qualité d’image optique et surtout la transmission totale, un spectromètre comprenant un nombre parfois élevé de surfaces réfléchissantes. Un spectromètre à réseau doit être couplé à un récepteur. Une certaine diversité de configurations du couplage entre élément(s) dispersif(s) et récepteur existe selon la résolution R recherchée, et le choix d’un récepteur mono- ou bidimensionnel (ccd). Certaines de ces configurations permettent de combiner spectroscopie et imagerie (spectro-imagerie) en améliorant de façon considérable l’utilisation efficace des photons collectés. – Détecteur monodimensionnel : un seul objet, un seul ordre. Si l’image de l’objet est de dimension supérieure à la fente du spectromètre (R élevée ou tache de seeing importante), une anamorphose est requise (fibres optiques) et le spectre obtenu mélangera le rayonnement issu de tous les points de l’objet. – Détecteur bidimensionnel. À haute résolution, mode échelle (dispersion croisée) : un seul objet, plusieurs ordres de dispersion. À basse résolution (R < 103 ), dispersion simple : la possibilité existe alors d’utiliser une des dimensions du récepteur pour la dépendance en λ, l’autre pour la dépendance spatiale selon une des directions de l’objet (mode x, λ). Si on ne recherche pas une information spatiale (par exemple, cas d’une
8. L’analyse spectrale
487
Fig. 8.11 – Montages de spectromètres à réseau. (a) Montage Ebert-Fastie à réseau plan. Ici un même miroir assure les fonctions de collimateur et de caméra. Ceci pourrait être réalisé par deux miroirs distincts. (b) Montage de Rowland à réseau concave. La rotation de l’ensemble autour de la fente d’entrée fait varier la longueur d’onde du rayonnement reçu par le détecteur. (c) Montage de Rowland pour l’ultraviolet lointain : le réseau fonctionne en incidente rasante (i = 82 à 89◦ ). source connue a priori comme non résolue), la capacité de « binner »3 les pixels d’un ccd permet de sommer plusieurs pixels dans la direction de la fente et ainsi d’augmenter le rapport signal sur bruit (cf. § 7.4.6). – Détecteur bidimensionnel et dispersion. Dans ce mode, appelé spectrométrie intégrale de champ, on obtient une information (x, y, λ), soit à la fois spectrale et bidimensionnelle dans l’image. C’est évidemment ce montage, initialement dû à l’astronome français Georges Courtès, qui utilise au mieux les photons, et que nous détaillons abondamment plus loin. – Détecteur bidimensionnel : mono-ordre, basse résolution (<103 ) ou même haute résolution, multi-objet. À l’aide d’un système adapté de « découpage » du plan image (masque de fentes, fibres optiques), le spectromètre va prélever le rayonnement en un nombre limité de points de l’image et en juxtaposer les spectres sur le récepteur. 3 Cf. la liste du franglais en fin d’ouvrage. « Binner » n’est pas un terme de jardinage, mais signifie ici « regrouper par bins » (mot signifiant corbeille en anglais) en associant plusieurs pixels.
488
L’observation en astrophysique
Ce sous-système doit être adapté au télescope, tant du point de vue mécanique (choix d’un foyer adapté à sa masse et ses contraintes) qu’optique (rapport focal, optique adaptative éventuelle). Détecteurs associés. Soit f la distance focale équivalente du miroir de sortie du spectromètre. La taille du pixel du détecteur doit être au plus égale à f N a λcos i dans la direction de dispersion. La plaque photographique est désormais remplacée, soit par des détecteurs photoélectriques en barrette linéaire, comprenant autant d’éléments sensibles qu’il y a d’éléments spectraux à mesurer simultanément, soit par des détecteurs bidimensionnels (ccd ou mosaïques infrarouge) dans les modes d’imagerie décrits plus loin. La condition d’échantillonnage (Shannon) requiert au moins deux pixels de pas p par élément spectral résolu et s’écrit donc : 2p ≤ fcam di =
fcam sin i ± sin i fcam cos i =L , R cos i fcoll cos i
faisant ainsi apparaître la largeur L de fente modifiée par le rapport des focales, multipliée par un facteur d’anamorphose lié au réseau. Ceci peut également s’exprimer ainsi : si α désigne la taille angulaire de la fente sur le ciel (par exemple la dimension de la tache de seeing), D le diamètre du primaire du télescope et Ds le diamètre de la pupille du spectromètre (égal à la dimension utilisée du réseau), alors : 2p ≤ αD
fcam cos i , Ds cos i
conduisant à l’expression de la résolution R, donnée en condition de Littrow pour simplifier : 1 Ds . R = 2 tgθ α D Application : Considérant à nouveau le réseau utilisé ci-dessus, un télescope de D = 4 m, des pixels de ccd avec p = 15 μm, un montage Littrow (i = i ), un miroir caméra avec fcam ≈ 4 cm, on a une résolution de R = 4 500 pour une fente de dimension α = 1 , égale à la taille d’une tache de seeing moyen. On est très loin de la résolution intrinsèque du réseau. Avec Ds = 25 cm (soit un grand réseau de longueur 50 cm), on atteint R = 45 000. Pour couvrir un intervalle spectral libre, le détecteur doit comprendre np pixels : λb /m R np = = np = 2 000. λb /R m L’intervalle spectral libre étant égal à λ/m = 4.3 nm, un récepteur ccd de 2 000 × 500 pixels permettra de couvrir tout le spectre visible. On notera que la quantité d’information d’un seul spectre est considérable (106 pixels, 12 bits par pixel, soit plus de 10 Mbits).
8. L’analyse spectrale
489
Étendue de faisceau. Le caractère non isotrope de la fente d’un spectromètre à réseau rend toujours délicate son adaptation optique (en anglais matching) à un grand télescope. Soit en effet l’image d’un champ formée sur la fente. Au sol, la turbulence atmosphérique définit une dimension de pixel d’environ θ = 0.5 arc sec dans de bonnes conditions. ST étant la surface du télescope, l’étendue correspondante est : U ∼ ST θ 2 . Cette étendue est acceptée par le spectromètre si la largeur de la fente correspond à θ, soit la relation : θ 2 ST ∼
S S di ∼ 2 · R R
Prenant ST = 10 m2 , S = 1 m, on obtient : S 1 = 106 . R θ ST Les résolutions spectrales élevées nécessitent donc, au sol, de très bonnes images et un télescope dont la taille ne dépasse pas quelques mètres. Audelà, il devient nécessaire d’utiliser un anamorphoseur d’image (Fig. 8.12) pour que toute l’énergie puisse effectivement alimenter la fente du spectromètre. Dans l’espace, ou en utilisant une optique adaptative au sol, la taille de l’image est limitée par la diffraction et non par la turbulence : la difficulté disparaît.
Fig. 8.12 – Anamorphoseur d’image. (a) Tache image de dimension comparable à celle de la fente du spectromètre. (b) Tache plus étalée : une partie de l’énergie n’alimente plus le spectromètre. (c) Un paquet de fibres optiques répartit toute l’énergie sur la fente. Les spectromètres à réseau apparaîtraient donc, à première vue, peu adaptés à l’obtention de spectres d’objets étendus (plusieurs secondes ou minutes d’arc selon la surface ST du télescope) lorsque est recherchée une résolution élevée, de 104 à 106 . Nous montrons ci-dessous que la spectro-imagerie a résolu, de plusieurs manières, cette difficulté.
490
L’observation en astrophysique
Spectromètres échelle Le principe du spectromètre échelle a été indiqué plus haut. Son importance en astronomie est telle que nous en proposons plusieurs exemples. Spectromètre hrs (télescope Hubble). La figure 8.13 donne la configuration du spectromètre à haute résolution (hrs ou High Resolution Spectrograph) du télescope spatial Hubble (depuis 1989), où la résolution spatiale dans l’image atteint la limite de diffraction avec D = 2.4 m, tandis que la résolution spectrale peut atteindre 105 .
Fig. 8.13 – Schéma optique du spectromètre à haute résolution du télescope spatial Hubble (High Resolution Spectrograph ou hrs). Le carrousel porte un jeu de 6 réseaux holographiques plans (a = 0.16 à 3.16 μm). En mode normal, les miroirs C sont utilisés pour former le spectre sur les récepteurs 1 ou 2 (barrettes linéaires Digicon de 512 pixels), les miroirs E sont des réseaux donnant la dispersion croisée du mode échelle. Longueurs d’onde : 105 à 320 nm. Résolution R = 2 000 à 105 . Intervalle spectral utile : 2.5 à 29 nm.
harps et la recherche d’exoplanètes. Le principe de détermination de la vitesse radiale v relative d’une source (étoile, galaxie...) par rapport à la Terre est simple, puisqu’il mesure le décalage Doppler des raies spectrales de la source. Toutes les raies spectrales étant également affectées du même décalage relatif : Δλ v = , λ c on conçoit que le rapport signal à bruit sur la vitesse v soit considérablement amélioré par une mesure simultanée de toutes les raies, dans un intervalle spectral large. Ceci requiert néanmoins que l’objet soit assez brillant pour
8. L’analyse spectrale
491
que toutes les raies soient détectables. Mise au point par l’Observatoire de Genève (Suisse) et l’Observatoire de Haute-Provence (France) pour la mesure systématique de mouvements stellaires dans la Galaxie (instruments coravel et coralie dans les années 1980-2000), cette technique a trouvé une application considérable dans la recherche d’exoplanètes autour d’étoiles, dont on mesure au cours du temps la variation de vitesse radiale par rapport à la Terre. L’étoile est en effet en orbite autour du centre de masse commun du système. Pour atteindre des masses de compagnons planétaires aussi faibles que possible (quelques dizaines de masse terrestre), il faut obtenir une sensibilité en vitesse aussi élevée que possible. L’instrument harps est installé depuis 2001 sur le télescope de 3.6 m de l’eso à La Silla (Chili), dont une fraction importante du temps est dédiée à la recherche systématique d’exoplanètes4 . C’est un spectromètre échelle, atteignant une résolution spectrale de 90 000 dans le large domaine spectral allant de 380 à 690 nm. La recherche de stabilité maximale au cours du temps conduit à placer le spectromètre dans une position fixe, dans une enceinte contrôlée en préssion, thermostatée (salle Coudé) et à l’alimenter par deux fibres optiques issues du foyer Cassegrain du télescope, l’une transportant la lumière de l’étoile prélevée dans le plan focal, l’autre la lumière d’une lampe spectrale de référence (thorium-argon) assurant l’étalonnage permanent en longueur d’onde. Ces deux sources sont dispersées sur deux mosaïques ccd (2 000 × 4 000 pixels), en mode échelle, comptant 68 ordres. Le grand intervalle spectral utilisé requiert de corriger la dispersion atmosphérique dès que l’étoile n’est plus au zénith, ce qui est fait par un élément optique correcteur placé en amont de la fibre de transport. Les performances de l’instrument harps en mesure de vitesses radiales sont exceptionnelles (Fig. 8.14), et représentent sans doute la limite ultime de ce qu’il est possible de faire depuis un observatoire terrestre. La limite de modulation de vitesse détectable est de 1 m s−1 , alors que la présence de la planète Jupiter module la vitesse radiale du Soleil d’environ 13 m s−1 pour un observateur situé en dehors du système solaire. En cinq années, cet instrument a déjà découvert ou confirmé plus de 12 exoplanètes, et poursuit sa moisson. Spectrométrie multi-objets (MOS) Il s’agit ici d’une configuration multiplex, où les spectres de plusieurs objets situés dans le champ sont simultanément obtenus, avec un considérable gain de temps d’observation et une possibilité de calibration commune. Longtemps, notamment pour les études stellaires, on utilisa le prisme-objectif : un grand prisme placé sur la pupille d’entrée, ou une image de celle-ci, disperse chacune des images d’étoiles sur le récepteur. L’inconvénient est double : d’une part les spectres peuvent se superposer, d’autre part le fond de ciel s’ajoute à 4 L’acronyme harps signifie High Accuracy Radial velocity Planet Searcher. Voir www.unige.ch/sciences/astro/.
492
L’observation en astrophysique
Fig. 8.14 – Performance du spectromètre harps. Le rapport signal à bruit, selon un temps de pose variant entre 0.5 mn et 30 mn, est en ordonnée, en fonction de la magnitude mV d’une étoile (ici de type spectral G8). Horizontalement est indiquée la limite de vitesse de 1 m s−1 , en deçà de laquelle les mesures ne sont plus significatives, à cause de fluctuations diverses, dont celles du champ de vitesse de la photosphère de l’étoile. La limite de saturation du ccd par un excès de photons est également indiquée. (Source : Observatoire de Genève.)
chaque spectre. La sélection des objets, avant dispersion, se fait par un procédé adapté de découpage du plan image : masque à fente ou fibre optique. On obtient ainsi les spectres Ij (λ) pour chaque objet j, qui doit néanmoins demeurer de petite taille (au plus quelques secondes d’angle). Les spectromètres multi-objets (Multi-Object Spectrometer ou mos) ainsi construits sont extraordinairement performants. Masques à fente. Pour le découpage par masque, une première image non dispersée du champ est d’abord faite sur le détecteur ccd. Puis un masque présentant une série de fentes, adéquates à la résolution recherchée, est réalisé d’après cette image, par exemple par photogravure. Il est inséré dans le plan focal image, et un grisme inséré dans un plan pupille aval. On fait ainsi la spectroscopie d’une centaine d’objets simultanément, par exemple sur le télescope cfht (Fig. 8.15). Cette méthode est bien adaptée à des objets faibles (relevés de galaxies) dans un champ très encombré : plusieurs centaines d’objets dans un champ de 10 minutes d’angle. La soustraction du ciel est bonne, autorisant une magnitude limite de l’ordre de 1 % de celle du ciel par élément de résolution spatiale (puisque la brillance du ciel se mesure par seconde d’angle carrée). On notera deux limitations de cette solution : d’une part, il n’est pas possible d’obtenir le spectre de deux objets proches l’un de l’autre dans la direction de la dispersion, d’autre part les spectres des objets en bord de
8. L’analyse spectrale
493
Fig. 8.15 – Spectroscopie multi-objet avec fentes. Pose d’une heure au télescope Canada-France-Hawaii (cfht) dans un champ de 10 . 80 masques sont utilisés ici. Chaque rectangle vertical correspond au spectre ciel (fente = 12 ) + objet, couvrant 450−850 nm. Les raies et bandes de l’émission du ciel (traits horizontaux) dominent. Les objets les plus faibles (mI = 22, mB = 24) ne sont visibles qu’après traitement et combinaison de 8 poses de 1 heure. (Document dû à l’obligeance de O. LeFèvre, programme Canada-France-Redshift-Survey, 1995.)
champ sont tronqués, aux deux extrémités du domaine spectral. Ce principe de masquage a été retenu pour le spectrographe vimos du vlt5 . Fibres optiques. Le principe est simple : l’extrémité de chaque fibre multimode est positionnée dans le plan focal sur l’objet sélectionné, tandis que l’autre extrémité est placée sur la fente d’entrée du spectrographe, lequel n’est donc plus nécessairement fixé au télescope et mobile avec lui (d’où un gain de stabilité). Quelques fibres sont réservées à la mesure du fond de ciel, d’autres à des étoiles du champ éventuellement utilisées pour un guidage fin. Les pixels du détecteur sont donc exploités dans leur totalité par la juxtaposition des spectres individuels (Fig. 8.16, cahier couleur, et 8.17). Les fibres peuvent être mises en place de diverses façons. Soit en perçant dans une plaque des trous aux positions voulues et en les y adaptant, soit en déplaçant chaque tête de fibre à l’aide d’un bras robotisé, commandé à 5 L’acronyme vimos signifie www.eso.org/instruments/vimos/.
Visible
Multi
Object
Spectrograph.
Voir
494
L’observation en astrophysique
Fig. 8.17 – Spectrométrie multi-objets. Spectrogrammes de diverses régions de la nébuleuse d’Orion M42, montrant les raies caractéristiques des régions d’hydrogène ionisé. Le récepteur est un ccd. (D’après Enard D., télescope de 3.6 m de l’Observatoire Européen Austral.)
partir de positions relevées sur une image préalable du champ (Fig. 8.18). À cause de l’encombrement stérique des bras positionneurs, la densité d’objets accessibles dans le champ est plus faible : quelques centaines dans des champs de l’ordre du degré. La soustraction du fond de ciel n’est pas aussi bonne qu’avec des fentes où celui-ci est mesuré localement aux extrémités de la fente, alors qu’il faut positionner des fibres de mesure du fond plus loin des objets : l’hétérogénéité à petite échelle de l’émission atmosphérique (cf. § 2.6) introduit ici des fluctuations du fond et de son spectre. Les magnitudes limites atteintes sont comprises entre 17 et 21 aux longueurs d’onde du visible. Un concept intéressant est celui du spectromètre giraffe, installé en 2006 sur le Very Large Telescope, car il combine la caractéristique multi-objet par sélection d’objets (jusqu’à 132 galaxies) dans le champ, et la caractéristique intégrale de champ, parce que chaque tête prélevant la lumière est faite de 20 fibres qui échantillonnent différents points du champ : on peut ainsi
8. L’analyse spectrale
495
Fig. 8.18 – Positionnement de fibres par bras rectilignes robotisés dans un champ. 400 fibres sont ajustées à 400 objets, selon deux géométries différentes. (D’après Lewis et al., in Fiber optics in Astronomy II, ASP Conf. Series, 37, 1993.) simultanément obtenir le spectre de différentes régions d’une galaxie (d’où les mesures d’abondance des éléments, de rotation, etc.) et d’un grand nombre de galaxies dans un champ total de 25 minutes d’angle. Il peut enfin être combiné à une optique adaptative bas ordre, qui garantit une qualité d’image stable, avec une fep de quelques centaines de millisecondes d’angle. Au milieu des années 1990, le spectromètre à fente de l’Anglo-Australian Telescope (aat) de 4.2 m (mont Stromlo, Australie) positionne en 2 minutes 400 fibres alimentant deux spectrographes. Le Sloan Digital Survey (cf. § 10.2) effectue la spectrométrie de 106 galaxies et 105 quasars dans une fraction du ciel de π stéradians. L’instrument, qui utilise 3 000 plaques photographiques dans lesquelles un trou est percé pour installer manuellement la fibre, a un champ de 3◦ et 600 fibres. Il atteint une magnitude mV = 17.
Spectrométrie intégrale de champ Il s’agit ici de mesurer l’information spectrale I(ν, θ) en tout point du champ, et non plus en un nombre limité de points sélectionnés comme dans la spectrométrie multi-objets (Integral Field Spectroscopy ou ifs). Ce mode ne concerne pas que les spectromètres à réseau : nous en trouverons plus loin d’autres illustrations, avec le Pérot-Fabry ou encore le spectromètre imageur à transformée de Fourier. Une configuration typique est celle qui couple à un
496
L’observation en astrophysique
dispositif disperseur soit un réseau de micro-lentilles, soit une fente longue (pour l’étude du Soleil). Spectromètre à matrice de microlentilles. Dans un plan image conjugué du plan focal, dont le grandissement est adapté, on place une trame de microlentilles (dimensions typiques de quelques centaines de micromètres) qui va former un ensemble d’images de chaque pixel du champ ainsi échantillonné. Ces images sont dispersées par un grisme (réseau par transmission) et les spectres reçus sur un ccd (Fig. 8.19).
Fig. 8.19 – Principe d’un spectromètre intégral de champ à matrice de microlentilles. Chaque microlentille, placée dans un plan focal, découpe le champ en éléments dont le spectre est donné par un grisme. L’angle de dispersion doit être judicieusement choisi pour que les spectres ne se chevauchent pas. D’autres méthodes que l’emploi de microlentilles existent pour découper et reconfigurer le plan focal. Mentionnons ici le remarquable instrument sinfoni, installé en 2004 sur le Very Large Telescope pour fonctionner dans le proche infrarouge (1.1-2.45 μm), et surtout pouvoir se coupler à une optique adaptative6 . Destiné à fonctionner à la limite de diffraction d’un télescope de 8 m, chaque pixel est nécessairement petit, et le champ total, selon les configurations offertes, peut varier entre 8” × 8” et 0.8” × 0.8”. Ce champ est découpé en 32 tranches (image slicing), chacune d’entre elles étant ensuite dispersée sur 64 pixels d’un détecteur HgCdTe (cf. Chap. 7). On obtient ainsi 32 × 64 = 2 048 spectres de la région étudiée du ciel. Le module associé d’optique adaptative peut utiliser 6 Pour
plus de précisions sur cet instrument, voir www.eso.org/instruments/sinfoni/.
8. L’analyse spectrale
497
soit une étoile naturelle (ngs), soit une étoile artificielle, générée par laser sur la haute atmosphère terrestre (lgs, cf. Chap. 6), permettant l’observation dans une région du ciel dépourvue d’étoile de référence brillante. Le principe de découpage et reconfiguration du champ peut également être utilisé aux longueurs d’onde submillimétriques. Dans l’instrument pacs (Photodetector Array Camera & Spectrometer), destiné à l’observatoire spatial Herschel7 , un champ de 5 × 5 pixels, chacun de 9.4”, est découpé et dispersé pour former 16 éléments spectraux sur une mosaïque de 16 × 25 détecteurs individuels (Ge:Ga, cf. § 7.4) dans les bandes submillimétriques 57-105 μm et 105-210 μm.
Spectrométrie du Soleil. Le but est d’obtenir une image monochromatique d’un objet étendu – ici la surface du Soleil – en utilisant la résolution spectrale élevée du spectromètre à réseau. Remplaçant la fente de sortie par un détecteur unidimensionnel (par exemple une barrette Reticon ou ccd, possédant typiquement 512 pixels), on obtient une coupe spectrale de l’objet à la longueur d’onde λ0 . Déplaçant l’image du Soleil sur la fente d’entrée d’une quantité égale à la largeur de celle-ci, on procède à une seconde exposition, etc. jusqu’à la reconstitution d’une image complète de l’objet à la longueur d’onde λ0 , ou spectrohéliogramme (Fig. 8.20 et 8.21).
Fig. 8.20 – Principe du spectrohéliographe. (a) L’image du Soleil balaie la fente d’entrée, la fente de sortie sélectionne la longueur d’onde λ0 sur une barrette de détecteurs. (b) Image monochromatique à la longueur d’onde λ0 . Le magnétographe combine la capacité d’imagerie du spectrohéliographe et une analyse de la polarisation. Sur une raie spectrale choisie, l’effet Zeeman est mesuré en chaque point de l’image. On en déduit la valeur de la composante transverse du champ magnétique le long de la ligne de visée, dans la couche locale de l’atmosphère où se forme la raie considérée. 7 Herschel est une mission spatiale européenne pour la période 2008-2012, destinée à l’étude du rayonnement submillimétrique, et équipée de trois instruments, dont l’instrument pacs. Ce dernier est décrit à l’adresse pacs.mpe.mpg.de.
498
L’observation en astrophysique
Fig. 8.21 – Spectrohéliogramme solaire obtenu dans la raie de l’hydrogène Hα. (Cliché dû à l’obligeance de Henoux J.-C, Observatoire de Paris-Meudon, 1985.)
8.3.4
Le spectromètre à transformée de Fourier
Principe et propriétés Le spectromètre à transformée de Fourier (TF), appelé encore interféromètre de Michelson 8 , est un interféromètre à deux ondes, par opposition au réseau qui fait interférer N ondes (une par trait du réseau). Si x est la différence de marche (Fig. 8.22) introduite entre les deux ondes, l’intensité en sortie est donnée par : & = I0 (1 + cos 2πσx), I(x) 2 lorsque l’intensité incidente est I0 , monochromatique, de nombre d’onde σ. Une source quelconque dont l’intensité a la répartition spectrale I0 (σ) limitée à l’intervalle [σ1 , σ2 ] produit le signal : & = 1 I(x) 2
σ2
I0 (σ)(1 + cos 2πσx)dσ. σ1
8 Nous n’utiliserons pas cette dénomination, bien qu’elle soit courante, pour éviter la confusion avec l’interféromètre spatial de Michelson utilisé en imagerie et décrit § 6.4.
8. L’analyse spectrale
499
Fig. 8.22 – Schéma optique du spectromètre à transformée de Fourier. Ce signal, appelé interférogramme, mesuré par le récepteur placé en sortie, est donc, à une constante près, la transformée de Fourier en cosinus de la distribution spectrale de l’objet. Il y a multiplexage spectral puisque, à chaque valeur de x, tous les éléments spectraux du spectre incident contribuent au signal, chacun d’entre eux codé par une fonction cosinus orthogonale aux autres. Restitution du spectre de la source. Par TF inverse, on restituera I0 (σ). Après soustraction de la valeur moyenne : 1 σ2 ˜ I(x) = I0 (σ)dσ, 2 σ1 il vient :
& − I(x) & I0 (σ) = TF I(x) .
& & Si I(x) était connu pour x ∈] − ∞, +∞[, I0 serait identique à I0 . Lorsque I(x) n’est connue que sur l’intervalle [− x2m , + x2m ], on a (exercice 8.1) : I0 (σ) = I0 (σ) sin c(xm σ), et le spectre restitué diffère de I0 par une dégradation de la résolution due à cette convolution. Résolution. Une source monochromatique I0 (σ) = δ(σ − σ0 ) a pour interférogramme la fonction d’appareil : sin c(xm σ)δ(σ − σ0 ), où xm est la différence de marche optique maximale. Le premier zéro de la fonction d’appareil est obtenu pour : σ − σ0 = ±
1 , xm
500
L’observation en astrophysique
et on admet que cette valeur correspond à la séparation juste possible de deux raies distinctes. La résolution est donc : R = σ0 /Δσ = xm σ0 . La dimension de l’interféromètre, lorsque est recherchée une résolution élevée, est déterminée par l’amplitude de déplacement du miroir mobile (égale à xm /2), donc λR 2 . On retrouve un facteur d’encombrement comparable à celui rencontré dans les spectromètres à réseau. Application typique : λ = 0.5 μm ; xm = 2 m ; R =
xm = 4 × 106 . λ
On peut montrer (exercice 8.2) que l’interférogramme doit être échantillonné par pas d’incrément Δx = 2σ1m , σm étant le nombre d’onde maximal contenu dans le spectre de la source. On obtient ainsi un nombre fini d’échantillons de I&0 (x), sur lesquels il est facile de faire une transformée de Fourier numérique. Notons de surcroît qu’il est possible de piloter l’échantillonnage sur la figure d’interférence I&1 (x) donnée par un laser de référence de nombre d’onde σR parfaitement connu. L’échelle des longueurs d’onde du spectre I0 (σ) est alors déterminée avec la même précision, ce qui représente un avantage sur le spectromètre à réseau qu’il est nécessaire d’étalonner avec des spectres de référence9 . Luminosité. Quelle est l’étendue de faisceau maximale admissible, sans que soit dégradée la résolution (détermination du facteur Q) ? Soit (Fig. 8.23) :
Fig. 8.23 – Champ de l’interféromètre. La surface S et l’angle im définissent l’étendue du faisceau ; S est la surface du faisceau au niveau de la lentille L1 (Fig. 8.22).
Ωmax = πi2m . Les rayons faisant l’angle i avec l’axe contribuent à l’angle solide : dΩ = 2πidi, 9 On rencontre chez certains auteurs la distinction entre le spectrographe qui requiert un étalonnage de référence, et le spectromètre, tel qu’ici, intrinsèquement précis dans son étalonnage en longueur d’onde.
8. L’analyse spectrale
501
et la variation de différence de marche qui leur est associée est : i2 , |dx| = x(0)idi car x(i) = x(0) 1 − 2 donc : dΩ =
2π dx. x(0)
La puissance transportée, due à une source de brillance unité, s’en déduit : 2π dΦ = S dx(i) T [x(i)] , x(0) le facteur T exprimant la modulation due à l’interférence des deux & − I(x) & ondes. La partie modulée du flux I(x) s’écrit, pour une source monochromatique de brillance unité : ∞ 2π D [x(i)] cos [2πσ0 x(i)] dx(i), Φ [x(0)] = S x(0) 0 où D est une fonction « diaphragme » représentant T en première approximation : i2m x(0), D = 1, x(0) ≤ x(i) ≤ 1 − 2 D = 0,
x(i) extérieur à cet intervalle.
Il vient alors : 2πS Φ [x(0)] = x(0)
i2m 1 πS TF {D [x(i)]} = sin c πσ0 x(0) 2 x(0) 2 i2 × cos 2πσ0 1 − m x(0), 4
ou simplement : Φ(x) =
i2 πS sin c σ0 x m cos 2πσ0 x. x 2
Le terme de modulation cos(2πσ0 x) est ici affecté d’un amortissement qui fait disparaître cette modulation, soit aux grandes différences de marche pour im donné, soit aux grands champs im pour xm donné. La modulation s’annule si : πσ0 x
i2m = kπ 2
soit
x=k
2πλ0 · Ω
La résolution étant R = xm /λ, l’étendue de faisceau est : U = SΩ = 2π
S R
soit
Q = 2π.
502
L’observation en astrophysique On voit donc apparaître l’avantage d’étendue du spectromètre à transformée de Fourier : à résolution égale à celle d’un réseau, l’étendue acceptée est dans le rapport : 2π ∼ 102 à 103 . β L’observation des sources étendues (c’est-à-dire dont la dimension angulaire n’était pas compatible avec la largeur de fente du spectromètre à réseau) est grandement facilitée. Notons que cet avantage est clairement lié à la symétrie de révolution de cette configuration interférentielle, symétrie que nous retrouvons dans le Pérot-Fabry. Le spectromètre holographique de Fourier. Le miroir mobile est un inconvénient du concept ci-dessus. Il a été proposé de remplacer l’un des (ou les deux) miroirs par un réseau, incliné de façon qu’il se comporte comme un miroir plan pour une longueur d’onde λ0 (réflexion de Littrow du réseau). Les longueurs d’onde voisines λ sont réfléchies à des angles différents et chacune d’entre elles donne un système de franges d’interférence rectilignes (de type coin d’air) sur le détecteur bidimensionnel. L’amplitude est proportionnelle à l’intensité I(λ) et une analyse de Fourier du signal restitue I(λ). Le nom vient de ce que la fréquence ν0 est ramenée à 0 (éclairement uniforme du détecteur) et produit donc un effet de type holographique (Douglas N. et al., Astroph. Sp. Sc., 171, 307, 1980).
Avantage multiplex Un raisonnement simple permet d’en saisir le principe, dû à Felgett : supposons, toutes choses égales par ailleurs, que l’on veuille déterminer, pendant un temps total de mesure T , le spectre I0 (σ) d’une source, dans l’intervalle (σ1 , σ2 ), avec la résolution R. Le nombre d’éléments spectraux est M . Supposons l’intensité comparable dans chaque élément spectral (spectre d’absorption ou continuum ; le raisonnement doit être modifié dans le cas d’un spectre formé d’un petit nombre de raies d’émission). Supposons la mesure faite par un récepteur tel que domine le bruit de récepteur (noté σR ). Dans le cas d’un balayage séquentiel du spectre, le rapport signal à bruit sur chaque élément spectral est : I0 (σ) (T /M ) r1 = · σR T /M En spectrographie de Fourier, la totalité du temps T est utilisée pour chaque élément spectral et le rapport correspondant est : r2 =
1 I0 (σ) T √ , 2 σR T
le facteur 1/2 provenant√de la perte de lumière sur la lame séparatrice. Le gain multiplex est donc M /2 et peut être très important pour des spectres
8. L’analyse spectrale
503
étendus à très haute résolution (Fig. 8.24). Historiquement, ce gain a permis d’imposer la spectrographie par TF comme l’outil optimal pour l’infrarouge, où a longtemps dominé le bruit de récepteur et où, jusqu’à la décennie 1990, l’on ne disposait pas de récepteur multicanaux permettant d’éviter le balayage séquentiel.
Fig. 8.24 – Progrès dans la mesure du spectre infrarouge de la planète Vénus, lors de l’émergence historique de la spectrométrie de Fourier. (a) Spectromètre à réseau dans la fenêtre atmosphérique autour de 1.6 μm. Quatre intenses bandes de rotation-vibration de la molécule CO2 sont visibles. (b) Spectroscopie de Fourier Δσ = 0.7 cm−1 . (c) Idem Δσ = 0.08 cm−1 . Les bandes de CO2 sont résolues. Le diamètre des différents télescopes utilisés est indiqué. (D’après Connes P., ARAA, 8, 209, 1970. Reproduit avec l’aimable autorisation de Annual Review of Astronomy c 1970, Annual Reviews Inc.) and Astrophysics, vol. 8, Néanmoins, même lorsque cet avantage disparaît avec le progrès des détecteurs, la spectroscopie par TF garde son avantage de luminosité, de très haute résolution (quelque 105 ) et d’étalonnage rigoureux en longueur d’onde. Soulignons enfin que rien n’interdit de combiner la capacité spectrographique de l’interféromètre par TF avec une capacité d’imagerie : il suffit de disposer dans le plan image une mosaïque de récepteurs. Les problèmes de
504
L’observation en astrophysique
traitement de signal deviennent rapidement formidables, qu’il s’agisse du stockage des données de mesure ou du calcul des spectres (exercice 8.3). Applications astronomiques Le spectromètre par TF a été considérablement utilisé entre 1960 et 2000 dans l’infrarouge proche, mais les progrès en sensibilité des détecteurs bidimensionnels l’ont peu à peu éliminé des observatoires terrestres. Il reste néanmoins utilisé dans l’espace, à cause de sa précision, sa compacité et son caractère multiplex. Utilisations au sol. Dans le domaine infrarouge accessible depuis le sol, les progrès des récepteurs conduisent à un bruit dominant dû au fond (thermique ou émission OH) dès λ 1.5 μm environ. L’avantage multiplex disparaît alors (exercice 8.4), mais l’avantage d’étendue demeure, lorsque les sources infrarouges observées sont étendues (1 arc sec). De surcroît, la longueur d’onde étant élevée, les contraintes de précision mécanique sont relaxées et le spectromètre par TF est un instrument relativement facile à construire. Aussi a-t-il équipé plusieurs grands télescopes (Fig. 8.25). Couplé à une mosaïque, il fonctionne alors en spectromètre intégral de champ (instrument bear du télescope cfht, Hawaii, Fig. 8.26). Utilisations dans l’espace. Un bel exemple est celui de la mission Herschel10 (Agence spatiale européenne), explorant à partir de 2008, depuis le point de Lagrange L2, le ciel dans l’infrarouge lointain et le submillimétrique, à l’aide d’un télescope refroidi de 3.5 m. L’instrument Spire (Spectral and Photometric Imaging Receiver ) est un spectromètre intégral de champ (2.6’) par transformée de Fourier, fonctionnant simultanément dans les deux bandes 200-300 μm et 300-670 μm, avec une résolution spectrale pouvant atteindre 1 000.
8.3.5
Le spectromètre de Pérot-Fabry11
Ce spectromètre (ou interféromètre) combine l’avantage d’étendue du spectromètre à TF (Q = 2π) et une résolution spectrale très élevée, tout en gardant un encombrement bien inférieur à celui des deux instruments précédents pour une résolution égale. Principe. Deux lames (Fig. 8.27) parallèles, supposées non absorbantes, ont un coefficient de réflexion r élevé (r 1) et de transmission t = 1 − r. Négligeant les réflexions sur les faces R0 et R0 , la transmission de l’étalon PérotFabry, illuminé par un rayonnement monochromatique de nombre d’onde σ 10 Voir
sci.esa.int/science-e/www/area/index.cfm ?fareaid=16. Fabry (1867-1945), physicien et opticien français, et Alfred Pérot (1863-1925), physicien français, ont collaboré à l’Observatoire de Marseille en y mettant au point l’interféromètre à ondes multiples et en y développant une éminente tradition d’optique. Tous deux ont enseigné à l’École polytechnique. 11 Charles
8. L’analyse spectrale
505
Fig. 8.25 – Spectromètre à transformée de Fourier, télescope Canada-FranceHawaii. L’instrument est symétrique, les signaux reçus par les deux détecteurs infrarouges sont I1 (x) et I2 (x). La quantité (I1 − I2 )/(I1 + I2 ) est indépendante des fluctuations atmosphériques. Le faisceau issu du laser He-Ne (visible) fournit les franges de référence contrôlant l’échantillonnage du signal infrarouge. Les faisceaux inférieur et supérieur sont spatialement séparés. L’ensemble est accroché au foyer Cassegrain du télescope. (D’après Maillard J.P., Michel G., I.A.U. Colloquium, 67, Reidel, 1982. Avec l’aimable autorisation de D. Reidel Publishing Company.)
sous l’incidence i, résulte de l’interférence à ondes multiples et s’exprime par la formule d’Airy : −1 2 4r r 2 1+ I = I0 . 2 sin (2πeσ cos i) 1−r (1 − r) Sous incidence nulle, l’étalon Pérot-Fabry (désigné par pf et ainsi dénommé car il permet d’étalonner une longueur d’onde en mesure physique de la distance séparant les lames, ou réciproquement) présente des pics de transmission pour : 2πeσ = mπ
soit σ =
m , 2e
m entier,
d’autant plus écartés en longueur d’onde que l’épaisseur e est grande. Le 1 nombre entier m est appelé l’ordre de l’interféromètre, Δσ = 2e est l’intervalle
506
L’observation en astrophysique
Fig. 8.26 – Spectroscopie intégrale de champ. Image à haute résolution spectrale et spatiale de jets (streamers) d’hélium, obtenue par l’instrument bear au CFHT (Hawaii), dans la raie à λ = 2.058 μm au voisinage immédiat du Centre de la Galaxie, après soustraction des contributions stellaires. La position de SgrA* est indiquée par une croix au centre du champ. (Paumard, T. et al., 2001, avec l’aimable autorisation de Astronomy & Astrophysics.)
Fig. 8.27 – Configuration interférentielle du Pérot-Fabry. (a) Dans l’UV, le visible et le proche IR, les lames sont en matériau transparent. (b) Dans l’infrarouge lointain et submillimétrique, les lames sont des grilles métalliques sans support.
8. L’analyse spectrale
507
spectral libre. Sous incidence nulle, la largeur à mi-hauteur δσ d’un pic de transmission est simplement donnée par : δσ 1−r 1 I0 ∼ πe δσ = √ , δσ = · I = , soit sin 2πe σ + 2 2 2 r 2eF Cette largeur est d’autant plus faible que le coefficient de réflexion r est élevé. On introduit la finesse du pf comme la quantité : F=
√ π r · 1−r
La résolution est alors donnée par l’expression : R=
σ = 2eF σ = mF . δσ
Elle est d’autant plus élevée que la finesse est grande et que l’ordre est élevé. Le pf ayant la symétrie de révolution autour de son axe, la figure d’interférence à l’infini, lorsqu’il est illuminé par un rayonnement monochromatique σ0 , est une série d’anneaux concentriques. Leur largeur angulaire à mi-hauteur δi est donnée par : mπ maximum de l’anneau : cos i = , 2πeσ0 4r δi 2 = 1. 2πeσ largeur δi : sin cos i + 0 2 2 (1 − r) Une lentille (ou miroir) placée derrière le pf forme l’image de ces anneaux dans son plan focal. L’étendue maximale admissible par un pf sans que soit dégradée la résolution résulte d’un calcul identique à celui fait plus haut pour l’interféromètre par TF. On obtient encore pour l’étendue admissible, S étant la surface de l’étalon : S U = 2π · R Utilisation en spectromètre. L’étalon pf peut être utilisé de différentes façons (Fig. 8.28). Dans toute configuration, il est d’abord nécessaire de le faire précéder d’un prédisperseur (autre étalon, filtre interférentiel, réseau...) qui isole sur le pf un seul intervalle spectral libre Δσ. En mode balayage, le PF, illuminé par un rayonnement quelconque de spectre I0 (σ), est suivi d’un diaphragme qui isole l’anneau central et le rayonnement est reçu sur le récepteur. On fait alors varier l’épaisseur e, et le signal du récepteur est proportionnel à l’intensité incidente I0 (σ). Il est également possible de faire varier la pression, donc l’indice de réfraction, d’un gaz placé entre les lames.
508
L’observation en astrophysique
Fig. 8.28 – Interférogrammes de la galaxie ngc 2903 obtenus à l’aide d’un PérotFabry à balayage dans la raie Hα (656.3 nm). La variation d’ordre est obtenue par des cales piézo-électriques d’épaisseur, l’intervalle spectral libre est ainsi balayé en 24 pas (12 sont représentés sur la figure). Chaque photon est enregistré sur une matrice 512 × 512 par une caméra à comptage de photons. Le nombre de photons mesuré est proportionnel à l’intensité émise à une vitesse Doppler donnée. On cartographie ainsi la vitesse radiale de l’hydrogène dans la galaxie. Temps de pose par pas : 5 min. (Observatoire de Marseille, télescope cfht de 3.6 m à Hawaii, Marcelin M. et al., Astron. Ap., 128, 140, 1983. Avec l’aimable autorisation de Astronomy and Astrophysics.)
8.3.6
Le spectromètre de Bragg (domaine X)
La première raie spectrale extragalactique observée en rayons X fut la raie 2p-1s du Fer XXIV observée dans les amas de galaxies Virgo, Coma et Perseus par le satellite oso-8 de la nasa. Cette observation (Fig. 8.29) utilisait le faible pouvoir de résolution des compteurs proportionnels, mais elle manifestait l’intérêt potentiel de la spectroscopie X. Le développement de celle-ci s’est fait en utilisant des cristaux comme réseaux diffractants mais ceux-ci, dès les années 1980, ont été remplacés par des réseaux de diffraction de type conventionnel, mais au pas serré (600 traits/mm), d’abord par transmission (mission européenne exosat) puis par réflexion (mission européenne xmmNewton, 1999), couvrant ainsi le domaine d’énergie 0.1-2 keV environ. Dans l’observatoire X chandra (nasa, lancé en 1999), le spectromètre à haute résolution sans fente (High Energy Transmission Spectrometer ou hetg)12 12 Voir
http ://space.mit.edu/CSR/hetg .
8. L’analyse spectrale
509
Fig. 8.29 – Émission X des amas de galaxies Virgo, Perseus et Coma, détectée lors de la mission spatiale oso-8. La résolution spectrale, inférieure à 10, obtenue par un compteur proportionnel et non par un réseau, met néanmoins en évidence une raie du fer à 7 keV. (D’après Serlemitsos P.J. et al., Ap. J., 211, L63, 1977. Avec l’aimable autorisation de l’Astrophysical Journal.) utilise un réseau par transmission, formé par un dépôt de microbarres d’or sur un substrat plastique. Qu’il s’agisse d’un cristal ou d’un réseau utilisés comme disperseur, le spectromètre X comprend également une caméra, sur laquelle se forme l’image dispersée (cf. § 7.4.6). L’obtention d’un pouvoir de résolution élevé (R ∼ 1 000) résulte de l’emploi, comme réseau diffractant, d’un cristal – par exemple le fluorure de lithium LiF. La diffraction de Bragg est obtenue sur un cristal de maille d (Fig. 8.30a) pour un angle θ donné par : λ · 2a De même qu’un montage de Rowland (Fig. 8.11) permet de former une image avec un réseau concave, de même un cristal courbé fournit d’un point source à l’infini une série d’images quasi stigmatiques monochromatiques (Fig. 8.30b). Si le cristal est disposé selon une sphère de centre C, les plans réticulaires (alignement des atomes) du cristal étant tangents à la sphère, la dispersion se fait suivant l’axe z et l’abscisse CI de l’image de la radiation de longueur d’onde λ est donnée par : r · CI = 2 sin θ La résolution R, permettant de séparer un intervalle d’énergie dE, est donnée par : λ r E = = · R= dE dλ 2 sin θdz sin θ =
510
L’observation en astrophysique
Fig. 8.30 – Diffraction de Bragg. (a) Plans réticulaires du cristal de maille d. (b) Cristal concave formant les pseudo-images d’une source située à l’infini. La maille du cristal LiF est de 2.01 Å, donnant θ = 25◦ pour une énergie E = 7.3 keV. La résolution R = 1000 correspond à dz = 1 mm pour r = 1 m. On dispose alors suivant l’axe z un compteur proportionnel qui fournit simultanément l’abscisse z du photon, donc son énergie, et l’intensité correspondante. La résolution spatiale du compteur proportionnel peut éventuellement limiter la résolution spectrale de l’ensemble. Si l’objet est étendu, le système, n’étant pas rigoureusement stigmatique pour un point-source à l’infini, donne une série de pseudo-images alignées sur z. Notons qu’un tel spectromètre est sensible à la polarisation du rayonnement : seule la composante du champ électrique parallèle à la surface du cristal est réfléchie sous l’angle de Bragg. Le satellite Einstein, entre 1978 et 1981 (High Energy Astronomical Observatory 2 ), a été équipé d’un tel spectromètre, fournissant une résolution de 50-100 jusqu’à 0.4 keV et de 100-1 000 au-delà (Fig. 8.31). La figure 8.32 montre un spectre obtenu vingt ans plus tard par l’instrument rgs de la mission européenne Newton-xmm.
Fig. 8.31 – Spectre d’un reste de supernova (snr ou supernova remnant), Puppis A, observé par le spectromètre à réseau courbé du satellite Einstein (heao-2) lancé en 1978. Les raies des ions sont identifiées. Noter le profil des raies, dû à la résolution limitée du spectromètre. (D’après Winkler P. F. et al., Ap. J., 246, L27, 1981. Avec l’aimable autorisation de l’Astrophysical Journal.)
8. L’analyse spectrale
511
Fig. 8.32 – Un spectre obtenu par le spectromètre rgs de la mission Newton. Spectre de l’étoile AB Doradus, étoile jeune et active, entre 2 et 0.3 keV. On voit un grand nombre de raies d’ions du fer, du magnésium, du néon. (Cliché Agence spatiale européenne, mission Newton-xmm, dû à la courtoisie de Jorge Sanz-Forcada.)
Notons enfin que, comme dans d’autres domaines de longueurs d’onde, une certaine sélectivité spectrale peut également être fournie par le récepteur lui-même(cf. § 7.4.6), dispensant alors de l’utilisation d’un système dispersif additionnel.
8.4
La spectrométrie des radiofréquences
Les spectromètres interférentiels reposent sur une sélectivité spectrale qui résulte du phénomène d’interférence de l’onde incidente avec elle-même. Le spectromètre hétérodyne obtient cette sélectivité par interférence de l’onde incidente avec une onde produite localement, l’ensemble étant analysé par un système de filtres électriques, ou par d’autres méthodes qui sont détaillées ci-dessous. Ces méthodes couvrent le domaine classique des radiofréquences : depuis les grandes longueurs d’onde (centimétriques à hectométriques) jusqu’aux plus courtes, dans le domaine millimétrique et submillimétrique qui commence à être exploré sérieusement au début des années 2000. Le principe de la réception hétérodyne, depuis les radiofréquences jusque l’infrarouge moyen, a été présenté en détail au chapitre 7 (§ 7.5) et implique un oscillateur local (ol), de fréquence très voisine de celle du rayonnement incident. Le changement de fréquence, par hétérodynage, transfère l’information portée par l’onde incidente dans un domaine de fréquences plus basses (fréquence intermédiaire ou fi), où se fait l’analyse spectrale éventuelle et la détection finale. Le récepteur demeure par principe limité à une étendue de cohérence λ2 , et à une direction de polarisation, mais il devient possible de juxtaposer des récepteurs pour former de petites mosaïques (3 × 3 ou 4 × 4), accélérant ainsi l’efficacité de réception d’une image. La production de cartes monochromatiques, soit dans le plan w des fréquences spatiales, soit dans le plan
512
L’observation en astrophysique
image θ, résulte de la combinaison de l’isolement spectral du rayonnement, des propriétés de formation d’image vues aux chapitres 5 et 6, et de celles des récepteurs vues au chapitre 7.
8.4.1
Les méthodes d’isolement spectral
L’isolement spectral, sur le signal de fréquence intermédiaire, peut se faire de diverses manières, examinées ici en détail : par l’usage de filtres électriques disposés en parallèle et isolant chacun une bande spectrale ; par l’usage de techniques acousto-optiques formant un réseau de diffraction ; par traitement purement numérique de ce signal, soit par corrélateur numérique, soit par transformation de Fourier rapide. Toutes ces méthodes s’appliquent indifférement, quel que soit le domaine spectral du submillimétrique au métrique, puisqu’elles traitent toutes le signal fi, et non directement le signal incident. Seul l’étage du mélangeur peut différer. Considérant les domaines allant de λ = 100 μm (ν = 3 THz), à λ = 10 cm (ν = 3 GHz), on recherche et obtient des bandes passantes de l’étage fi pouvant dépasser 1 GHz. Quelle est la résolution spectrale recherchée ? Lorsqu’un gaz présente une vitesse d’agitation thermique de quelques km s−1 , une raie spectrale d’émission ou d’absorption ∼ 10−5 , soit Δν = 14 kHz à λ = 21 cm, (Fig. 8.33) aura une largeur Δν ν 14 MHz à λ = 200 μm. Pousser la résolution spectrale à des valeurs bien supérieures à 105 -106 est de peu d’intérêt, puisque d’une part les raies spectrales sont plus larges, et que d’autre part il faudrait assurer alors une extrême stabilité de l’oscillateur local.
Spectromètre multicanaux à filtres La radio-astronomie, dans la seconde moitié du xxe siècle, s’est développée avec cette technique d’isolement spectral, qui tend à être abandonnée aujourd’hui (2007). Considérons le signal de fréquence intermédiaire (fi), obtenu à la sortie du mélangeur (Fig. 8.34). Une batterie de filtres, de fonction de transfert Hi (ν), de bande passante B, découpe la bande de fréquence Δν en N = Δν/B canaux, sur lesquels le signal fi est distribué en parallèle. Chaque filtre est suivi d’un détecteur quadratique, puis d’un commutateur comparant le signal à un signal de référence (source locale d’étalonnage, cf. § 3.4). Un intégrateur linéaire (filtre passe-bas, moyenne courante numérique...) de bande passante équivalente B0 réduit la variance des fluctuations, et la température de bruit résultante est donnée par : T = Tsyst
B0 B
1/2 ,
8. L’analyse spectrale
513
(a)
(b)
(a)
(b)
Fig. 8.33 – Raies typiques dans le domaine des radiofréquences 4.5 à 5 GHz. (a) Raies moléculaires du formaldéhyde H2 CO, de la formamide H2 CONH, structure fine du radical OH. (b) Raies de recombinaison de l’hydrogène et de l’hélium, séries α et β ; les valeurs du nombre quantique n sont indiquées. Une liste de transitions et de leurs fréquences se trouve dans AQ, § 2.12 et 2.14.
Tsyst étant la température de bruit système définie pour B0 = B. On notera que la moitié du temps total de mesure est utilisée pour l’étalonnage, doublant donc la puissance de bruit. Chacune des opérations ci-dessus est effectuée numériquement. En résumé, on obtient le spectre de la source dans un intervalle de fréquence Δν autour de la fréquence ν0 , avec la résolution R = ν0 /B, moyenné sur un intervalle de temps de l’ordre de B0−1 . Les spectromètres multicanaux (Fig. 8.35) peuvent comprendre jusqu’à 512 canaux fonctionnant en parallèle, la largeur B d’un canal pouvant être arbitrairement étroite, mais rarement inférieure à 1 kHz en pratique. Spectromètre acousto-optique Cette seconde méthode fait appel à un principe différent. Le signal de fréquence intermédiaire excite les vibrations d’un cristal piézoélectrique, lequel génère une onde acoustique ultrasonore dans un cristal de niobate de lithium
514
L’observation en astrophysique
Fig. 8.34 – Batterie de filtres en parallèle et fonction de transfert résultante. Le signal de fréquence intermédiaire, issu du mélangeur, est amplifié, puis distribué dans une série de filtres électriques disposés en parallèle, chacun isolant la bande spectrale B et fixant ainsi la résolution spectrale.
Fig. 8.35 – Spectre de la source galactique W49 OH (région H II très intense). Élément spectral B = 2 kHz. Nombre de canaux N = 100. Fréquences centrales ν0 respectivement égales à 1 665 et 1 667 MHz (raies du radical OH). Noter la structure complexe en vitesse radiale des différentes composantes de la source.
LiNbO3 . D’autres matériaux (dioxyde de tellure ou phosphure de gallium) permettent de varier la bande utile entre 0.2 et 2 GHz. Des essais prometteurs (2007) visent à remplacer l’excitation acoustique du cristal par une excitation laser, le cristal étant alors maintenu à basse température (∼ 4 K) pour augmenter la durée de vie des états métastables créés par le rayonnement laser. La bande pourrait alors atteindre 20 GHz.
8. L’analyse spectrale
515
Les fluctuations d’indice sur les plans d’onde successifs sont utilisées pour diffracter un faisceau laser visible (He-Ne par exemple ou diode laser solide). L’énergie diffractée se répartit sur un récepteur linéaire multi-canaux (une barette ccd de 1 024 ou 2 048 pixels), dont chaque pixel a une taille correspondant à l’étalement en fréquence de largeur B, voire inférieure pour obtenir un suréchantillonnage. La résolution en fréquence est limité par la diffraction et l’atténuation dans le milieu acousto-optique. Si le signal if est monochromatique, toute l’énergie diffractée est concentrée sur un pixel (réflexion de Bragg) et le spectre produit par la lecture séquentielle des diodes se réduit bien à un seul élément. Dans le cas d’un spectre moins simple, la répartition d’énergie sur les diodes est simplement proportionnelle au spectre if (Fig. 8.36).
Fig. 8.36 – Principe du spectromètre acoustique. On a reporté dans l’encart l’intensité du signal reçu par chacune des diodes : c’est la densité spectrale (spectre) du signal de fréquence intermédiaire (if) appliqué au cristal piézoélectrique. Pour la lisibilité de la figure, l’angle entre la direction incidente (laser) et la direction diffractée a été grossièrement exagéré : il fait quelques degrés au plus. Noter que la lentille forme sur le détecteur la transformée de Fourier du champ diffracté (cf. § 6.1).
Cet instrument particulièrement compact et d’une consommation en puissance faible (quelques watts) se prête bien à un embarquement aisé sur satellite. Ainsi la mission européenne Herschel (lancement en 2008) comprend un spectromètre acousto-optique (Wide Band Spectrometer hifi) avec quatre cellules juxtaposées (B = 1 GHz chacune), pour des observations entre 0.5 et 1.9 THz.
L’avenir verra peut-être émerger d’autres spectromètres procédant d’une inspiration analogue, par exemple l’utilisation d’ondes de surface, produites sur un solide par l’interférence entre deux lasers, et utilisables pour diffracter le signal de radiofréquence.
516
L’observation en astrophysique
Spectromètre à autocorrélation Les progrès en capacité et rapidité du traitement numérique donnent désormais à cette méthode la place principale dans tous les observatoires radioastronomiques, où le corrélateur est devenu l’outil standard de la spectrométrie aux radiofréquences. Le spectromètre à autocorrélation utilise la propriété de transformation intégrale qui, par transformation de Fourier, fait correspondre densité spectrale et autocorrélation (cf. Appendice I). Si I(ν) est le spectre – en fait une densité spectrale, comme déjà signalé – du signal fi dépendant du temps x(t), I(ν) est aussi la transformée de Fourier de l’autocorrélation R(τ ) de x(t) : R(τ ) = x(t)x(t + τ ). Au prix d’une certaine perte d’efficacité, résultant d’une numérisation de x(t) sur un petit nombre de bits, la numérisation de x(t), suivie d’un calcul d’autocorrélation, permet d’obtenir R(τ ) en temps réel, d’où découle immédiatement I(ν). La plupart des corrélateurs fonctionnent sur deux bits (1 et 0) avec une efficacité réduite à 0.6, mais parfois sur trois (1,0,-1) et jusque huit bits, l’efficacité atteignant alors 0.85. Un corrélateur peut couvrir jusque 250 MHz, et plusieurs corrélateurs peuvent fonctionner en parallèle pour couvrir une plage supérieure. La résolution spectrale B = 1/τmax est fixée par la largeur du support de R, donc par l’amplitude du décalage maximum τ choisi. Notons que la technique peut être généralisée à la corrélation croisée de deux signaux x1 (t) et x2 (t) : R12 (τ ) = x1 (t)x2 (t + τ ), qui permet par exemple d’étudier deux polarisations perpendiculaires et donne directement accès aux paramètres de Stokes. À titre d’exemple, présentons ici le corrélateur vespa (VErsatile SPectrometer Assembly), mis en service13 sur le radiotélescope millimétrique de 30 m de l’iram (Espagne) en 2002. Il couvre une bande fi de 480 MHz, pouvant être découpée en éléments spectraux de largeur B = 40 kHz, mais des modes spécifiques peuvent augmenter la résolution spectrale jusqu’à mieux que 10 kHz (soit une résolution en vitesse de 10 m s−1 à ν = 100 MHz), comme le montre la figure 8.37. Les spectres sont souvent représentés en fonction de la vitesse radiale lsr (cf. § 8.1).
Transformée de Fourier rapide (fft). Les progrès des ordinateurs en rapidité autorisent désormais à calculer directement, en temps quasi réel, le spectre du signal de fréquence intermédiaire (fi). Ce spectre n’est autre que le spectre de la source, simplement translaté en fréquence par le dispositif 13 www.iram.fr/iramfr/arn/dec02/node6.html.
8. L’analyse spectrale
517
Fig. 8.37 – Spectre d’un nuage moléculaire froid, obtenu avec l’instrument vespa sur le radiotélescope de 30 m de l’iram (Espagne) à 88 GHz (λ = 3.4 mm). Ordonnée : température d’antenne. Abcisse : fréquence convertie en vitesse. Résolution B = 30 MHz, et 3.3 kHz (correspondant à une largeur en vitesse du gaz de 11 m s−1 ) dans les inserts, mettant en évidence la structure hyperfine de la raie. (Document aimablement fourni par G. Paubert & C. Thum.) hétérodyne. Le radiotélescope millimétrique de 12 m, appelé apex (Atacama Pathfinder EXperiment) et installé au Chili sur le futur site du réseau millimétrique alma (cf. § 6.4), dispose ainsi d’un mode de traitement14 fournissant 16 384 canaux spectraux dans une bande totale de 1 GHz : la largeur de bande résolue est donc B = 61 kHz. Le radiotélescope métrique et centimétrique de Greenbank (États-Unis), de 100 × 110 m, possède également un tel système de traitement. Le rendement est en principe excellent, puisque le signal numérisé est directement traité.
8.4.2
La spectrométrie submillimétrique : 50 μm-1 mm
Ce domaine, qui est encore en 2007 assez largement inexploré, se situe entre le domaines optique plus classique (infrarouge moyen) et celui des radiofréquences. Qu’il s’agisse de la détection du rayonnement ou de la spectrographie, il emprunte le plus souvent ses méthodes d’observation à l’un et l’autre domaine. Très riche en raies spectrales, notamment d’origine moléculaire dans le milieu interstellaire, il contient aussi des raies tout à fait fondamentales, comme la raie de structure fine du carbone neutre CI à 492 GHz, ou celle de l’oxygène OI à 63 μm. L’observation dans ce domaine fait donc appel à des filtres optiques et des spectromètres à réseau de résolution modérée (<1 000), comme dans l’instrument pacs de la mission européenne Herschel (2008-2012) ou dans l’instrument irs de la mission Spitzer (2003-vers 2008), fonctionnant jusqu’aux 14 Voir
ce mode Fast Fourier Transform (fft) sur www.apex-telescope.org/instruments.
518
L’observation en astrophysique
Fig. 8.38 – Spectrométrie hétérodyne, utilisant un laser comme oscillateur local. longueurs d’onde proches de 200 μm. Mais la mission Herschel comprend également un spectromètre hétérodyne à très haute résolution, l’instrument hifi, couvrant le domaine 280-1 910 GHz (157-1070 μm). Il fonctionne sur le principe, classique aux radiofréquences, d’un oscillateur local et de mélangeurs : jonction sis (supraconducteur-isolant-supraconducteur) ou bolomètres à électrons chauds (cf. § 7.3). De même, le télescope aéroporté sofia15 est équipé d’un spectromètre hétérodyne couvrant le domaine 250-600 μm pour l’étude du milieu interstellaire16 . Considérons à nouveau (Fig. 8.38) le montage de détection hétérodyne, la source locale étant un laser, le mélange se faisant sur un détecteur quadratique quantique, de rendement η, à la sortie duquel est disponible le signal fi, de fréquence νs − ν0 . Le courant à la sortie du détecteur s’écrit :
E02 + Es E0 cos 2π (νs − ν0 ) t , i(t) ∝ η 2 en négligeant le terme en Es2 (Es E0 ), ainsi que le terme de fréquence somme, trop élevé pour la réponse en fréquence du détecteur. Après filtrage (bande B) et intégration linéaire (bande équivalente B0 ), le rapport signal à bruit est, en puissance : Ps η · 1/2 hν (BB0 ) Notons que si B = B0 , on retrouve l’expression ηPs /hνB, c’est-à-dire que la puissance minimale P détectable (signal/bruit = 1) correspond à un photoélectron par hertz de bande passante (cf. § 7.2). 15 Ce télescope, porté par un avion quadriréacteur B-747, est commun à la nasa et à l’agence spatiale allemande dlr (Deutsches Luft- und Raumfahrt). Il a fait son premier vol en 2007 (cf. § 5.2). 16 Cet instrument casimir est décrit à l’adresse www.sofia.usra.edu/Science/instruments/.
8. L’analyse spectrale
519
Dans le cas particulier où la source est un corps noir de température T , donc de brillance : −1 2hν 3 hν/kT e W m−2 sr−1 Hz−1 , − 1 c2 l’étendue de faisceau est λ2 , puisque la cohérence du champ incident est requise dans ce principe de mesure ; on en déduit le rapport signal à bruit idéal : $ %−1 B 1/2 2η ehν/kT − 1 . B0 Un tel spectromètre n’est limité en résolution que par la stabilité en fréquence de l’oscillateur local et par la largeur B du filtre. Extension à l’infrarouge moyen. La limite entre le domaine submillimétrique et le domaine infrarouge est floue quant aux techniques employées, comme déjà souligné. Donnons à titre d’exemple, ici, un spectromètre hétérodyne infrarouge réalisé dès 1983 (Fig. 8.39). L’oscillateur local est un laser 14 C16 O2 émettant à 829.93 cm−1 , et le détecteur un mélangeur photoconducteur en HgCdTe, de bande passante
Fig. 8.39 – Spectrométrie hétérodyne dans l’infrarouge moyen (10.6 μm). Mesure d’une raie de l’éthane (C2 H6 ) de la planète Jupiter. Étendue de faisceau λ2 , soit un champ de 2” avec un télescope de 1.5 m. Les raies de rotation, correspondant aux niveaux J = 16 et 17, sont ajustées par un modèle (– – –), corrigé de la rotation de la planète qui élargit les raies (—). Bruit estimé σ (à gauche). (D’après Kostiuk T. et al., Ap. J., 265, 564, 1983. Avec l’aimable autorisation d’Astrophysical Journal.)
520
L’observation en astrophysique Δν = 1.6 GHz. La bande intermédiaire est BF I = 25 MHz, et la résolution de 106 .
8.5
Le spectromètre à résonance
Une méthode particulièrement élégante de spectrométrie repose sur le principe suivant : une vapeur atomique est illuminée par le rayonnement à analyser. Si celui-ci contient des photons dont la fréquence ν est égale à la fréquence ν0 caractéristique d’une transition entre deux niveaux de l’atome de la vapeur, l’absorption de ces photons sera rigoureusement sélective. Si l’on choisit une transition telle que le niveau d’énergie inférieur soit l’état fondamental, donc très peuplé, et le niveau excité un niveau de résonance, donc de probabilité d’excitation très élevée, on maximise le nombre de photons susceptibles d’être absorbés. On mesure ce nombre en détectant les photons réémis par désexcitation spontanée du niveau supérieur, dont le nombre est proportionnel à celui des photons incidents (Fig. 8.40).
Fig. 8.40 – Spectromètre à résonance. Les photons réémis par la vapeur sont mesurés par le photomultiplicateur 1, tandis qu’un signal proportionnel au rayonnement incident est mesuré par le photomultiplicateur 2. Le rapport des deux devient indépendant d’éventuelles fluctuations de la transmission atmosphérique ou instrumentale.
Une condition d’accord assez générale est : Vsource/cuve Vsource Vvapeur eB + = + , c c c 4πm où l’on inclut la vitesse thermique des atomes de la source et de la vapeur (petites devant c), le mouvement relatif entre la source (le Soleil par exemple) et la cuve réceptrice (liée à la Terre ou à un satellite dans l’espace), ainsi qu’un décalage Zeeman éventuellement imposé aux
8. L’analyse spectrale
521
atomes de la vapeur par une induction magnétique B. En faisant varier B, on peut ainsi balayer le profil de la raie excitatrice. Une vapeur de température T peu élevée conduit à Vvapeur Vsource , et le pouvoir de résolution maximum d’un tel spectromètre est donné par : R≈
c Vvapeur
≈c
$ m %1/2 3kT
(m = masse des atomes de la vapeur).
Avec T = 500 K, il vient R ≈ 2 × 105 pour une cuve à sodium.
Bien que d’emploi limité à des cas particuliers favorables, ce type de spectromètre à résonance a été employé avec succès pour la mesure des oscillations photosphériques du Soleil ou d’étoiles (années 1980), lorsque les vitesses à détecter sont de quelques cm s−1 , ou pour l’étude du champ de vitesse de l’hydrogène interstellaire.
Exercices Exercice 8.1. Résolution d’un spectromètre de Fourier. Soit un interférogramme enregistré entre les différences de marche optique 0 et xm , soit I(x). (i) Montrer que l’interférogramme observé s’écrit simplement comme le produit de l’interférogramme complet (x variant de −∞ à +∞) par une fonction porte appropriée. En déduire le profil instrumental du spectromètre. (ii) Montrer qu’en multipliant l’interférogramme observé par une fonction bien choisie, il est possible de modifier le profil instrumental, par exemple de perdre en résolution pour diminuer les ailes du profil. Examiner l’emploi des fonctions multiplicatives : x – cos π , 2xm – 1−
x si < xm ; 0 si x > xm (fonction triangle). xm
Cette opération de pondération de l’interférogramme est appelée apodisation (parce qu’elle supprime les « pieds » de la réponse instrumentale). Il est également possible d’apodiser une pupille par l’emploi d’un masque d’amplitude ou de phase adéquat (cf. § 6.6). Réponse (i) L’interférogramme observé est tronqué : I(x) = Ic (x)Π(x/xm ). Dans l’espace des fréquences : & I(σ) = I&c (σ) sin c(xm σ),
522
L’observation en astrophysique
donc la réponse impulsionnelle spectrale s’écrit : sin c(xm σ). (ii) Multiplier l’interférogramme par le cosinus revient à modifier la réponse impulsionnelle du spectromètre en : " # x TF P (x/xm ) cos π . 2xm Le profil obtenu est plus large puisque les fréquences élevées sont filtrées mais les pieds du profil sont plus propres (Fig. 8.41).
Apodisé Non apodisé
Fig. 8.41 – Exemple d’apodisation. En trait plein, réponse impulsionnelle d’une pupille circulaire (fonction d’Airy). En tireté, la réponse impulsionnelle d’une pupille circulaire, apodisée par une fonction triangle. Noter l’élargissement du pic central et la forte diminution des ailes.
Exercice 8.2. Échantillonnage en spectroscopie de Fourier. Soit σM le nombre d’onde le plus élevé contenu dans le spectre de la source. Quel est le pas Δ du miroir mobile à choisir pour que soit convenablement échantillonné (au sens du théorème de Shannon) l’interférogramme correspondant à cette radiation ? (On montrera aisément que la question revient à déterminer l’échantillonnage minimal d’une fonction sinusoïdale.) Exercice 8.3. Imagerie et transformée de Fourier. La capacité multiplex d’un spectromètre à transformée de Fourier, combinée à l’utilisation d’un récepteur à lecture digitale et à grand nombre de pixels, permet en principe d’obtenir simultanément un grand nombre d’images monochromatiques, adjacentes en fréquence, d’une source. Si l’objectif est d’obtenir de telles images sur un champ de 1 × 1 arc min, la qualité d’image, limitée par l’atmosphère, étant
8. L’analyse spectrale
523
de 0.5 arc sec, et la résolution recherchée de 5 × 104 , calculer le nombre total d’informations cumulé dans l’ensemble des interférogrammes, chaque point étant digitalisé sur 16 bits. Réponse La résolution recherchée impose xm : R = σxm et l’échantillonnage de l’interférogramme demande : Δx = 1/2σ d’où le nombre d’images nécessaire : N = xm /Δx. Par ailleurs, l’information d’une image est codée sur : (2 × 60)2 × 16 = 2.3 × 105 bits, (La dynamique numérique ainsi obtenue avec 16 bits est alors de 216 soit environ 65 000, ce qui est adapté à la dynamique habituelle des détecteurs ccd.) Donc finalement ce cube d’information est codé sur 23 Gbits. Exercice 8.4. Un spectromètre à transformée de Fourier est utilisé dans la bande photométrique M (cf. § 3.4), associé à un récepteur de bonne performance (puissance équivalente de bruit ou nep de 10−16 W Hz−1/2 ). Calculer le bruit de photons (bruit thermique) dû à l’émission thermique de l’atmosphère. On supposera l’émissivité de celle-ci égale à 0.05, et l’étendue de faisceau fixée par un télescope de 4 m ayant un champ, vu par le détecteur, de 10 arc sec. Montrer qu’alors l’élargissement de la bande spectrale que permet le spectromètre (avantage multiplex ) ne conduit pas à une amélioration du rapport signal à bruit.
This page intentionally left blank
Troisième partie
Analyser l’information
This page intentionally left blank
Chapitre 9 Le signal en astronomie L’astronomie s’est développée en poussant souvent les performances instrumentales à leurs limites. Bien des découvertes résultent à la fois d’une conception instrumentale soucieuse de réduire les bruits et d’un traitement de signal performant. La lumière (ou tel autre porteur d’information) issue de la source traverse divers milieux l’affectant sur son chemin, puis l’atmosphère terrestre le cas échéant. Elle atteint alors le système d’observation et ses composantes : formation de l’image par le télescope, analyse spectrale par le spectromètre, détection par le récepteur où est finalement produit le signal, mesurable et stockable : le signal est pour l’astrophysicien la traduction de l’information issue de la source, c’est sur ce signal qu’il va travailler à l’interprétation des observations. Depuis le début de la décennie 1990, une véritable révolution dans le traitement du signal est advenue, due à l’informatique. Celle-ci offre la possibilité de numériser toute information fournie par un instrument, lui-même commandé de façon précise et automatisée, de la stocker sous forme rapidement accessible et en quantité pratiquement illimitée, de la traiter avec des algorithmes d’une extrême complexité mais néanmoins en des temps de calcul demeurant raisonnables. Instruments et systèmes d’observation, comparaison des données à un modèle, utilisation d’informations connues a priori pour réduire les incertitudes causées par le bruit ou les limitations d’un instrument donné, voici autant de pratiques nouvelles marquées par un traitement extrêmement élaboré du signal astronomique. Celui-ci bénéficie à l’évidence d’outils mis au point dans une grande diversité d’applications, mais il peut aussi apporter à la communauté scientifique des idées originales, nées des particularités – exigence de sensibilité ou de qualité d’image par exemple – propres à l’observation astronomique. Après un bref survol des aspects élémentaires du traitement du signal, ce chapitre montre comment un système d’observation peut être intégralement modélisé dans un ordinateur, et son fonctionnement simulé dans toutes les
528
L’observation en astrophysique
configurations concevables. On rejoint ici une pratique courante, propre aux systèmes complexes : un avion est ainsi modélisé intégralement avant de réaliser son premier vol. Les chapitres précédents ayant traité individuellement des divers sous-systèmes, tels que dispositifs d’imagerie, de spectrographie, récepteurs, nous donnons ensuite, à partir de quelques exemples concrets, une vision plus globale de l’ensemble de quelques systèmes, tels qu’ils fonctionnent dans la réalité d’une observation – radiotélescope, optique adaptative dans l’infrarouge, satellite photométrique, observatoire γ. Nous pouvons ainsi déterminer si l’observation souhaitée de telle source astronomique est possible. La correction maximale de tous les effets dus à des propriétés connues de l’instrument – ce qui est désigné par le terme de signature instrumentale – est traitée dans la section qui suit. Puis vient une section plus mathématique, qui propose les concepts les plus fréquemment utilisés dans le problème de l’estimation, où l’on cherche à remonter aux propriétés de l’objet observé, à partir des données obtenues, en s’aidant le cas échéant de toute information a priori vraisemblable, de tout modèle disponible concernant cet objet. La dernière section traite des outils mis en œuvre pour résoudre ce problème inverse, et présente un certain nombre d’applications au problème du traitement des images, central dans l’exploitation et l’interprétation des observations en astrophysique. Nous avons renvoyé au chapitre 10 la question de l’archivage et surtout de l’accessibilité du volume immense de données produites par l’ensemble des instruments astronomiques en service, ou l’ayant été, sur la Terre ou dans l’espace. Certains des outils mathématiques nécessaires – transformation de Fourier, probabilités et statistique –, utilisés dans ce chapitre mais aussi tout au long de l’ouvrage, sont traités en appendices I et II afin de garantir autant que faire se peut l’homogénéité des notations.
9.1
Le signal et ses fluctuations
Examinons successivement le rôle du récepteur, le rapport entre le signal et l’information issue de la source et enfin les perturbations ou bruits que subit le signal lors d’une observation.
9.1.1
Le signal et le système d’observation
Un détecteur ou récepteur (on emploie également le terme général de transducteur ) transforme le flux de photons qui l’atteint en courant, tension, charge, etc., toutes quantités mesurables et enregistrables, le plus souvent numérisées aussitôt et traitées par ordinateur. Si le détecteur a une capacité d’imagerie, il fournit N informations distinctes, chacune correspondant à un élément d’image de champ dω (angle solide) ou pixel.
9. Le signal en astronomie
529
Une classe de systèmes de réception, particulièrement importants en astronomie (interférométrie, cf. § 6.4) présente la particularité remarquable d’échantillonner l’information provenant de la source, non pas dans l’espace θ du plan du ciel, mais dans un espace conjugué par transformation de Fourier. Ainsi, au lieu de définir l’élément d’information par sa direction d’observation le caractérisera-t-on par sa position dans l’espace conjugué, celui des fréquences spatiales. Au lieu de mesurer la quantité I(θ)δω, intensité spécifique reçue de la direction θ dans l’angle solide δω, on mesurera dans un intervalle de fréquence spatiale dw la quantité : ˜ I(w) = I(θ)e−2iπθ.w dθ. La transformation de Fourier étant biunivoque, il est clair que la connaissance ˜ de I(w) sur tout l’espace w sera complètement équivalente à la connaissance de I(θ) sur toutes les directions θ de l’espace. Les méthodes de synthèse d’ouverture (cf. Chap. 8) font appel à cette façon de procéder. De même, le filtrage spectral est défini comme isolant dans la densité spectrale du rayonnement incident S(ν) un élément spectral de largeur en fréquence Δν. Il est équivalent d’échantillonner l’information dans un intervalle de temps Δt, en mesurant la transformée de Fourier de la distribution spectrale du rayonnement (cf. Chap. 8). Il est également possible de coupler les deux approches, comme le schématise le tableau 9.1, où sont indiquées par (•) dans chacune des cases les deux variables échantillonnées par le système considéré. Le signal peut donc prendre, on le voit, des formes très variées, extrayant l’information issue de la source selon un filtre spécifique.
9.1.2
Les fluctuations du signal. Notion de bruit
Le signal brut délivré par un récepteur se présente le plus souvent sous la forme : x(t) = xs (t) + b(t), expression dans laquelle apparaissent le signal issu de la source xs (t) et la quantité b(t) qui peut indifféremment représenter un signal de fond, un bruit de fond, un bruit propre de récepteur, ou les trois. Le problème posé est d’une part de connaître les causes et caractéristiques du bruit b(t), d’autre part d’optimiser l’acquisition et l’enregistrement de x(t). Idéalement, pour une source d’intensité donnée, on pourrait penser que la quantité x(t) mesurée par le système de réception a une valeur parfaitement définie. Dans la réalité observationnelle et physique, il n’en est rien, et x(t) présente le plus souvent un caractère de variable ou de processus aléatoire, et nous le notons désormais en gras x. La mesure physique réalisée de x(t) consiste à tirer une issue ζ de ce processus aléatoire ou stochastique (abrégé en p.s. dans ce qui suit). Une mesure
530
L’observation en astrophysique
Tab. 9.1 – Exemples d’échantillonnage de l’information. • Direction • Fréquence temporelle Ex. : miroir + diaphragme de champ + plaque photographique + filtre spectral • Fréquence spatiale • Fréquence temporelle Ex. : réseau de radiotélescopes + filtre électrique
• Direction • Énergie Ex. : masque codé γ + scintillateur
• Direction • Temps Ex. : récepteur d’image + spectromètre par transformée de Fourier • Fréquence spatiale • Temps Ex. : réseau de télescopes infrarouges + Spectromètre par transformée de Fourier • Direction • Polarisation Ex. : télescope submillimétrique + récepteur hétérodyne
faite sur l’intervalle ΔT ne sera significative du processus que moyennant un certain nombre de conditions restrictives importantes : par exemple stationnarité ou ergodisme. Les causes de fluctuation, responsables du caractère aléatoire du signal, sont multiples : certaines sont des parasites de la mesure et peuvent être éliminées ou compensées : d’autres sont de nature fondamentale et liées à la physique même du processus d’émission ou de détection, ou encore à la nature quantique, discrète de l’interaction électromagnétique (cf. § 7.2). On appellera bruit le phénomène de fluctuation dont l’effet est d’introduire un écart aléatoire, voire un biais, entre les estimateurs du signal, c’est-à-dire les mesures faites sur un temps ΔT , et les valeurs moyennes vraies du signal. La quantité rapport signal à bruit est une estimation de la valeur relative de cet écart entre l’estimateur et la quantité recherchée. Cette notion de signal à bruit ou signal sur bruit (expression qui évoque le rapport de deux quantités et se note S/B), fait toujours référence à la mesure d’une quantité particulière, il n’existe pas de signal à bruit intrinsèque. Si x désigne une variable aléatoire positive, visant à estimer la grandeur physique x, alors le rapport S/B de cette mesure est, par définition, égal à la moyenne de x divisée par son écart-type. Bruit de fond En l’absence de tout signal issu de la source, le récepteur peut néanmoins délivrer un signal x0 (t) ayant un caractère de p.s. Donnons-en quelques exemples. D’autres bruits, caractéristiques des récepteurs, ont été introduits au chapitre 7. Courant d’obscurité (bruit de récepteur). Même en l’absence de photons incidents sur sa cathode photo-émissive, un photomultiplicateur ou les pixels d’un ccd délivrent un photocourant non nul, formé d’impulsions
9. Le signal en astronomie
531
électroniques aléatoires, dues à l’extraction de celles des charges dont l’énergie d’agitation thermique dépasse le potentiel d’extraction du métal ou le gap du photoconducteur. La statistique de ces fluctuations a été étudiée au § 7.2. La quantité x0 (t) est appelé le courant d’obscurité ; s’ajoutant au signal de la source, les fluctuations de x0 (t) entraînent des fluctuations du signal mesuré. Grain de la plaque photographique (bruit de récepteur). Une plaque vierge d’exposition, puis développée, présente un noircissement aléatoire X0 (x, y) en un point (x, y) de la plaque. Cette quantité a une valeur moyenne non nulle – fond continu ou voile – et un écart-type qui est le bruit de fond de la plaque causé par le grain de l’émulsion. Fond parasite γ. Une chambre à étincelle, utilisée comme détecteur dans un télescope à photons γ, détecte, même en l’absence de rayonnement provenant de la source, des événements : photons γ produits par l’interaction du rayonnement cosmique avec l’atmosphère de la Terre (cf. § 2.9) ou le corps du détecteur, radioactivité naturelle, etc. Ces événements aléatoires donnent un signal, dont la valeur moyenne – nombre moyen de coups parasites par unité de temps – est le signal de fond, et dont l’écart-type est le bruit de fond (Fig. 9.1). Rayonnement cosmique sur les ccd. L’impact d’une particule de haute énergie sur le matériau photoconducteur d’un ccd va créer par photoionisation un nombre important de charges, qui seront détectées comme si elles provenaient de photons incidents. Ce signal parasite affecte un ou plusieurs pixels et devra être éliminé de l’image finale. Le niveau d’événements dépend de la localisation du récepteur (sol, espace, altitude, traversée d’une ceinture de particules, etc.). Au sol, il est de l’ordre d’un événement par trame (soit la totalité des pixels), pour un format de 256 × 256 pixels, et par minute de temps d’observation. Bruit de fond thermique dans l’infrarouge. Un détecteur placé au foyer d’un télescope infrarouge ou submillimétrique reçoit des photons même en l’absence de source dans le champ : photons thermiques émis par l’atmosphère de la Terre, par les miroirs du télescope ou par les éléments optiques traversés (fenêtres, filtres, etc.). Ce flux de photons produit un signal moyen de fond (en anglais, background ), dont les fluctuations sont appelées bruit de fond thermique (en anglais thermal background noise, cf. § 7.2). Dans tous ces cas, il conviendra de connaître la nature et la statistique du processus x0 (t) pour déduire son effet sur la mesure du signal x(t). Bruit de signal Le signal provenant de la source étudiée présente également des fluctuations aléatoires. Bruit de transmission (bruit multiplicatif). Lorsque les caractéristiques d’absorption du milieu varient de façon aléatoire dans le temps, le signal
532
L’observation en astrophysique
Fig. 9.1 – Bruit de fond mesuré lors d’une observation du rayonnement γ dans la stratosphère terrestre. La courbe lisse donne le bruit de fond modélisé comme superposition du fond local atmosphérique, de la diffusion élastique des neutrons et de la radioactivité β induite. La courbe bruitée, en bon accord avec le modèle, est le résultat des mesures dans le domaine spectral 5 keV-10 MeV. Tout signal d’origine astronomique viendra se superposer à ce bruit. (Instrument Hexagone sur ballon stratosphérique, altitude 3.6 mbar, Alice Springs, Australie, 1989. Document dû à G. Védrenne).
transmis se présente sous la forme : x(t) = A(t)xs (t), où xs (t) est le signal de la source et A(t), une transmission fluctuante. Ce sera le cas en présence du phénomène de scintillation aux fréquences visibles ou radio, phénomène lié aux fluctuations d’indice de l’air (cf. § 6.2) ou de la densité électronique dans l’ionosphère. Ce sera également le cas dans l’infrarouge, lorsque varie la quantité d’eau dans l’atmosphère terrestre.
9. Le signal en astronomie
533
Bruit de signal (bruit thermodynamique, bruit de photons). Une onde électromagnétique émise par un processus thermique (corps noir) présente un caractère incohérent. Le champ E(t) est un processus aléatoire, dont les fluctuations s’expliquent par l’absence de relation de phase entre l’ensemble des atomes qui rayonnent ce champ macroscopique. Une description en termes de photons peut également être donnée : l’arrivée des photons de la source est une fonction aléatoire, dont la valeur moyenne est le flux moyen reçu. L’énoncé rapide des différentes sources de fluctuation permet de les classer en trois grandes catégories : – Limitations fondamentales, d’origine thermodynamique, liées à la nature physique du rayonnement (bruit de photons du signal), à son incohérence ou à son interaction avec la matière dans le processus de réception (bruit ultime de récepteur). – Limitations pratiques, dues à la qualité des récepteurs qui peuvent être réalisés à un certain stade, un état de l’art et de la technologie. Ces limitations sont évidemment susceptibles d’améliorations constantes : ainsi, le bruit propre des récepteurs utilisés dans le proche infrarouge (entre 1 à 10 μm) est-il caractérisé par un écart-type dont la valeur a été divisée par environ 108 , soit un gain de huit ordres de grandeur, entre 1960 et 1990, tandis que le format passait de 1 pixel à près de 107 pixels en 2007 ! – Limitations observationnelles, où le signal est affecté par l’environnement dans lequel se fait l’observation. Ces conditions d’observation peuvent presque toujours être améliorées : changement de la configuration de l’instrument, changement de site, élimination de l’atmosphère terrestre par observation spatiale, etc. Rappelons que les limitations fondamentales ont été étudiées au § 7.2, ainsi que les performances pratiques des récepteurs. Il est bien évident que les limitations fondamentales fixent les performances ultimes que l’on peut espérer d’un système de mesure. Rapport signal à bruit. Limite de détection Le signal x(t) étant une réalisation d’un processus aléatoire, l’extraction de l’information qu’il contient devient une estimation (cf. Appendice II et § 9.5). Le degré de confiance à accorder à cette estimation va dépendre du type d’information contenu dans le signal, ainsi que de la statistique des fluctuations dont il souffre. Écrivons le signal sous la forme : x(t) = x0 (t) + xs (t),
534
L’observation en astrophysique
Dans le cas de bruits additifs statistiquement indépendants, la variance du signal s’écrit : σx2 = σx20 + σx2s . Traitons le cas simple où la quantité recherchée est la valeur moyenne xs : il s’agira par exemple de mesurer un spectre en estimant au mieux l’intensité dans chaque élément spectral. Admettons que x0 (t) peut être estimé avec une incertitude relative faible par une expérience indépendante (détermination des propriétés statistiques du bruit). Il vient alors1 : estimation du signal = x(t)T − x0 (t) . Si les statistiques de xs (t) et de x0 (t) sont connues, alors σx0 et σxs le sont et l’estimation du rapport signal à bruit est :
x(t)T − x0 (t) S = 1/2 · B σx20 + 2σx2s Si les statistiques ne sont pas connues, il faut déterminer une estimation des quantités σx0 et σxs en répétant la mesure pour que les moments d’ordre suivant (variance de la variance) soient petits (cf. § 9.5). Enfin, si x0 (t) ne peut être déterminé sans erreur, on aura : estimation du signal = x(t) – estimation de x0 (t) , et : rapport signal à bruit =
estimation du signal · 1/2 [σx2 s +2σx2 0 ]
Quelle est la valeur de ce rapport qui permet d’affirmer que la source est détectée ? La réponse à cette question nécessite une hypothèse sur les propriétés statistiques du processus aléatoire qu’est le bruit. La détermination du signal à partir des mesures est donc une estimation. Il faut veiller à utiliser des estimateurs non biaisés ou à corriger des biais éventuels (cf. Appendice II et § 9.5.4). Par exemple, pour estimer la variance du bruit afin d’établir le rapport signal à bruit, une simple estimation de la variance sur l’échantillon des mesures donne une valeur biaisée qu’il convient de corriger. On utilise également le terme de biais d’une façon plus générale : on veut mesurer une grandeur physique X fournie par un instrument de mesure ; or celui-ci fournit en réalité X + B, où B est un biais de mesure causé par un signal parasite, un fond, etc. Il faut alors estimer indépendamment B pour soustraire le biais. 1 Nous désignons dans l’ouvrage la valeur moyenne d’une quantité aléatoire par l’opérateur <>, notation classique chez les physiciens ; nous ajoutons si nécessaire en indice la quantité dont dépend la variable aléatoire : le temps t par exemple <>t . Nous utilisons aussi parfois la notation à l’aide de l’espérance, plus propre aux mathématiques : E{}.
9. Le signal en astronomie
535
Bruit gaussien. Soit un signal que nous représentons par : x(t) = xs + B(t), où B(t) est un p.s. gaussien, stationnaire, de valeur moyenne nulle, d’autocorrélation R(τ ) et de densité spectrale S(f ) que nous supposons approximativement constante2 (bruit quasi blanc) pour f fc (Fig. 9.2). Soit une mesure faite pendant une durée T .
Fig. 9.2 – Caractéristiques spectrales d’un bruit gaussien particulier : la densité spectrale SB (f ) est quasi constante (blanche) aux fréquences f fc .
Quel est le degré de confiance à accorder à l’estimation x ˆ de x(t) donnée par : 1 T x ˆ= x(t)dt ? T 0 On montre (cf. Appendice II) que : σx2ˆ =
R(0) · 2fc T
La loi normale de probabilité donne alors un degré de confiance pour les intervalles sur xs , par exemple ±σ, ± 3σ, etc. (cf. Tab. II.1, Appendice II). Le théorème central limite3 amènera à considérer comme gaussiennes un grand nombre de fluctuations rencontrées dans les mesures. En présence de bruit gaussien, un intervalle de confiance égal à ±1.5 σ est souvent retenu comme satisfaisant. Toute courbe publiée, tout résultat de mesure doivent, pour être intelligibles, comprendre une barre d’incertitude ±nσ reliée à l’écart-type σ. Rapport signal à bruit et temps d’intégration. On remarque que la relation : R(0) σx2ˆ = , 2fc T 2 Un bruit blanc a une densité spectrale constante quelle que soit la fréquence. Ceci ne peut correspondre qu’à un cas asymptotique sans réalité physique, car un tel bruit posséderait alors une puissance infinie. 3 Le terme français est la traduction du terme original employé en allemand par G. Polya, mathématicien hongrois : Zentralen Grenzversatz , qui signifie « Théorème établissant une limite jouant un rôle central en théorie des probabilités ». Les traductions sont souvent incorrectes.
536
L’observation en astrophysique
indique que l’écart-type du bruit décroît généralement comme la puissance –1/2 du temps de mesure, mais nous avons rencontré des exceptions à ceci. Ce résultat, très général, fixe une limite pratique à l’augmentation des temps de mesure lorsqu’une amélioration du rapport signal à bruit est recherchée, compte tenu de la vie moyenne d’un astronome ! Il est en effet tout à fait raisonnable de gagner un facteur 103 en faisant passer T de 1 μs à 1 s, un facteur 300 en passant d’une seconde à un jour, mais peu envisageable de gagner un nouveau facteur 200 en passant d’un jour à un siècle ! Tout ceci sous-entend évidemment que le bruit soit stationnaire pendant la durée considérée et que la quantité xs recherchée ne fluctue pas pendant cette même durée. On observe parfois que cette loi n’est plus vérifiée pour des objets faibles qui se superposent à un fond important d’émission du ciel. La soustraction du fond de ciel (cf. § 2.3) crée alors un bruit qui augmente comme T 1/2 lorsque ce fond est intense. Le rapport signal à bruit, au lieu de continuer à augmenter avec T , tend vers une constante lorsque T croît. Il est possible, dans certains modes d’utilisation (dits va-et-vient) d’un détecteur CCD, de soustraire le fond à chaque instant et d’éviter ainsi cet effet de saturation. La figure 9.3 illustre le gain en rapport S/B par effet de moyenne, tant dans un balayage à une dimension, que dans une image. Celle-ci représente la superposition de 3 000 images individuelles obtenues avec une caméra de télévision (pose 1/30 s) avec un filtre large (410-760 nm) d’un quasar de magnitude 16. Trente images sont cumulées, puis ces poses successives d’une seconde sont à nouveau cumulées après recentrage sur le pixel le plus brillant. Les techniques de recentrage d’images sont importantes et nous y revenons au § 9.6. On obtient donc simultanément une amélioration du rapport S/B par effet de moyenne et une correction de l’agitation atmosphérique (cf. § 6.3), améliorant ainsi la résolution du cliché. L’image la plus brillante est allongée et a été dédoublée ultérieurement par interférométrie des tavelures puis par optique adaptative. Ces quatre composantes sont un mirage gravitationnel d’un même quasar, mais la galaxie responsable du mirage est trop faible pour sortir du bruit. Elle a été observée dans la décennie 1990 au sol et par le télescope Hubble. Plus récemment, ce même quasar a été observé dans l’infrarouge avec le télescope japonais Subaru à Hawaii, l’image (Fig. 9.4, cahier couleur) montrant non seulement les quatre composantes, mais aussi l’ensemble du mirage gravitationnel sous forme d’un bel anneau d’Einstein.
9.1.3
Les traitements élémentaires du signal
Nous donnons ici quelques opérations élémentaires subies par le signal, ou volontairement faites en le traitant, et réservons pour les paragraphes 9.5 et 9.6 l’exposé de traitement plus approfondis.
9. Le signal en astronomie
537
Fig. 9.3 – Exemples d’extraction d’un signal hors du bruit. Partie supérieure : a) Émission thermique des poussières froides du plan galactique à la longueur d’onde λ = 0.9 mm. La température de brillance (mK) mesurée est tracée en fonction de la latitude galactique, à longitude donnée. (A) : balayage unique (T = 0.7 s). (B) : moyenne de 1 400 balayages (d’après Pajot F., 1983. Cf. aussi l’exercice 2.8). b) Le quasar triple QSO PG 1115+08, second quasar découvert sous forme de mirage gravitationnel en 1980. Télescope de 1.8 m (une des pupilles du Multi Mirror Telescope). Échelle : 512 × 512 pixels, 1 pixel = 10−2 arc sec. (Cliché dû à Hege E.K. et al., Ap. J., 248, L1, 1981. Avec l’aimable autorisation de l’Astrophysical Journal.)
Numérisation4 Bien que certaines opérations (filtrage par exemple) puissent être réalisées de manière analogique, la tendance des méthodes modernes de traitement de signal est d’utiliser le traitement numérique, dans lequel le signal x(t) est simultanément échantillonné et transformé en valeur numérique codée en binaire à l’aide d’un convertisseur analogique-numérique. Le nombre de bits utilisés pour représenter la valeur maximale que peut prendre x(t) est appelé la dynamique du convertisseur. La valeur de la variable analogique correspondant à un bit est appelée le pas de quantification. L’opération revient donc à remplacer x(t) par une nouvelle variable aléatoire (v.a.) entière x ˆ définie ainsi : on remplace x(t) par x ˆ si : $ $ q% q% x ˆ− ≤ x(t) < x ˆ+ , 2 2 q étant le pas de quantification. Les moments de la nouvelle variable aléatoire x ˆ diffèrent évidemment de ceux de x(t). On montre que, par exemple, l’erreur commise sur la fonction 4 Opération appelée aussi improprement « digitalisation ». On trouvera une étude approfondie des effets de numérisation dans J. Max, Méthodes et techniques de traitement du signal, chapitre 10, Masson, 1987.
538
L’observation en astrophysique
ˆ ), par rapport à la fonction d’autocorrélation C(τ ) d’autocorrélation C(τ de x(t), est négligeable dès que l’on prend q < σ, σ 2 étant la variance de x(t). Pour certaines opérations, il suffit de quantifier sur un seul bit ; par exemple si x(t) est une v.a. à valeur moyenne nulle, la quantification pourra se limiter à mesurer le signe de x(t). Le gain en vitesse de calcul est alors important (exercice 9.11). Échantillonnage L’opération d’échantillonnage consiste à prélever la valeur du signal à des instants t (ou plus généralement à des valeurs discrètes de la variable sur laquelle est défini le signal : coordonnées x et y dans un plan focal image par exemple). L’écart entre deux échantillons successifs est appelé pas d’échantillonnage. Ce pas est le plus souvent constant, mais ce n’est pas une nécessité ; il peut parfois être aléatoire. Supposons qu’il s’agisse d’étudier la variabilité, éventuellement périodique, de la magnitude d’une étoile dans un site affecté d’une météorologie incertaine. Les nuits pendant lesquelles la mesure est possible sont réparties aléatoirement au cours du temps et l’éclairement e(t) dû à l’étoile est échantillonné aléatoirement. Le problème se pose de façon analogue pour l’échantillonnage du signal dû aux oscillations photosphériques du Soleil (hélio-sismologie) ou d’une étoile (astéro-sismologie).
t On écrira, utilisant le peigne de Dirac Δt pour décrire un échantillonnage de pas Δt (définitions en Appendice I) t x(t). x(t) échantillonnée = Δt Choix du pas d’échantillonnage. Théorème de Shannon5 . Soit une fonction f (x), dont le spectre f˜(s) est à support borné [–sm + sm ]. Si l’on connaît les échantillons de f (x) définis par la distribution F (x) : $ x % , F (x) = f (x) Δx sur un pas d’échantillonnage Δx <
1 , 2sm
alors la fonction f (x) est reconstruite pour toute valeur de x par l’opération de convolution suivante : $ x % f (x) = F (x) sinc . Δx 5 Claude Shannon (1916-2001, États-Unis), fondateur reconnu de la théorie de l’information.
9. Le signal en astronomie
539
Une condition suffisante pour que la réciprocité soit assurée est que l’on ait ˜ m ) = 0. Dans le cas d’un échantillonnage avec exactement Δx = 1/2sm , f(s une information peut être perdue (Fig. 9.5).
Fig. 9.5 – Le théorème de Shannon ou théorème d’échantillonnage. La représentation de F (x) fait appel à une suite de distributions de Dirac, symbolisées par une flèche dont la hauteur est proportionnelle au poids. On a représenté en (a) une éventuelle composante de f (x) qui sera perdue lors de cet échantillonnage. À l’exception de cette composante particulière, f (x) est donc complètement connue à partir de son échantillonnage discret F (x) comme le démontrent les deux lignes suivantes : $ x % TF ⇔ F˜ (s)Π(sΔx), F (x) sinc Δx identique à : TF f (x) ⇔ f˜(s) si Δx =
1 · 2sm
L’importance considérable de ce théorème vient de la nature physique des fonctions que l’on échantillonne : un récepteur ne répond pas à des fréquences infiniment élevées et se comporte toujours comme un filtre passe-bas, avec une coupure au-delà d’une fréquence sm (fréquence temporelle ou fréquence spatiale). Un échantillonnage plus (resp. moins) élevé que le pas de Shannon sera qualifié de suréchantillonnage (resp. sous-échantillonnage). Le suréchantillonnage ne présente pas d’autre inconvénient qu’un volume redondant de mesures, alors que le sous-échantillonnage produit le phénomène de réplication ou réplique (aliasing en anglais) qui peut perturber fortement le résultat des mesures en réinjectant dans le spectre et à basse fréquence des composantes de Fourier de fréquence supérieure à la fréquence de coupure (exercice 9.10).
540
L’observation en astrophysique
Filtrage On souhaite parfois examiner le signal en temps réel, c’est-à-dire sans attendre que la mesure soit terminée. L’optimisation du traitement du signal qui conduit à la meilleure estimation peut alors différer de l’optimisation que l’on appliquera lorsque sera disponible la mesure sur la totalité de l’intervalle de temps disponible (traitement en temps différé). Le filtrage d’un signal consiste à ne conserver qu’une partie de l’information qu’il transporte, en réduisant ou modifiant son spectre de fréquences initial : on ne conserve que les fréquences où se trouve l’information pertinente si elles sont a priori connues, ou bien celles où la contribution du bruit est tolérable, ou toute combinaison de ces critères. L’optimisation en temps réel ou en temps différé conduit aux notions de filtrage optimal. Le signal analogique (c’est-à-dire sous forme d’une grandeur physique continue telle une tension électrique ou le noircissement d’une plaque) est numérisé, c’est-à-dire transformé en valeur numérique représentée sur un nombre fini de bits d’information. S’il s’agit d’une charge électrique très petite (pixel d’un ccd), ou d’un flux de photons détectés individuellement, la numérisation va de soi, puisque le signal est une quantité déjà discrétisée. Cette numérisation intervient à des intervalles de temps discrets : le signal a été échantillonné. Nous examinons ici comment ces opérations modifient l’information contenue dans xs (t) et améliorent éventuellement le rapport signal à bruit de la mesure. Filtrage optimal. Supposons pour l’instant que la mesure de x(t) est faite sur une durée infiniment grande (T → ∞). Nous supposons que les statistiques des p.s. xs (t) et b(t) sont connues et que les p.s. xs (t) et b(t) sont stationnaires. Pour fixer les idées, nous pourrons avoir la situation suivante : xs (t) : arrivée des photons issus d’une source variant périodiquement dans le temps à la fréquence f0 (par exemple un pulsar). b(t) : bruit de fond dû à une fluctuation temporelle de l’émission du fond de ciel. Le problème est de chercher la meilleure estimation possible de xs (t), estimation que nous dénoterons x s . Posons : +∞ x(t − u)h(u)du, x ˆ(t) = −∞
où la fonction h(u), est choisie de façon à minimiser l’espérance mathématique : ! 2 E |x(t) − x ˆ(t)| . On peut montrer que le filtre linéaire h(t) se construit de la façon suivante : soient Sx (f ) la densité spectrale de x(t) et Sxxs (f ) l’interspectre entre la
9. Le signal en astronomie
541
quantité observée et le signal recherché. On peut rappeler que l’interspectre est simplement la transformée de Fourier de la fonction d’intercorrélation (cf. ˜ ) la TF de h(t), on a : Appendice I). Alors, dénotant par h(f ˜ ) = Sxxs (f ) · h(f Sx (f ) ˜ ) est celle du filtre linéaire optimal ou filtre de La fonction de transfert h(f 6 7 Wiener -Kolmogorov . Nous revenons plus en détail au § 9.6 sur la façon dont ce filtrage utilise une information a priori sur la source. – Dans le cas particulier où signal et bruit sont décorrélés, il vient : Sxsb = 0, Sx (f ) = Sxs (f ) + Sb (f ), Sxxs (f ) = Sxs (f ), ˜ )= h(f
Sxs (f ) · Sxs (f ) + Sb (f )
˜ ) = 1 Si les spectres Sxs (f ) et Sb (f ) n’ont pas de recouvrement, alors h(f ˜ ) = 0 partout où Sb (f ) = 0, ˜h(f ) est quelconque à partout où Sb (f ) = 0, h(f l’extérieur de ces intervalles. On montre qu’alors l’erreur commise sur l’estimation x ˆ(t) de xs (t) est nulle partout. – S’il existe un recouvrement entre les supports de Sxs (f ) et Sb (f ), le ˜ ) conduit à une estimation x filtrage par h(f ˆ(t) de xs (t), affectée d’une erreur, donnée au sens des moindres carrés par : +∞ Sxs (f )Sb (f ) 1 df . ε= 2π −∞ Sxs (f ) + Sb (f ) La notion de rapport signal à bruit est difficile à appliquer ici, puisque le signal estimé x ˆ(t) peut prendre des valeurs très diverses sur ]−∞, +∞], alors que ε est une quantité unique et bien déterminée. En revanche, puisque dans l’exemple choisi xs (t) est périodique, le rapport signal à bruit est bien défini dans l’espace de Fourier où le signal est concentré autour de la fréquence f0 . Les résultats obtenus ici pour un signal dépendant du seul paramètre t peuvent être étendus sans difficulté au filtrage optimal d’une image, où le signal et le bruit sont une fonction des deux coordonnées d’un point dans le plan de l’image. Filtrage en ligne. Nous avons étudié le cas où la totalité de l’information est disponible avant de lui appliquer le filtre de Wiener. Un cas différent se présente lorsque le signal doit être traité en temps réel, dans un problème de communication. Dans ce cas, on ne souhaite pas attendre la fin de la transmission du message pour le décoder ou l’extraire du bruit, mais on désire donner à chaque instant la meilleure estimation possible du message. 6 Norbert Wiener (1894-1964), mathématicien des États-Unis, fondateur de la cybernétique et pionnier de la théorie de l’information. 7 Andreï Kolmogorov (1903-1987), mathématicien soviétique, a axiomatisé la théorie des probabilités. Théoricien des systèmes dynamiques et de l’algorithmique de la complexité.
542
L’observation en astrophysique Il peut s’agir, par exemple, de la transmission d’une image de la planète Uranus transmise par une sonde spatiale qui la survole. À cause de la distance à la Terre et de la faible énergie disponible à bord, l’image est transmise pixel après pixel et la transmission est affectée de bruits divers. Après réception de la totalité de l’image, le centre de réception peut traiter celle-ci par un filtrage approprié, éliminer au mieux les bruits et fournir une image filtrée. L’astronome peut également souhaiter disposer d’une image incomplète mais en temps réel, auquel cas il faut alors estimer en ligne l’intensité de chaque pixel à partir du signal bruité8 . Un autre exemple peut être donné, concernant la variabilité d’une source X observée par un télescope X en orbite. Le flux mesuré est transmis à la Terre, affecté d’un bruit de statistique connu. Après plusieurs mois d’observation, le signal bruité et complet est analysé, par exemple pour y rechercher des fluctuations périodiques par filtrage et analyse de Fourier. Mais, compte tenu de la durée de l’observation, on peut également chercher la meilleure estimation, à tout instant t, du flux vrai de la source X.
Autres applications du filtrage. Le filtrage linéaire décrit par l’opération de convolution : y(t) = h(t)x(t), ou par son équivalent dans l’espace de Fourier y˜(f ) = ˜ h(f )˜ x(f ), ˜ peut servir à éliminer la composante continue d’un signal (h(0) = 0) ou une ˜ fréquence parasite f0 auquel cas (h(f0 ) = 0), à éliminer les hautes fréquences (filtre passe-bas coupant à f > fc ). Par exemple, un photomètre mesurant le flux reçu d’une étoile sera suivi d’un filtre passe-bas qui élimine les fluctuations dues à la scintillation et donne une mesure photométrique de l’éclairement moyen. Une grande diversité de filtres existe pour des applications particulières. Ils sont décrits dans les ouvrages spécialisés. Nous donnons ici un exemple, qui sert d’introduction à un ensemble de méthodes présentées plus loin (cf. § 9.5). Il s’agit de la validation croisée. Il arrive souvent que le meilleur traitement d’un jeu de données dépende d’un paramètre inconnu α. Ce dernier peut être par exemple une fréquence de coupure, ou encore un entier comme le degré n d’un polynôme d’interpolation, ou encore le nombre n de composantes (raies spectrales) qui ajusteront au mieux un spectre observé. Pour chaque valeur du paramètre α, nous savons mener à bien la procédure de traitement des données (filtrage, régression, ajustement, etc.) mais nous ignorons la valeur de α. La méthode de validation 8 Ce type de filtrage est particulièrement adapté aux télécommunications exploitées en temps réel (téléphone, télévision) pour lesquelles il n’est pas souhaitable d’attendre la fin du message pour le traiter.
9. Le signal en astronomie
543
croisée offre un moyen d’estimer un bon α, elle repose sur le principe d’une minimisation de l’erreur de prédiction. Prenons l’exemple du lissage de points expérimentaux à l’aide d’un polynôme de degré n. Ce degré étant fixé, la procédure de lissage revient à ajuster les données observationnelles par un polynôme selon le critère des moindres carrés. Le nombre n est alors un paramètre qui contrôle le degré de lissage. Si n = 1 on ajuste simplement les points expérimentaux par une droite des moindres carrés (lissage maximum, Fig. 9.6a). Si n = N –1, où N est le nombre de points, le polynôme passe par tous les points, d’où un lissage minimal. C’est un fait d’expérience que, dans ce dernier cas, le polynôme va osciller fortement entre les points expérimentaux par lesquels il est contraint de passer (Fig. 9.6b). S’il nous était donné un point supplémentaire entre deux points déjà connus, nous serions à même de savoir si la prédiction donnée par le polynôme était bonne ou mauvaise. Nous serions alors à même de quantifier l’erreur de prédiction entre la valeur interpolée et le nouveau point expérimental. Évidemment une telle donnée additionnelle n’est pas disponible : le serait-elle que nous l’aurions traitée au même titre que les autres, sans en tirer aucun avantage supplémentaire. Cependant il est possible de « simuler » ces données cachées puis redécouvertes. C’est le principe de la méthode de validation croisée, qui met à l’épreuve un certain degré n en « cachant » le second point, puis en lissant et en comparant la valeur interpolée à la valeur cachée, d’où une erreur de prédiction εn 2. On répète alors la procédure en omettant successivement tous les points, depuis le second jusqu’au point (N − 1). On est alors capable de donner une erreur de prédiction Q(n) qui dépend du degré n : Q(n) =
N−1
(n)2
εi
,
i=2
Notons que nous avons soigneusement omis les premier et dernier points qui ne permettaient pas de faire une interpolation, mais une extrapolation.
La méthode de validation croisée consiste donc à choisir la valeur de n qui minimise l’erreur Q(n). C’est largement un fait d’expérience que, quelle que soit la nature du paramètre de contrôle α, cette méthode donne de bons résultats, comme le montre la figure 9.7. Compression de données9 Les données provenant d’un instrument peuvent présenter un niveau de redondance interne important. En particulier, dans une image, la valeur d’un 9 Ces remarques sont inspirées d’un texte de G. Moury, in L’Instrumentation scientifique dans le domaine spatial, Centre National d’Études Spatiales, 1992.
544
L’observation en astrophysique
Fig. 9.6 – (a) Lissage de N points expérimentaux par une droite (n = 1) de moindres carrés. (b) Lissage des mêmes points par un polynôme de degré N –1.
Fig. 9.7 – Simulation d’une validation croisée. Des « points expérimentaux » sont représentés avec leur écart-type. En trait plein, le lissage (ou régression) obtenu par un polynôme dont le degré n = 3 a été obtenu par validation croisée. En tireté, la droite des moindres carrés (n = 1). En pointillé, la courbe théorique ayant servi à générer les « points expérimentaux », courbe bien reproduite par celle issue du traitement des données.
pixel est souvent fortement corrélée à celle de ses voisins. Pour déterminer le niveau de redondance des données et le taux de compression qui leur est éventuellement applicable lors d’une transmission, il est utile de mesurer la quantité d’information contenue dans l’image. On introduit donc la notion d’entropie (cf. § 9.6). Soit une image dont les pixels sont codés sur N bits, soit 2N valeurs possibles. L’histogramme donnant, en fonction des 2N –1 valeurs possibles, le nombre Pi de pixels prenant cette valeur représente donc la probabilité qu’a le signal de prendre une valeur donnée sur un pixel quelconque. À partir de cette répartition empirique de probabilité Pi , il est possible de construire
9. Le signal en astronomie
545
l’entropie H de l’image : H=−
N 2 −1
Pi log2 Pi .
i=0
L’entropie s’exprime en bits pixel−1 et représente le nombre de bits qui sont nécessaires pour coder l’image sans perte d’information. Il convient de calculer l’entropie sur une image dont on a déjà réduit la redondance et le nombre de bits de codage nécessaires. Des algorithmes de décorrélation existent à cet effet : par exemple, une méthode simple consiste à remplacer chaque pixel pi,j par la différence des valeurs pi,j – pi,j−1 entre ce pixel et son voisin. En raisonnant sur l’image d’un champ stellaire formé d’étoiles occupant chacune un seul ou un très petit nombre de pixels sur un fond uniforme, cette opération revient à remplacer presque partout les valeurs du champ uniforme par zéro, d’où une économie considérable en bits de codage.
Si toutes les valeurs possibles sont équiprobables, H = N = constante et aucune compression n’est applicable. Si en revanche l’image est binaire, comme ce serait le cas pour un texte formé de caractères noirs sur fond blanc, alors H < N et il est possible d’appliquer des algorithmes de compression d’un taux élevé (≈100). D’une façon générale, le taux maximal de compression applicable à une image d’entropie H codée sur N bits, après élimination de la redondance entre voisins, est donné par : Taux =
N · H
Des circuits électroniques spécialisés (Application-Specific Integrated Circuit, asic) effectuent ces opérations de compression en temps réel. Outre les applications aux satellites d’observation de la Terre (filière Spot en France), les méthodes de compression sont largement utilisées dans les transmissions dans les réseaux informatiques ; elles l’ont été également lors de la mission d’observation par le satellite Clementine (1993) mis en orbite autour de la Lune et qui en a cartographié la totalité en plus de dix couleurs et à haute résolution spatiale.
9.1.4
Un exemple spécifique de traitement de données
Il existe une très grande variété de traitements qui peuvent être appliqués à des données (par exemple spectres, images, etc.). L’analyse en composantes principales (ou analyse factorielle) répond au souci de dégager des structures linéaires au sein d’une masse de données. Les séries de Karhunen-Loève sont utilisées si ces données sont des réalisations de p.s.
546
L’observation en astrophysique
Pour illustrer cette méthode dans un cas particulier, considérons un vecteur aléatoire X = (X1 , X2 , ... Xn ) dont nous allons procéder à l’analyse en ses composantes principales. Une réalisation de X peut être représentée par un point dans un espace à n dimensions. Notons tout d’abord que l’analyse en composantes principales prend tout son intérêt lorsque n est grand. Plusieurs réalisations (N > n) de ce vecteur X se répartissent dans cet espace suivant un « nuage » de points. Il peut arriver, dans les cas dits dégénérés, que ces points ne remplissent pas tout l’espace, mais se répartissent suivant une variété affine de Rn (un hyperplan par exemple), cette variété étant de dimension k < n. Si tel est le cas, on réalise une compression de l’information en décrivant les données à l’aide des k composantes de la variété plutôt qu’à l’aide des n composantes de la base canonique. Suivant la direction perpendiculaire à la variété, l’écarttype des données est nul, on a donc éliminé un axe qui n’apportait aucune information sur la façon dont le nuage de points se répartissait dans l’espace. Corrélativement, la nouvelle base de dimension k décrit mieux les données que ne le faisait la base originelle. Ce cas idéal est rare en pratique. On rencontre plus souvent des cas où la dispersion des données suivant un certain axe n’est pas rigoureusement nulle mais seulement petite. Les points se répartissent « presque » sur une variété de dimension k. Si l’on choisit de décrire le nuage de points à l’aide de la base de dimension k, on commet alors une erreur dont la moyenne quadratique correspondra à la dispersion des données suivant l’axe négligé. Rechercher cet axe revient donc à trouver celui sur lequel la variance, comme mesure de la dispersion des données, est minimale. On résout ce problème en centrant l’origine des axes sur la valeur moyenne des données : la nouvelle base est alors formée par les vecteurs propres de la matrice des variances-covariances du vecteur X, notation qui désigne ici désormais la réalisation centrée. Les valeurs propres correspondantes sont précisément égales à la variance des données suivant ces axes. Si l’on accepte une perte d’information jusqu’à un certain niveau, il suffit alors de négliger les axes propres jusqu’à ce que la somme des valeurs propres correspondantes, classées par ordre croissant, atteigne ce niveau. Formellement, les données s’écrivent alors : X=
n
Ai fi ,
i=1
où X est le vecteur aléatoire centré, Ai les coefficients aléatoires de la décomposition de X sur la base fixe fi . On a l’équation aux valeurs propres : = > E XX t fi = λ2i fi , où E{XX t } désigne l’espérance mathématique de la matrice des variancescovariances, λ2i la variance de X suivant l’axe fi . La base fi est orthonormée,
9. Le signal en astronomie
547
puisque formée des vecteurs propres d’une matrice symétrique, et les Ai sont des variables aléatoires non corrélées : E {Ai Aj } = λ2i δij . Dans le cas particulier où X est une variable aléatoire normale, les Ai sont en outre des variables aléatoires indépendantes. Ainsi, le processus stochastique a été remplacé par un ensemble de variables aléatoires, idéalement indépendantes, ce qui conduit, outre l’analyse linéaire déjà citée, à une simplification du traitement des données.
9.2
La modélisation complète d’un système d’observation
Parce que les instruments sont de plus en plus chers et sophistiqués, on conçoit bien que la phase d’étude qui précède leur réalisation effective prenne de plus en plus d’importance. En effet, d’une part, on n’a plus le droit de se tromper sur les performances qui seront finalement obtenues, quand des millions d’euros et le travail de dizaines de personnes sur plusieurs années sont en jeu et, d’autre part, la complexité accrue des instruments multiplie les risques de malfonction, ceux d’interactions insoupçonnées entre sous-systèmes ou entre fonctions a priori découplées. Un bon modèle instrumental s’avère désormais un outil nécessaire et irremplaçable pour : i) concevoir au mieux l’instrument en fonction des spécifications scientifiques et faire les bons choix ou les moins mauvais compromis, comme par exemple la répartition d’un budget d’erreur entre les sous-systèmes ; ii) prévoir les performances et ainsi convaincre la communauté et les bailleurs de fonds du bien-fondé d’un instrument nouveau, et des solutions retenues ; iii) enfin, fournir aux utilisateurs un instrument virtuel leur permettant d’estimer la faisabilité du programme astrophysique qu’ils ont en tête et de paramétrer leurs observations à l’avance. Ces observations, tant au sol que dans l’espace, le requièrent, car elles sont très fortement automatisées par souci d’efficacité et de sécurité. Ce modèle instrumental se bâtit en général au cours du projet, à partir de sous-modèles qui sont souvent liés chacun à un domaine de la technique et/ou un type de savoir-faire. Des outils informatiques de plus en plus sophistiqués permettent de simuler, avec une précision qui ne cesse de s’améliorer, les comportements propres à chacun de ces domaines. Lors de la conception d’un instrument moderne, on distingue en général les sous-modèles suivants : – Un modèle thermique. Il permet de calculer la répartition des températures, les échanges énergétiques (conduction, rayonnement, convection), les déséquilibres passagers et leur évolution, etc. Ce modèle a une importance toute particulière en instrumentation spatiale où les conditions
548
L’observation en astrophysique environnementales sont extrêmes et dans le domaine infrarouge/submillimétrique où le rayonnement parasite est l’ennemi, les optiques et surtout les détecteurs étant refroidis très fortement.
– Un modèle mécanique et thermo-élastique. C’est celui qui nous est le plus familier, car il produit, via des logiciels de cao/dao, des images généralement à trois dimensions, ou même animées, qui donnent une vision concrète de l’instrument. Le modèle permet de construire une architecture mécanique cohérente, de choisir les matériaux, de prévoir les mouvements relatifs, de calculer les flexions, distorsions et dilatations thermiques, d’estimer les erreurs mécaniques et les précisions demandées lors de la fabrication des pièces. Des logiciels aux capacités impressionnantes permettent de voir fonctionner les mécanismes et même de produire directement les codes numériques qui piloteront les machines-outils à commande numérique, chargées de réaliser les pièces élémentaires. – Un modèle optique. Il permet de calculer suivant les lois de l’optique géométrique les tracés de rayons lumineux tout au long de leur cheminement, de composant en composant (miroir, lentilles, prismes, etc.) et de produire les fonctions d’étalement de point (fep) finales. L’optimisation des caractéristiques des composants (indices, courbures des surfaces, etc.) permet ainsi de minimiser les aberrations optiques et de faire les meilleurs compromis. Le modèle permet également de tenir compte des phénomènes de l’optique physique (diffraction, diffusion, dispersion, réflexions sur les surfaces optiques) et d’évaluer leur impact. De nombreux codes commerciaux existent : parmi les plus couramment utilisés, c c citons les codes Zemax et Opticad . Des effets plus subtils, ou du moins difficiles à estimer grossièrement, peuvent désormais être aussi pris en compte par la modélisation. Ainsi la lumière parasite, qui est une question souvent critique en astronomie, est modélisable de façon de plus en plus réaliste grâce à des codes, encore assez lourds, qui permettent de simuler des sources secondaires, les réflexions sur les surfaces et les arêtes de la structure mécanique – décrites par des textures et leur microstructure –, et d’optimiser la géométrie des écrans de protection (baffles en anglais). – Un modèle des détecteurs et de la chaîne de détection. Il rend compte, de la façon la plus réaliste possible, de la géométrie des pixels, de la réponse électrique au flux de photons, du rendement en fonction de la longueur d’onde, de la non-linéarité, des effets de saturation et de débordement de photocharges entre pixels, du bruit de détecteur, du courant d’obscurité, de la diaphonie entre pixels, des biais électriques, etc. C’est souvent un modèle « maison », dans lequel une connaissance fine du détecteur, issue de l’expérience, peut être injectée.
9. Le signal en astronomie
549
– Un modèle électrique. De plus en plus, le développement d’un circuit électronique, qu’il soit de type numérique ou analogique, passe par la simulation préalable de son comportement électrique détaillé. Cela se fait au moyen de logiciels qui font appel à une banque de données universelle, où sont répertoriés la plupart des composants existant sur le marché et leurs caractéristiques. Cela permet, sans soudure, ni composants réels, de créer son circuit, de le tester, de raffiner le choix des composants, de produire des réponses dynamiques réalistes, et de simuler le comportement dans des conditions extrêmes, comme celles de température par exemple. Spice est un exemple de ce type de logiciel, dans le domaine public, qui est largement utilisé. Le cas particulier des systèmes asservis est souvent traité de façon plus fonctionnelle au moyen de logiciels dédiés. – Un modèle informatique. C’est en fait plutôt un modèle de l’architecture informatique de contrôle et commande de l’instrument. Des logiciels, c comme Labview par exemple, permettent de concevoir d’authentiques instruments virtuels qui assurent toutes les fonctions d’un instrument de mesure ou la combinaison de plusieurs sous-instruments, ainsi que leur contrôle au moyen de tableaux de bords virtuels : ce sont des écrans comportant des indicateurs, des graphiques, des boutons et curseurs. Le logiciel permet d’assembler des briques de fonctionnalités bien définies et de les réunir par des faisceaux transportant les données échangées. En cliquant sur les boutons, on peut paramétrer l’instrument et enchaîner des opérations d’acquisition de données et de pilotage des différentes fonctions de l’instrument. – Un modèle astrophysique. Les caractéristiques des sources, comme leur morphologie, leur taille, leur spectre d’émission, leur environnement, etc. sont généralement fournies par un modèle ad hoc. Cela permet de vérifier d’une manière réellement convaincante qu’avec les performances estimées, on est bien en mesure d’atteindre les objectifs astrophysiques initiaux ; cela permet également à l’observateur futur de préparer son observation en se basant sur un modèle d’objet proche de ce qu’il attend. – Un modèle de l’environnement. Dans certain cas, ce modèle s’avère également nécessaire, afin d’atteindre le réalisme souhaité. C’est en particulier le cas des instruments comportant un système d’optique adaptative, ou des réseaux interférométriques optiques. La simulation de leur fonctionnement et l’estimation de leurs performances exigent un modèle reproduisant au mieux la turbulence atmosphérique, son comportement spatial et temporel, ainsi que les vibrations du télescope, les effets du vent sur les structures, etc. Enfin le modèle global, dit end-to-end en anglais, est une synthèse de tous ces sous-modèles. Il fait appel en général à un méta-langage de commande qui
550
L’observation en astrophysique
permet d’interfacer les briques logicielles décrites ci-dessus, ou plutôt leurs entrées et leurs sorties, et de bâtir la chaîne de mesure complète depuis l’astre émettant son rayonnement jusqu’à la correction des signatures instrumentales et la réduction de données. Il est souvent à la base des estimateurs de temps d’exposition (Exposure Time Calculator ), qui sont mis à la disposition des futurs observateurs pour évaluer la faisabilité de leur programme scientifique et le temps qu’ils doivent consacrer à une observation particulière pour obtenir une performance donnée, compte tenu des conditions et des différents aléas. Le degré de réalisme atteint aujourd’hui dans la simulation de l’ensemble de la chaîne de mesure est illustré par la figure 9.8 où sont comparées l’image simulée du premier champ qu’observait le satellite photométrique corot en janvier 2007 et l’image effectivement obtenue, sans aucune correction : il est difficile d’y distinguer une difference entre la simulation et la réalité !
Fig. 9.8 – Image ccd brute d’une fraction du premier champ pointé par le satellite corot en janvier 2007 : à gauche l’image ccd effectivement obtenue et à droite la simulation qui en avait été préparée à partir de la connaissance fine du détecteur, de l’optique et de catalogues d’étoiles. La ressemblance saisissante entre les deux images illustre la qualité atteinte désormais dans la simulation instrumentale. (Ces images ont été aimablement fournies par M. Auvergne, Lesia-Observatoire de Paris.)
9.3
Les performances globales d’un système
Au fil de cet ouvrage ont été présentés : les télescopes qui collectent la lumière et forment les images, les phénomènes de diffraction et de perte de cohérence qui affectent celles-ci, ainsi que la manière dont des réseaux de télescopes peuvent les améliorer ; les spectromètres qui décomposent ce rayonnement et l’analysent ; enfin les récepteurs qui transforment le rayonnement électromagnétique reçu des astres en un signal qui puisse être traité numériquement. Comme il était souligné dès le premier chapitre de ce livre et rappelé ci-dessus, l’observation combine tous ces éléments au sein d’un système, dont la complexité peut-être considérable, qu’il soit utilisé sur le sol terrestre ou placé dans l’espace. Si les performances et limitations fondamentales de chacun des sous-systèmes qui le compose (atmosphère, télescope, spectromètre,
9. Le signal en astronomie
551
détecteur...) ont été étudiées tour à tour, il n’en demeure pas moins que la performance finale, celle qui intéresse l’astrophysicien, est le résultat de leur combinaison et adéquation mutuelle. C’est le rôle du processus d’intégration conduisant à la qualification de l’instrument. Le plus souvent, cette estimation de performance se traduira par une réponse quantitative à la question : quel est l’objet le plus faible que tel système particulier permet d’observer, en un temps donné, avec des résolutions angulaires et spectrales données, dans une polarisation donnée, avec un rapport signal à bruit donné ? Mais la question parfois prend d’autres formes, par exemple : quelle est la fluctuation temporelle la plus rapide de tel objet, qui soit observable avec ce système ? Nous nous proposons ici d’illustrer, sur quelques exemples, la façon dont la performance globale d’un instrument se présente à l’utilisateur. Ceci est d’autant plus important que cet utilisateur possède rarement une connaissance intime des multiples et complexes sous-systèmes constituant l’instrument, et de leurs performances individuelles. Seul le résultat l’intéresse.
9.3.1
Observer avec l’interféromètre millimétrique de l’iram
Considérons l’interféromètre du Plateau-de-Bure (France), présenté au § 6.5.1. Quelles performances en sensitivité, en résolution spectrale et angulaire est-il possible d’obtenir avec ce système, comprenant une station d’altitude (2 560 m), équipée de 6 radiotélescopes de 15 m, de récepteurs et de corrélateurs numériques, par exemple en vue d’une observation de quasars ? La première démarche est de se rendre sur son site internet10 qui en décrit en détail les caractéristiques. Les principales sont rappelées dans le tableau 9.2. Tab. 9.2 – Caractéristiques de l’interféromètre du Plateau-de-Bure (2007). Nombre de télescopes Diamètre des télescopes Altitude Bases maximales Récepteurs (par antenne) Corrélateurs
6 D = 15 m 2 560 m N-S : 230 m ; E-W 408 m 81-115 GHz & 205-250 GHz 8 unités, résolution 0.39 à 2.5 MHz
Mode détection. Pour l’observation d’une source ponctuelle, – c’est-à-dire non résolue avec la configuration de bases choisie – et dans le mode détection – c’est-à-dire en cherchant à extraire une source ponctuelle hors du bruit –, la sensibilité, définie comme le signal conduisant à un rapport signal à bruit égal à l’unité, est une valeur en jansky (Jy) donnée par l’expression, fournie 10 La quasi-totalité des instruments, dans tous les observatoires du monde, est ainsi précisément documentée. Ici, voir le site de l’Institut de Radio Astronomie Millimétrique (iram) : iram.fr/IRAMFR/GILDAS/doc/html/pdbi-intro-html/node2.html (Guilloteau, S., Lucas, R., Dutrey, A.), dont sont extraites les valeurs qui suivent (en 2007).
552
L’observation en astrophysique
sur le site de l’iram et aisée à retrouver à partir des considérations vues au § 7.5 : ρe Tsys √ δS(Jy) = · (9.1) ηc ηp ηj N (N − 1) δνδt Dans cette expression interviennent les quantités suivantes. Nous précisons entre [ ] les valeurs numériques, fournies par l’iram et caractéristiques du système, autour de la fréquence de 90 GHz (λ = 3.3 mm) : – N est le nombre d’antennes utilisées dans la configuration interférométrique choisie ; – δν est la bande passante utilisée, qui impose le bruit ; – δt est la durée de l’observation ; – Tsys est la température de système (cf. § 7.5), compte tenu de la transmission atmosphérique [Tsys ≈ 150 K en dessous de la fréquence de 110 GHz, été comme hiver] ; – ρe = 2k/ηA est l’efficacité d’une antenne (ou miroir), mesurée en Jy-K−1 , avec A (m2 ) sa surface, ηa son efficacité en réflexion, k la constante de Boltzmann [ρe ≈ 22 Jy K−1 ]. – ηc est l’efficacité du corrélateur [ηc ≈ 0.88] ; 2
– ηj = e−σj /2 est la perte de cohérence, ou coefficient de décorrélation instrumentale, due au manque de stabilité de phase de l’oscillateur local [σj ≈ 4 deg] ; 2
– ηp = e−σp /2 est la perte de cohérence due au manque de stabilité de phase (ou bruit de phase) de l’atmosphère au-dessus de l’instrument [σp dépend de la longueur de la base B et de l’humidité atmosphérique, et vaut environ 15 deg rms pour B ≤ 100 m]. Le résultat est le suivant : utilisant la pleine configuration de l’interféromètre (N = 6 bases), pendant une heure d’intégration et avec une largeur spectrale δν = 580 MHz, le seuil de détection δSseuil (rapport signal à bruit unité) à λ = 3 mm est de 0.4 à 0.8 mJy selon les conditions atmosphériques. Mode d’imagerie. Considérons maintenant l’interféromètre fonctionnant dans un mode d’imagerie. Le choix de la configuration des bases est dicté par la résolution angulaire cherchée. Supposons que l’on choisisse la valeur la plus élevée possible, soit environ 0.6 à ν = 230 GHz. La figure 9.9 indique la réponse de l’interféromètre (fep) et la couverture du plan u-v obtenue avec la disposition correspondante des six télescopes, selon la déclinaison de la source observée. Quelle est maintenant la sensibilité qu’il est possible d’obtenir dans le mode cartographie, pour la même durée d’observation ? À partir de la sensibilité
9. Le signal en astronomie
553
+
Fig. 9.9 – Fonction d’étalement de point (à gauche, échelles en secondes d’angle) et couverture du plan des fréquences spatiales (à droite, échelles en mètres ; il faut diviser par λ pour obtenir les fréquences spatiales u,v ) de l’interféromètre de Bure, dans sa configuration la plus résolvante, pour deux valeurs (+40 et +20 deg) de la déclinaison D de la source. (Figure fournie par l’iram.)
δS à une source ponctuelle calculée ci-dessus, le bruit (valeur rms) sur la température de brillance (cf. § 7.5) s’exprime par : δTm =
λ2 δS, 2k(f θ1 θ2 )
(9.2)
où k est la constante de Boltzmann, θ1 et θ2 les valeurs, en secondes d’angle, des axes de la fep (supposée proche d’une ellipse) et f un facteur numérique, voisin de l’unité et dépendant du choix du mode d’apodisation (ou tapering) des lobes d’antenne. Avec δS calculé ci-dessus, λ exprimé en mm et les angles en secondes d’angle (à 90 GHz, θ1 = θ2 = 1.5 ), il vient : δTm = 15
λ2 δSseuil = 0.06 mK. (f θ1 θ2 )
(9.3)
Une fois obtenue la cartographie de la région du ciel observée, cette valeur de δTm = 0.06 mK indique le niveau de bruit, donc de confiance, dans les détails de la carte. Mode spectroscopique. Considérons enfin l’interféromètre fonctionnant en mode spectroscopique. S’il observe une source non résolue, la largeur de bande δν = 580 MHz, utilisée ci-dessus pour le calcul de δSseuil , doit être réduite à la résolution spectrale utilisée par le corrélateur (jusqu’à la résolution maximale de 0.39 MHz). Il en était de même dans le mode imagerie.
554
L’observation en astrophysique
9.3.2
Observer avec l’optique adaptative naos
Considérons le système d’imagerie, fonctionnant à la limite de diffraction dans le proche infrarouge, comprenant l’un des télescopes du Very Large Telescope (C. Paranal, Chili), avec son dispositif d’optique adaptative (naos), et la caméra qui le suit (conica). Les caractéristiques principales de ce système11 – l’une des très nombreuses configurations d’observation qu’il est possible de réaliser avec le vlt – figurent dans le tableau 9.3. Ce tableau ne donne cependant qu’une idée très limitée de la diversité des modes d’observation possibles avec le système vlt-naos-conica, puisque le manuel destiné à les présenter en détail à l’observateur fait plus de cent pages, qu’il n’est pas question de résumer ici. Ce manuel, de présentation classique pour un système de cette complexité, comprend une description des performances de chaque sous-système, ainsi que la présentation de l’ensemble des instructions que l’observateur doit préparer préalablement à son accès au télescope, sous forme de fiches informatiques ou templates, afin de réduire au maximum les décisions à prendre en temps réel, sources de fausses manœuvres, et d’automatiser autant que faire se peut la procédure d’observation. Ceci, en réduisant tous les temps morts, conduit à la meilleure utilisation possible des nuits de météorologie favorable et du coûteux temps de télescope. Tab. 9.3 – Imagerie infrarouge avec le vlt (2007). Télescope UT4 (Yepun) Localisation Optique adaptative (naos) Senseurs de front d’onde Étoile de référence Champ maximal de correction Caméra (conica) Domaine spectral Modes
D = 8.2 m 24 deg 40’ S, 70 deg 25’ W, H = 2 535 m Foyer Cassegrain Visible (0.4-1.0 μm) & Infrarouge (0.8-2.5 μm) mV ≤ 16.7 & mK ≤12 55 secondes d’angle 1 024 × 1 024 InSb array 1 à 5 μm Imagerie, polarimétrie, spectroscopie, coronographie
La procédure d’observation se prépare dans le plus grand détail, à l’aide de blocs d’observation, dits observing blocks, automatisés, qui se décomposent en : acquisition de la source (i.e. trouver dans le ciel le champ qui la contient) ; observation proprement dite ; étalonnage des propriétés de l’instrument et de l’atmosphère au moment de la mesure.
Comme chacun des sous-systèmes présente un grand nombre de variables ou configurations possibles – qualité du seeing atmosphérique, taille des pixels, filtres spectraux, dichroïques séparant la lumière entre senseur de front d’onde et caméra d’imagerie, polariseurs, etc. –, il faudrait des dizaines d’exemples 11 Pour une information détaillée, on peut se reporter à www.eso.org/instruments/naco/inst/. Les valeurs numériques utilisées ici sont extraites du manuel intitulé naos-conica User Manual VLT-MAN-ESO-14200-2761 (Ageorges, N., Lidman, C. version 2007).
9. Le signal en astronomie
555
pour illustrer toutes ces possibilités et leurs performances respectives. Nous n’en développerons qu’un seul ici. Soit par exemple le projet suivant : observer le Centre de la Galaxie (SgrA*) et obtenir une image de son voisinage immédiat, afin de suivre les étoiles qui s’y trouvent, en mouvement dans le champ gravitationnel du trou noir massif, dans la bande photométrique Ks (2.2 μm). Quelle est la magnitude mK la plus faible d’une telle étoile qui soit observable ? – Optique adaptative. L’extinction éliminant toute référence dans le visible, il existe12 par un heureux hasard une supergéante brillante (IRS7), située à 9” de SgrA*, de magnitude mK = 6.4. Elle peut être utilisée comme référence en utilisant le senseur de front d’onde infrarouge (Wave Front Sensor wfs), puisque le guide indique pour celui-ci un champ de rayon 55”, et une magnitude limite mK = 12. Un rapport de Strehl S ≈ 40 est indiqué comme alors accessible à la distance de 9”, ce qui représente une bonne valeur de correction. La référence étant brillante, on peut se contenter d’utiliser 20 % de son flux pour le wfs et d’en envoyer, grâce à la lame dichroïque adaptée, 80 % vers la caméra. – Caméra. Deux choix importants sont à faire : celui du champ et celui de la bande spectrale. Compte tenu de la bonne valeur de S ≈ 40, on peut choisir un pixel égal à la tache de diffraction en K, avec λ/D = 54 milliarcsec (mas). Une des caméras offertes (S54) présente un grandissement conduisant à 54 mas par pixel et couvrant un champ de 56” × 56”. Puisque le but est de détecter les étoiles les plus faibles du champ, on utilise le filtre de largeur Δλ la plus grande possible. En effet, la sensibilité est ici imposée par l’existence d’un rayonnement atmosphérique √ de fond et varie donc comme Δλ. Pour préciser ensuite le type spectral de ces étoiles, une fois détectées, il pourra être intéressant d’utiliser un mode spectroscopique, à l’aide de filtres plus étroits, ou d’un grism, en augmentant le temps de pose. – Rayonnement de fond (background ). Dans la bande K, le fond thermique est négligeable, et c’est l’émission OH qui domine. Dans les conditions du site de Paranal, avec la dichroïque choisie, ce fond possède une brillance mKs =12.5 arcsec−2. Il sera donc nécessaire de le soustraire pour l’observation d’étoiles faibles, en alternant l’observation du champ les contenant, et celle d’un champ voisin aussi vide que possible, pour pouvoir procéder lors de la réduction des données à une soustraction de fond de ciel (sky subtraction). Avec la taille de pixel choisie, le signal de fond par pixel est réduit d’un facteur (1 000/54)2 = 343, correspondant à 2.5 log10 (343), soit 6.34 magnitudes. Il équivaut donc à celui d’une étoile de magnitude mKs = 18.8, dont le flux serait concentré sur ce seul pixel. 12 On
trouve au § 6.3 une image de ce champ.
556
L’observation en astrophysique
– Détecteur. Cette mosaïque InSb (1 024 × 1 026 pixels), installée en 2004, possède un excellent rendement quantique η ≈ 0.8-0.9. Le courant d’obscurité (superposition d’un léger fond thermique propre à l’instrument, et du courant d’obscurité du photoconducteur proprement dit) vaut 0.050.015 adu s−1 pixel−1 . Il conviendra donc de faire des poses sans signal (appelées dark ) pour pouvoir soustraire le pseudo-signal dû à ce courant13 . – Signal. Les valeurs photométriques de l’étoile standard α Lyrae (Vega), sont un éclairement eλ = 4.3.10−10 W m−2 μm−1 pour une magnitude mKs = 1.86 à λ = 2.149 μm (bande Ks ). Une étoile de magnitude égale au fond (18.8) donne donc, avec un télescope de surface S = π(8.2)2 /4 m2 dans la bande Δλ = 0.35 μm, un signal de 1.36 104 t photons s−1 , où t est la transmission globale (atmosphère + télescope + instrument). Avec t ≈ 0.3 et η = 0.85, le courant est de 3 500 e− s−1 . Le gain affiché étant de 11 e− par adu, le signal de fond est de 318 adu s−1 , et sa fluctuation quadratique de 18 Hz−1/2 . Avec le rapport de Strehl obtenu, on concentre environ 50 % de l’énergie d’une étoile sur le pixel de la taille choisie. Une étoile de magnitude 18.8, pour un temps de pose de 1 min, donne √ un signal de 159 × 60 adu, tandis que le bruit de fond vaut 18 × 60, soit S/B = 68. Avec un tel temps de pose par intégration sur le ccd, la limite de détection, si l’on recherche un S/B=5, est alors un objet 13.6 fois plus faible, soit une magnitude mKs = 21.6, que l’on pourrait augmenter encore par une pose plus longue, jusqu’à une limite qui serait fixée par une saturation du pixel due au fond.
9.3.3
Observer avec le satellite photométrique corot
Le satellite corot, lancé en décembre 2007 par le cnes, est destiné à la photométrie de très haute précision, en particulier avec l’objectif de rechercher des planètes extrasolaires par la technique des transits. Lors d’un transit, on cherche à mesurer la diminution d’éclat d’une étoile quand une planète de son cortège passe entre elle et l’observateur : cela suppose bien sûr réalisée la situation rare, où l’observateur (corot) est pratiquement dans le plan orbital de la planète. Quelles performances attendre de corot pour la détection de planètes extrasolaires par cette méthode ? Par exemple quelle est la plus petite taille de planète qu’on peut espérer détecter ? Les principales caractéristiques du système corot sont rappelées dans le tableau 9.4. Le capteur est un ccd de type à transfert de trame : il n’y a donc pas de perte de temps durant la lecture, et le ccd détecte en permanence les photons 13 L’unité très employée adu (Analog Digital Unit) représente un facteur de conversion entre un courant – ou nombre d’électrons par seconde – et les bits du signal numérisé.
9. Le signal en astronomie
557
Tab. 9.4 – Principaux paramètres du satellite corot. Diamètre télescope Focale Détecteur Pixel Bruit de lecture Temps de pose élémentaire Rendement global γ Dispersion relative de rendement Fluctuations de pointage
27 cm 1.2 m 2 ccd de 2 0482 13.5 μm 14 électrons 32 s 0.7 .01 0.4 pixels
(cf. § 7.4.6). Il n’y a pas de filtrage en longueur d’onde, aussi, pour évaluer le signal, on fera l’hypothèse que cela est équivalent à observer simultanément dans les trois filtres juxtaposés B, V et R du système photométrique Johnson (cf. § 3.1), de longueurs d’onde centrales λB , λV , λR , et de largeur ΔλB , ΔλV , ΔλR respectivement. Pour simplifier, on suppose en outre que η, désignant ici le rendement global (optique + quantique) de conversion photon/électron ne dépend pas de la longueur d’onde. Considérons les cas de deux étoiles de type spectral solaire (G2V) et de magnitude apparente mV = 10 et 15 (i.e. le domaine de magnitude couvert par corot). Les indices de couleur (Johnson) pour ce type spectral sont : B-V = 0.63 et V-R = 0.53. Commençons par calculer les flux fB , fV , fR de l’étoile dans chaque filtre : – fB = FB × 10(−0.4mV +B−V ) , – fV = FV × 10(−0.4mV ) , – fR = FR × 10(−0.4mV +V +R) , où FB , FV , FR sont les flux de référence (en W m−2 μm−1 ) d’une étoile de magnitude mV = 0. On évalue ensuite le nombre Ntot total de photoélectrons produits durant un temps de pose τ en faisant l’approximation raisonnable que les filtres sont assez étroits pour que, dans un filtre, l’énergie de chaque photon soit celle de la longueur d’onde moyenne du filtre. Soit : Nλ = π(D2 /4)τ γFλ Δλ(cλ/h) Ntot = πD2/4τ γ(FB λB ΔλB + FV λV ΔλV + FR λR ΔλR )/(h/c).
(9.4)
On trouve alors Ntot = 3.16 × 10 pour mV = 10 et Ntot = 3.16 × 10 pour mV = 15. Estimons maintenant la variation ΔN du nombre de photoélectrons reçus durant une pose élémentaire, quand la planète passe devant le disque de l’étoile. Si le rayon de la planète est noté RP et celui de l’étoile RE , alors : 6
ΔN = Ntot (RP /RE )2 .
4
(9.5)
558
L’observation en astrophysique
Le tableau 9.5 résume les résultats pour RE = 7.0 × 108 km, RP = 60 000 km (exoplanète de type Jupiter) et RP = 6 000 km (exoplanète de type Terre), en les comparant au bruit de photon bS de l’étoile seule, qui est 1/2 simplement bS = Ntot . Tab. 9.5 – Variation du nombre de photoélectrons lors d’un transit pour deux cas de planètes et deux temps de pose cumulés. mV
Jupiter, 32 s
Terre, 32 s
Bruit
Jupiter, 4 h
Terre, 4 h
Bruit
10
2.32 × 104
232
1.78 × 103
1.04 × 107
1.04 × 105
3.78 × 104
15
232
2.3
177
1.04 × 105
1.04 × 103
3.78 × 103
Examinons à présent les différentes sources de bruit ou d’incertitudes affectant la mesure. On note d’abord que la tache image d’une étoile est étalée sur ≈ 80 pixels, grâce à une légère défocalisation, dont le but est de limiter les problèmes de saturation et de réduire le bruit dû aux petites fluctuations du pointage. Bruit de lecture. Si on choisit par commodité de sommer tous les pixels d’un carré de 10 × 10 pixels, centré sur la tache de l’étoile, le bruit de lecture bL de la mesure sera : bL = (10 × 10)1/2 × BdL = 140 e− . Bruit de photon du fond. Pour des raisons de choix de l’orbite, la direction de pointage de corot doit être dans un plan proche du plan écliptique, aussi la lumière zodiacale (lumière du Soleil réfléchie par de petites particules dans le plan du système solaire, cf. § 2.9) est-elle une source importante de rayonnement parasite. Son intensité spécifique Iλ vaut 260 × 10−8 W m−2 μm−1 sr−1 . La valeur du nombre NZ de photoélectrons dus à la lumière zodiacale et détectés dans le carré 10 × 10 durant le temps de pose élémentaire est NZ = 1/2 36 800 e− et le bruit de photon correspondant est : bZ = Nz = 191 e− . Bruit de pointage. Un bruit supplémentaire, imputable aux petites variations de pointage du satellite, doit être considéré : la tache image, en se déplaçant sur le ccd dont la réponse n’est pas uniforme, induit des variations de la mesure photométrique. La défocalisation déjà mentionnée de l’image sur le ccd permet de réduire cet effet. On considère un petit déplacement δ (en fraction de pixel) de la tache : la surface qui n’est pas commune aux deux taches vaut alors 4 Rδ où R est le rayon de la tache en pixels. En moyenne, la variation relative ΔN/N du nombre de photoélectrons d’un pixel en périphérie de la tache est alors : ΔN/N = 4δ/(πR)2 . Le rendement quantique normalisé (ou flat-field) des pixels peut être considéré comme une variable aléatoire normale, centrée sur 1 et d’écarttype σ. L’expression du bruit bD correspondant, c’est-à-dire l’écart-type de
9. Le signal en astronomie
559
Tab. 9.6 – Une évaluation de bruit avec le satellite corot. Bruit de
Bruit de
Bruit
Bruit de
Signal
Signal
lecture
pointage
zodiacal
photon étoile
Jupiter
Terre
1.31 × 107
1.05 × 105
mV = 10 2.97 × 103
1.70 × 104
4.05 × 103
3.77 × 104
Le bruit de photon de la source domine : toutes les planètes sont détectables mV = 15 2.97 × 103
1.70 × 102
4.05 × 103
3.77 × 103
1.31 × 105
1.05 × 103
Le bruit de photon zodiacal domine : seules les planètes de type Jupiter sont détectables
Ce tableau résume les différentes contributions (en e− rms) au bruit total, pour deux étoiles différentes (mV ) et un temps d’intégration de 4 heures.
la variation du nombre de photoélectrons due aux fluctuations du pointage est alors : bD = δN σ(2πR)1/2 , soit, avec R = (80/π)1/2 , σ = 0.01 et δ = 0.4 pixel : bD = 801 e− . Le tableau 9.6 résume le bilan des bruits bS , bZ , bL et bD , dans les cas mV = 10 et mV = 15, pour un temps de mesure cumulé de 4 h. Il permet de conclure positivement sur les capacités effectives de corot quant à la détection de planètes de taille très inférieure à celle de Jupiter.
9.3.4
Observer avec un instrument γ à masque codé
Considérons l’instrument ibis/isgri à bord du satellite integral14 qui utilise un masque codé pour former des images (cf. § 5.2.5). L’image, enregistrée à bord, est formée d’un fond et de la superposition des ombres du masque projetées par toutes les sources du champ. Une pseudo-image du ciel, et des sources γ qu’il contient, est ainsi formée par corrélation entre l’image enregistrée et une matrice de décodage déduite du motif du masque codé. Soit M la matrice représentant le masque, ne contenant que des 1 (éléments transparents) et des zéros (éléments opaques), l’image formée sur le détecteur est la convolution de l’image du ciel S et de M, à laquelle s’ajoute le bruit de fond B : D = SM + B. Si M admet une matrice inverse G telle que MG = δ, on peut calculer : S = DG = SMG + BG = Sδ + BG = S + BG, 14 La mission integral, lancée par l’Agence spatiale européenne en 2002 et toujours active en 2007, est un observatoire du rayonnement γ. L’instrument ibis/isgri est destiné à faire des images (Imager on Board the Integral Satellite) à l’aide d’une camera désignée par isgri (Integral Soft Gamma-Ray Imager ).
560
L’observation en astrophysique
et S ne diffère de S que par l’ajout du terme BG. Dans le cas où le masque est formé par réplication cyclique du même motif de base et que le fond B est plat, le terme BG est une constante qui peut être ignorée. En pratique, si le fond n’est pas plat mais que sa structure est connue, on peut corriger l’image D pour rendre le fond plat. La réplication du motif de base, qui permet l’obtention d’un champ totalement codé, implique l’existence d’une forte corrélation entre les motifs partiels, projetés par des sources séparées d’un angle égal à celui sous-tendu par le motif de base du masque vu depuis le détecteur. La procédure de déconvolution produira donc à chacune de ces positions un fantôme de la source principale. Dans le cas d’un motif de base carré et pour une source totalement codée, il y a 8 fantômes15 principaux placés aux milieux des côtés et aux sommets d’un carré entourant la position réelle de la source. Si la source est partiellement codée, seule une partie des fantômes sera visible. Chaque source produisant jusqu’à 9 pics (8 fantômes plus la source) dans une image déconvoluée, un champ contenant plus de 3 sources produira une image extrêmement confuse dans laquelle il sera difficile de détecter des sources faibles. Il se peut aussi qu’une source soit cachée par le fantôme d’une autre. Il est donc nécessaire d’enlever les fantômes. Pour cela on utilise un processus itératif, analogue à la méthode clean utilisée en radioastronomie (cf. § 6.4.6). Ce processus, illustré figure 9.10, consiste à repérer la source la plus forte, à modéliser la fonction d’appareil à la position de la source et à la soustraire de l’image. Ce processus est répété jusqu’à ce qu’il n’y ait plus de source significative. On rajoute alors le pic principal de la fonction d’appareil à la position de chacune des sources trouvées. integral étant un observatoire, un comité est chargé de répartir son temps d’observation entre les divers proposants répondant à un appel d’offre annuel. Cet appel d’offre, émis par l’Agence spatiale européenne, est assorti d’une documentation et d’outils informatiques permettant à l’astronome de déterminer la durée et la stratégie d’observation qui lui permettront d’atteindre ses objectifs. Hormis le cas des sursauts γ ou de sources extrêmement brillantes, le taux de comptage des instruments à masque codé est dominé par celui dû au fond de l’instrument. La sensibilité, ou plus précisément le flux minimum détectable, sont donc limités par le bruit de fond. Soient B(E) le taux de comptage de fond dans une bande d’énergie E, de largeur δE, δt le temps d’observation, A(E) la surface de détection, i l’efficacité en imagerie, p (E) l’efficacité de détection dans le pic d’absorption totale, η0 (E) la transparence des pavés du masque et η1 (E) la transparence des trous du masque. La sensibilité de détection d’une source ponctuelle, exprimée en cm−2 s−1 keV−1 , à un niveau de signal se situant n fois au-dessus du bruit d’écart-type σ est 15 Ce nombre serait différent si le masque possédait une symétrie différente, par exemple hexagonale comme vu au § 5.2.5.
9. Le signal en astronomie
561
Fig. 9.10 – Illustration de la procédure de nettoyage des images ibis/isgri. À gauche : images du détecteur aux différents stades du traitement qui se déroule de haut en bas. À droite : images déconvoluées correspondant aux images du détecteur. Ligne supérieure : images issues du détecteur et du fond de ciel au début du traitement. Ligne suivante : images obtenues après soustraction du fond. Ligne suivante : images résultant de la soustraction de la source la plus brillante (Cygnus X-1). Ligne inférieure à gauche : image détecteur après soustraction de la deuxième source (Cygnus X-3). Ligne inférieure à droite : image finale, obtenue en déconvoluant l’image détecteur de gauche et en lui ajoutant le pic central de la fonction d’appareil à la position de chacune des sources trouvées.
562
L’observation en astrophysique
alors bien approchée par l’expression : 2n B(E) δt · S= i p (E)(1 − η0 )η1 A δt δE
(9.6)
L’efficacité en imagerie i résulte de l’imperfection d’échantillonage de l’ombre du masque. Dans le meilleur des cas, celle-ci est (1 − 1/3R) où R est le rapport entre la dimension de l’élément de base du masque et celle d’un pixel du détecteur (R = 2.43 dans le cas d’ibis/isgri). Dans le cas d’isgri, pour E compris entre 20 et 40 keV, B ≈ 150 s−1 , A ≈ 2 000 cm2 , i = 0.86, p ≈ 0.9, η0 = 0, η1 ≈ 0.8. En un temps de pose de 106 s (environ 10 jours), on peut donc atteindre au niveau de détection 3σ une sensibilité de l’ordre de 3.10−6 cm−2 s−1 keV−1 , soit environ 3 000 fois moins que le flux de la source γ du Crabe (reste de supernova) : ceci s’exprime parfois en parlant d’une sensibilité d’un tiers de milliCrabe.
9.4
Peut-on corriger les signatures instrumentales ?
Une mesure en astrophysique observationnelle est toujours affectée de plusieurs biais et d’incertitudes. Certains sont inhérents à la mesure, comme le bruit de photons, et ne peuvent guère être maîtrisés autrement qu’en augmentant le temps d’intégration, mais d’autres sont liés aux imperfections de la chaîne instrumentale et le plus souvent peuvent être pris en compte pour améliorer la précision de la mesure et la rendre aussi proche que possible des limites fondamentales. C’est à cet ensemble d’opérations, effectuées durant la réduction de données et que souvent on désigne par correction de signature instrumentale, que cette section est dédiée. Comme il est illusoire de réussir à être exhaustif sur la vaste panoplie de l’instrumentation en astronomie observationnelle, nous choisissons de privilégier le domaine des instruments du visible et du proche infrarouge, domaine où la stratégie de correction des signatures instrumentales est désormais bien établie et fait appel à des outils relativement standardisés. Des processus d’inspiration semblable sont mis en œuvre dans les protocoles d’observation aux radiofréquences ou aux hautes énergies (X et γ). On appele biais tout signal parasite qui s’ajoute de façon systématique au photosignal de la source : ce peuvent être, par exemple, l’émission de fond de ciel, le courant d’obscurité du détecteur, la tension parasite du détecteur, la lumière parasite, les images fantômes, les aigrettes de diffraction, etc. Les incertitudes correspondent, quant à elles, à une composante aléatoire qui s’ajoute à chaque mesure : elles peuvent être le bruit statistique, la scintillation, les variations temporelles de transmission et d’émission de l’atmosphère, les variations de rendement quantique entre pixels du détecteur ou de transmission sur le champ, les impacts de rayons cosmiques. En outre, ces
9. Le signal en astronomie
563
deux familles de phénomènes ne sont pas indépendantes l’une de l’autre : par exemple, un bruit aléatoire est associé au courant d’obscurité.
9.4.1
L’émission propre de l’instrument
Si le ciel nocturne n’est en réalité pas vraiment noir aux longueurs d’onde infrarouges et millimétriques (cf. § 2.3), la situation empire du fait de l’instrument lui-même qui, en raison de son émission thermique, apporte la contribution majeure au rayonnement de fond vu par le détecteur. Ce fond peut même devenir beaucoup plus brillant que les sources visées. Cette émission est structurée spatialement en raison des inhomogénéités dans le faisceau et des différences d’émissivité entre les parties de l’instrument, elle est également variable dans le temps. On doit donc la comptabiliser dans la signature instrumentale. Pour limiter cette signature, au moins au premier ordre, le remède est d’effectuer une autre mesure sur une portion de ciel vide et de la soustraire – au passage, il ne faut pas oublier que le bruit statistique des photoélectrons dus au ciel ou à l’instrument ne peut pas être soustrait dans cette opération, au contraire, la variance de ce bruit sera doublée. Pour mesurer le ciel de référence plus rapidement que le temps typique de sa variation – en général une fraction de seconde –, on bascule le faisceau entre les deux positions, soit en dépointant le télescope, soit, ce qui est plus rapide, à l’aide du miroir secondaire qui est oscillant : c’est le principe de la modulation de faisceau ou chopping. Dans ce dernier cas, comme l’optique du télescope est également émissive, le déplacement du faisceau sur le miroir primaire induit un signal parasite supplémentaire dû aux poussières ou aux inhomogénéités. Un fond structuré se superpose ainsi à l’image du ciel. On évalue alors cette contribution, qui n’est due qu’à la modulation rapide, en dépointant régulièrement le télescope lui-même vers une autre région du ciel : c’est le principe de la commutation de faisceau ou nodding. La correction de cette signature particulière se fera donc en effectuant une double soustraction, comme l’illustre la figure 9.11.
9.4.2
Le courant d’obscurité
Ce signal, (en anglais dark current) correspond aux charges produites dans le détecteur par agitation thermique, même en l’absence de photons. Par exemple, dans un matériau semi-conducteur photosensible, la probabilité de produire une paire électron-trou est proportionnelle à la quantité T 3/2 exp(−Egap /2kT ) où Egap est le saut en énergie (gap) pour passer de la bande de valence à la bande de conduction, soit Egap = hνmin = hc/λmax , où λmax est la longueur d’onde au-delà de laquelle le détecteur n’est plus sensible : λmax = 1.15 μm pour le silicium, le matériau photosensible des ccd (cf. § 7.3). On produit ainsi d’autant plus de charges que T est élevée et que le seuil est petit, donc que la longueur d’onde de coupure du détecteur est
564
L’observation en astrophysique
Fig. 9.11 – Commutation de faisceau. Le fond grisé dans le champ du détecteur () représente l’émission variable de fond de ciel, dont on veut extraire le signal de l’étoile. A, B, C sont différentes positions du champ sur le ciel. (A-B) et (B’-C) représentent la commutation de faisceau (chopping), tandis que leur différence (B’-C)(A-B) ne laisse que le double du signal de la source, en ayant éliminé le fond de ciel (nodding). grande. C’est la raison pour laquelle les détecteurs infrarouge ont toujours un courant d’obscurité plus élevé que ceux du domaine visible : on doit les refroidir d’autant plus énergiquement que leur longueur d’onde de fonctionnement est élevée (cf. § 7.4.7). Parce que la charge d’obscurité produite après un certain temps d’intégration diffère quelque peu d’un pixel à l’autre, une signature structurée apparaît, superposée au signal photonique. Elle est en général reproductible si la température du détecteur est bien stabilisée. La correction de cette signature, qui peut être particulièrement importante dans le domaine infrarouge, est obtenue simplement en effectuant des mesures avec obturateur fermé durant le même temps que la pose sur le ciel, puis en soustrayant le signal résultant. Deux remarques s’imposent ici. La première est de rappeler que soustraire la charge d’obscurité ne permet pas de s’affranchir de l’incertitude statistique qui lui est associée : on est donc toujours gagnant en réduisant cette charge par refroidissement du détecteur. Le seconde remarque est que la détermination d’une valeur précise de la charge d’obscurité s’obtient en accumulant un grand nombre de mesures, afin de réduire le bruit statistique.
9.4.3
Les défauts de non-linéarité
La non-linéarité du détecteur est un autre exemple de signature instrumentale dont il faut souvent tenir compte. La réponse d’un détecteur sature toujours à partir d’un certain niveau de signal photonique (seuil de saturation) : il ne faut donc en aucun cas dépasser cette limite. Mais le plus souvent, la réponse commence à devenir non linéaire à un niveau plus bas que ce seuil. On cherche en général à rester largement en deçà de cette limite, de façon à ce que la mesure puisse s’interpréter simplement en termes de flux lumineux. S’il advient que le détecteur soit non linéaire sur toute la plage de fonctionnement, la mesure doit alors être corrigée
9. Le signal en astronomie
565
de cette non-linéarité. Celle-ci est donc préalablement établie par des mesures en laboratoire, par exemple en observant une source, de préférence étalonnée mais surtout très stable, et en augmentant le temps de pose par paliers bien précis pour explorer tout le domaine de signal.
9.4.4
Les tensions parasites ou biais
En général, même à temps de pose nul et obturateur fermé, on mesure en sortie du détecteur un signal non nul, variable d’un pixel à l’autre. Cette tension parasite ou biais (bias en anglais) a des origines multiples : elle dépend de l’électronique de contrôle et/ou d’effets internes aux détecteur, comme des niveaux d’impuretés, des tensions apparaissant aux jonctions, des caractéristiques du circuit de lecture intégré au détecteur. On mesure le biais en effectuant des poses de durée quasi nulle, qu’on moyenne et qu’on peut alors soustraire à l’image faite sur l’objet. En fait, cette opération est rarement nécessaire, car ce signal parasite est nécessairement inclus dans la mesure de la charge d’obscurité et se trouve donc soustrait en même temps qu’elle.
9.4.5
La lumière parasite
Des sources brillantes (la Lune, des étoiles) dans le champ, ou proches de l’axe de visée, peuvent produire des images parasites (ghost en anglais), causées par des réflexions indésirables sur les surfaces optiques, en particulier dans les systèmes dioptriques. Ces images, qui correspondent à des trajets optiques plus longs, sont en général défocalisées et apparaissent sous forme d’un halo reproduisant la forme de la pupille. La figure 9.12 (cahier couleur) donne un exemple de ce type d’artefact sur une image obtenue par la caméra megacam au foyer du télescope Canada-France-Hawaii. Les images fantômes, qui proviennent de sources hors axe, sont difficiles à prévoir et à éliminer car elles varient dans le temps (mouvement relatif des astres ou rotation de champ) et dépendent de la direction fine de pointage : un microbalayage par exemple peut introduire des images fantômes qui se déplacent très notablement sur le champ. La diffraction par les bras de l’araignée, qui maintient en place le miroir secondaire du télescope, produit sur les étoiles brillantes des aigrettes qui perturbent également la mesure (Fig. 9.12). Dans un télescope à monture équatoriale, la figure produite est fixe et peut être soustraite d’une pose à l’autre à partir d’une mesure sur une étoile brillante ; en revanche, dans un télescope à monture altazimutale, la rotation du champ et de la pupille rend cette opération sinon impossible, tout au moins beaucoup moins efficace.
566
L’observation en astrophysique
9.4.6
La correction de champ plat
Cette signature instrumentale, dite de champ plat (flat field en anglais), traduit la combinaison des inhomogénéités de rendement quantique du détecteur et de transmission de l’optique sur le champ. On l’appelle aussi parfois bruit spatial fixe : en effet, si on observe une scène parfaitement uniforme en brillance, la mesure produit tout de même une fluctuation spatiale de signal d’un pixel à l’autre, en règle générale reproductible. Il s’agit ici d’un effet multiplicatif, comme l’est d’ailleurs celui de la non-linéarité, puisque ce bruit est proportionnel au flux de la source de brillance uniforme. Afin de le corriger, on combine plusieurs techniques. La première consiste à observer une scène de brillance très uniforme, puis de la diviser par sa médiane, de façon à produire le champ plat normalisé par lequel on divisera toutes les images. Il est nécessaire de prendre quelques précautions. i) un bon champ plat doit être affecté d’un bruit bien inférieur à celui qu’il prétend corriger : il faut donc qu’il soit construit à partir d’un très grand nombre de photocharges par pixel. Ceci suppose de co-additionner un grand nombre de poses, chacune ayant un niveau moyen proche du maximum de charges stockables par pixel ; ii) le champ plat doit être obtenu en utilisant toute la chaîne optique, y compris le télescope : cela permet d’éliminer les inhomogénéités de transmission de l’optique. On considère généralement qu’une portion de ciel observée au soleil couchant ou levant constitue une bonne source de champ plat.
Pour limiter les effets de réponse différentielle, une seconde technique consiste à effectuer un microbalayage, c’est-à-dire déplacer le télescope de quelques pixels, généralement de façon aléatoire, d’une pose à l’autre. On reconstitue l’image en effectuant numériquement des recentrages à une fraction de pixel près, avant co-addition des poses. Une même région du ciel est ainsi vue par plusieurs pixels différents et la moyenne de leur réponse réduit la variance du bruit spatial. Enfin citons la technique du balayage synchrone (Time Delay Integration en anglais) qui est tout à fait propre aux détecteurs ccd. Dans ce mode, on laisse défiler la scène sur le détecteur suivant la direction des lignes du ccd, par exemple en arrêtant la poursuite du télescope, tout en assurant un transfert des charges, de pixel en pixel, exactement à la même vitesse que celle du défilement des images. Une source contribue ainsi à la construction d’une photocharge tout au long du balayage sur le ccd mais en ayant éclairé à tour de rôle un très grand nombre de pixels différents dont les réponses se moyennent. C’est la technique utilisée dans le grand relevé sloane et c’est celle prévue dans le satellite astrométrique gaia.
9. Le signal en astronomie
9.4.7
567
Les pixels défectueux
Un détecteur panoramique n’est jamais parfait : en raison de micropollutions lors du processus de fabrication ou à la suite de détériorations par des particules énergétiques, plusieurs pixels deviennent soit inopérants (pixels dits morts), soit deviennent plus bruyants, soit sont le siège d’un fort courant d’obscurité (pixels dits chauds). On peut corriger ces défauts en tirant parti de la technique de microbalayage évoquée ci-dessus. Lorsque, au cours d’une pose, le flux d’une région du ciel n’a pas été mesuré parce qu’elle correspondait à un pixel mort, on pourra néanmoins en obtenir une approximation correcte en effectuant une moyenne des autres mesures décalées spatialement, donc ayant déplacé la position du pixel mort. Si la technique de microbalayage n’a pas pu être mise en œuvre, on pourra cependant donner de ce flux une estimation acceptable en moyennant les huit pixels qui encadrent le pixel défectueux. Cela suppose, bien sûr, que l’échantillonnage de l’image ait été correctement choisi en fonction de son contenu en fréquences spatiales (cf. § 9.1.3).
9.4.8
Les effets d’impacts de particules énergétiques
Les rayons cosmiques de haute énergie bombardent en permanence notre environnement, avec une fréquence d’autant plus élevée qu’on se trouve en altitude, situation généralement recherchée pour les observatoires modernes. C’est en outre toujours le cas des satellites (cf. § 2.9). En déposant leur énergie dans le volume du substrat du détecteur, ces particules produisent la création de milliers de charges parasites qui sont indiscernables des photocharges. Cet effet est d’autant plus important que le photomatériau est épais. En général, une particule n’affecte qu’un seul pixel sur un ccd, mais avec des détecteurs infrarouges plus épais, les impacts de particules cosmiques peuvent laisser des traînées de plusieurs pixels. L’image d’une pose très longue apparaît ainsi parsemée de pixels brillants : ceux qui ont été touchés par ces impacts. La parade la plus efficace consiste à diviser la pose en plusieurs poses plus courtes afin de pouvoir trier, pour un pixel donné et avant co-addition, les mesures à rejeter. Il est néanmoins important de ne pas tomber dans le piège de poses trop courtes, qui seraient alors limitées par le bruit de lecture.
9.5
Le problème de l’estimation
Le hasard, le fortuit, l’aléatoire, sont dans la nature des choses. L’humanité a constaté ce fait très tôt, et il a été sans doute banal de remarquer qu’au cours d’une série d’expériences, en apparence identiques, on obtenait toujours des résultats différents. C’est cette observation qui est à l’origine des jeux de hasard, si répandus dans toutes les civilisations. En revanche, il semble que l’idée que le hasard puisse obéir à des lois soit une notion qui ait longtemps échappé à la sagacité des Anciens. Il paraît bien exister dans les phénomènes
568
L’observation en astrophysique
naturels une part fluctuante qui oscille autour d’une part invariante, mais ce n’est qu’à partir du moment où la théories des probabilités, et des lois qui lui sont attachées, se mettent en place qu’il devient possible d’en estimer cette part invariante. Lorsque la théorie des probabilités fait irruption dans le domaine expérimental, elle impose sa façon de voir les choses, pour elle une observation est une réalisation d’une ou plusieurs variables aléatoires qui obéissent à une loi sous-jacente, par exemple la loi normale. Cette loi est gouvernée par des paramètres inconnus θk , par exemple sa moyenne et son écart-type ; ce sont ces paramètres qui souvent forment la « part invariante » citée plus haut et qui constitue l’information à extraire du bruit. Cette approche est celle du traitement statistique des données, et plus précisément de la théorie de l’estimation que nous abordons dans ce chapitre.
9.5.1
Les échantillons et les statistiques
Le traitement statistique des données utilise la théorie des probabilités en tant que support théorique mais utilise, pour désigner les mêmes objets, un vocabulaire qui s’en distingue. D’un point de vue statistique, un ensemble (X1 , . . . , Xn ) de n variables aléatoires est un échantillon et n en est sa taille ; on dit alors que l’on dispose d’un échantillon de taille n ou encore un n-échantillon. Un ensemble (x1 , . . . , xn ) de n nombres issus de ce n-échantillon est appelé une réalisation ou une observation de cet échantillon. Les lois de probabilité suivies par les variables aléatoires Xi sont appelées les populations parentes. Enfin, pour étayer ses prises de décisions, le statisticien utilise des fonctions g(X1 , . . . , Xn ) des variables aléatoires Xi qu’il appelle des statistiques. Exemple : un problème typique exprimé avec le vocabulaire du statisticien. Une expérience a conduit à observer n nombres (x1 , . . . , xn ), que l’on identifie à la réalisation d’un n-échantillon (X1 , . . . , Xn ). On suppose que le n-échantillon est constitué de variables aléatoires indépendantes et issues de la même population parente de moyenne μ. Afin d’estimer μ, on propose d’utiliser la statistique : 1 Xi . n i=1 n
g(X1 , . . . , Xn ) =
(9.7)
Cette statistique, souvent notée X, conduit à estimer la moyenne μ par la moyenne arithmétique des xi : 1 xi . n i=1 n
x=
(9.8)
C’est un choix raisonnable puisqu’un résultat de la théorie des probabilités, la loi des grands nombres, affirme que X converge presque-sûrement vers μ lorsque la taille de l’échantillon tend vers l’infini.
9. Le signal en astronomie
9.5.2
569
L’estimation ponctuelle
Afin d’estimer les paramètres inconnus des populations parentes, on utilise des fonctions δ(X1 , . . . , Xn ) de l’échantillon appelées estimateurs, ce sont des statistiques. La tradition veut que l’on note θ?n un estimateur de θ construit à l’aide d’un échantillon de taille n et Tn un estimateur de τ (θ) (en général on a Tn = τ (θ?n )). On appellera estimation une réalisation de ces estimateurs, un estimateur est une variable aléatoire, alors qu’une estimation est un nombre, cependant, estimateurs et estimations seront notés à l’aide du même symbole. Enfin, pour simplifier, on notera souvent X l’échantillon (X1 , . . . , Xn ) et x la réalisation (x1 , . . . , xn ). Le problème de l’estimation ponctuelle consiste à préciser ce que l’on entend par un bon estimateur du paramètre inconnu θ ou d’une fonction τ de celui-ci. Cela revient à choisir parmi toutes les différentes manières δ(X) de combiner les données celle pour laquelle il existe de bonnes raisons de la préférer à toutes les autres. Comme l’estimation de τ (θ) recouvre celle de θ, nous ne considérerons que ce premier cas, on notera δ(X) l’estimateur de τ (θ).
9.5.3
Quelques éléments de théorie de la décision
Afin de donner un sens aux considérations évoquées ci-dessus, il convient d’introduire quelques critères objectifs qui permettent de comparer les estimateurs entre eux. Ces critères sont empruntés à ceux de la théorie de la décision dont nous donnons quelques éléments ci-dessous. L’erreur d’estimation. La première chose à faire est de définir une erreur d’estimation. L’erreur commise en estimant τ (θ) par δ(X) est : δ(X)−τ (θ). Si l’erreur est positive on surestime τ (θ), on le sous-estime dans le cas contraire. La fonction de pertes. Il faut ensuite faire face aux conséquences des erreurs d’estimations, c’est le rôle de la fonction de pertes qui donne le coût attaché à ces erreurs. Cette fonction L(θ, t) est positive et sa valeur est « le prix à payer » pour les erreurs d’estimation. Elle n’est nulle que si, et seulement si, t = θ. Pour des raisons essentiellement pratiques, on choisit souvent la fonction de pertes quadratique : L(τ (θ), δ(X)) = (δ(X) − τ (θ))2 .
(9.9)
Le risque. Les estimateurs sont des variables aléatoires et, en tant que tels, susceptibles de fournir des résultats différents d’une expérience à l’autre. Afin de pouvoir les comparer entre eux, il faut disposer d’une mesure globale prenant en compte toutes les issues possibles de ces variables. Le risque est la notion qui répond à cette attente. Le risque R est l’espérance de la fonction de pertes : R(θ, δ) = E{L(θ, δ(X))}, (9.10)
570
L’observation en astrophysique
l’espérance porte sur toutes les valeurs possibles de l’échantillon X, le risque apparaît donc comme une fonction de θ. Si la fonction de pertes est quadratique, le risque attaché à l’estimation de τ (θ) par δ(X) est l’erreur quadratique moyenne de δ(X) autour de τ (θ) : R(τ (θ), δ(X)) = Var(δ(X)) + [E{δ(X) − τ (θ)}]2 .
(9.11)
La quantité Var(δ(X)) est la variance de δ(X) et E{δ(X) − τ (θ)} porte le nom de biais. Ordre partiel parmi les estimateurs. Entre deux estimateurs de τ (θ), on dira que l’un δ1 est meilleur qu’un autre δ2 au sens du risque si : ∀θ, R(τ (θ), δ1 ) < R(τ (θ), δ2 ). Cette relation d’ordre « être meilleur qu’un autre », n’est que partielle : la condition peut ne pas être satisfaite pour tous les θ et les estimateurs ne sont alors pas comparables. La question qui se pose immédiatement est : pour une fonction de pertes donnée, existe-t-il un estimateur meilleur que tous les autres au sens du risque ? En réalité, il n’existe aucun estimateur qui réponde à cette attente. En effet, considérons l’estimateur trivial δ0 qui, sans égard à la valeur de X, déclare que δ0 (X) = τ (θ0 ) où θ0 est une valeur arbitraire. Le risque attaché à δ0 sera en général très grand sauf si, d’aventure, θ = θ0 auquel cas il sera nul. Aucun autre estimateur ne peut alors être meilleur que lui pour θ0 , il n’existe donc pas d’estimateur préférable à tous les autres au sens de l’ordre défini ci-dessus. Le problème est que l’on a cherché à comparer un estimateur candidat à l’optimalité contre une classe comprenant tous les autres et pour tous les θ. Cette classe est bien trop vaste et le problème trop général pour que l’on puisse espérer y trouver celui qui s’impose face à tous les autres. Si l’on veut garder l’espoir de trouver des estimateurs optimaux, il faut restreindre la classe des estimateurs ou la hauteur de nos ambitions. Pour ce faire, il existe trois méthodes classiques qui, pour un problème donné, fournissent des raisons objectives de préférer un estimateur dans une classe qui reste malgré tout très vaste. Le principe d’impartialité. Le problème avec l’estimateur trivial, c’est qu’il favorise la valeur θ0 au détriment de toutes les autres, d’où l’idée de rechercher des estimateurs dans une classe qui ne possède pas ce travers. Le moyen le plus classique est de restreindre la recherche du meilleur estimateur à la classe des estimateurs sans biais et d’imposer : E{δ(X)} = τ (θ). Comparer les estimateurs au sens du risque revient alors à comparer leurs variances. On montre qu’effectivement dans cette classe il peut exister des
9. Le signal en astronomie
571
estimateurs optimaux. Ces estimateurs sont dit : umvu, de l’anglais Uniform Minimum Variance Unbiased, étant sous-entendu que la fonction de pertes est la fonction quadratique. Le principe de Bayes. Une autre approche, moins ambitieuse, consiste à abandonner l’espoir de minimiser le risque uniformément (c’est-à-dire pour tous les θ) et à chercher l’estimateur qui minimise un risque calculé en moyenne sur tous les θ. Afin que cette moyenne ait un sens, elle doit être effectuée à l’aide d’une fonction de poids π(θ). On calcule alors le risque moyen ou risque de Bayes Rπ : Rπ (δ) = R(τ (θ), δ)π(θ) dθ. (9.12) θ
Dans l’interprétation bayesienne de cette moyenne, θ est une variable aléatoire de densité de probabilité a priori π(θ). Un estimateur de Bayes est un estimateur qui minimise le risque de Bayes. Présentée sous cette forme, cette notion n’est pas sujette à critique mais, certains praticiens la contestent lorsqu’il n’est pas concevable que θ puisse être une variable aléatoire. Ils refusent le principe alors que l’école dite bayesienne l’accepte et interpréte π(θ) comme la mesure du degré subjectif de confiance que l’on accorde aux valeurs possibles de θ. Quoiqu’il en soit, la démarche bayesienne possède l’avantage d’offrir un cadre où il devient possible, en fonction de l’expérience acquise, d’affiner la densité a priori π(θ) en la remplaçant par la densité a posteriori ψ(θ|X). On a en effet d’après la formule de Bayes : ψ(θ|X) = '
l(X|θ)π(θ) · l(X|θ)π(θ) θ
(9.13)
Dans cette expression l(X|θ) est la fonction de vraisemblance, c’est-àdire la densité de probabilité d’observer X connaissant θ. La fonction ψ apparaît alors comme une amélioration de π au vu des résultats expérimentaux X.
Le principe minimax. Suivant ce principe, on rend compte de la performance globale d’un estimateur en notant le maximum de son risque et on cherche ensuite à minimiser cette valeur. Ainsi, un estimateur δ ∗ sera un estimateur minimax si : max R(τ (θ), δ ∗ ) = min max R(τ (θ, δ)). θ
δ
θ
(9.14)
Le risque minimax Rm par définition est égal à : Rm (δ) = max R(τ (θ, δ)). θ
On montre que le risque minimax est toujours supérieur ou égal au risque d’un estimateur de Bayes quelconque. Si le domaine de définition des θ est
572
L’observation en astrophysique
fini, alors on montre que l’estimateur minimax correspond à l’estimateur de Bayes suivant la densité a priori π la plus défavorable, c’est-à-dire conduisant au risque de Bayes le plus élevé. Le principe minimax se révèle être un principe de prudence que l’on peut même qualifier de pessimiste. Il existe d’autres principes conduisant à des estimateurs souvent intéressants, on peut citer par exemple les estimations non déterministes où le même échantillon ne conduit pas nécessairement à la même estimation.
9.5.4
Les propriétés des estimateurs
Les notions évoquées ci-dessus conduisent à étudier de plus près les propriétés que doivent posséder les bons estimateurs. Il convient de commencer par la convergence qui est une propriété que devraient posséder tous les estimateurs qu’ils soient umvu, de Bayes ou autres. Ensuite, il est question du biais et de la variance des estimateurs ainsi que des méthodes qui permettent de les réduire. Enfin on présente un résultat fondamental dans la classe des estimateurs sans biais : la limite inférieure non nulle de leur variance. Convergence Définition. Une suite d’estimateurs {θ?n } ou, de façon plus concise, un estimateur θ?n est convergent lorsque il converge en probabilité vers la valeur qu’il prétend estimer. Suivant cette définition, un estimateur est convergent si : ∀ > 0, lim Pr{|θˆn − θ| ≥ } = 0. (9.15) n→∞
Pr On note cette convergence de la façon suivante : θ?n −→ θ. La notion de convergence en probabilité permet d’exprimer la « loi des grands nombres » qui stipule que la moyenne arithmétique M de n réalisations indépendantes (X1 , . . . , Xn ) d’un même variable aléatoire X est un estimateur convergent de sa moyenne μ (à condition qu’elle existe) :
1 Pr Xi −→ μ. n i=1 n
M=
(9.16)
Ce résultat, dont l’origine remonte au début du xviie siècle a été le point de départ de l’introduction de la théorie des probabilités dans le domaine expérimental. Absence de biais Définition. Un estimateur θ?n de θ ou Tn de τ (θ) est non biaisé si : E{θ?n } = θ
ou
E{Tn } = τ (θ),
(9.17)
9. Le signal en astronomie
573
pour toutes les valeurs possibles de θ. Si on définit le biais par la quantité : E{θ?n } − θ, un estimateur non biaisé est un estimateur de biais nul. ,n Exemple. La moyenne arithmétique M = n1 i=1 Xi est un estimateur non biaisé de la moyenne μ et de la variance σ2 de la population parente (à condition qu’elle existe) : E{M } = μ. (9.18) Ce résultat est une simple conséquence de la linéarité de l’espérance mathématique. La notion de biais correspond à celle d’erreur systématique des physiciens, elle a été introduite par Gauss en 1821. Outre les considérations théoriques évoquées plus haut, il semble raisonnable de regarder comme une bonne propriété le fait qu’en moyenne un estimateur soit égal au paramètre qu’il veut estimer. Cependant, il y a un certain danger à exiger de n’avoir affaire qu’à des estimateurs non biaisés, en premier lieu parce qu’un estimateur non biaisé peut ne pas exister. L’exemple suivant, qui le montre, est classique. Exemple : cas sans estimateur non biaisé. Soit K une variable aléatoire répartie suivant la loi binomiale B(n, p). Le nombre d’épreuves n est connu, mais la probabilité p de succès d’une épreuve est inconnue. Cependant ce n’est pas p que nous cherchons à estimer mais : τ (p) = 1/p. Soient t(k) les valeurs prises par l’estimateur T de 1/p lorsque l’on observe k succès en n épreuves. Par définition, pour que T soit non biaisé il faut que : n k=0
t(k)Cnk pk (1 − p)n−k =
1 p
pour
0 < p ≤ 1.
Supposons que pour un certain p l’estimateur T soit non biaisé, alors la somme de gauche est finie (ce qui implique en particulier que t(0) est fini). Maintenant, lorsque p → 0, le terme de gauche tend vers t(0) alors que le terme de droite 1/p peut être aussi grand que l’on veut, par conséquent T ne peut être non biaisé pour tous les p16 . Estimateurs asymptotiquement non biaisés. Lorsqu’il s’agit de définir des propriétés asymptotiques, il est essentiel de préciser l’ordre des opérations vis-à-vis du passage à la limite. Dans le cas qui nous intéresse, une suite 16 Cet exemple n’est pas artificiel, il correspond à la procédure de capture-recapture dont le but est d’estimer une population d’animaux. Soit N la population d’une espèce animale (par exemple des poissons dans un lac). Pour estimer N , on capture m animaux que l’on marque et relâche. Après marquage, la probabilité de recapturer un animal est p = m/N , estimer la population N = m/p revient alors à estimer 1/p. En fait, pour estimer 1/p de façon non biaisée, il faut recapturer des animaux jusqu’au moment où le nombre d’individus marqués est égal à un nombre r donné à l’avance. Si r + Y désigne le nombre total d’animaux qu’il a fallu recapturer afin d’en obtenir r marqués, on montre que (r + Y )/r est le meilleur estimateur non biaisé de 1/p. Dans cette procédure, on suppose soit que N est très grand, soit que l’on recapture et relâche immédiatement les animaux (tirage avec remise).
574
L’observation en astrophysique
d’estimateurs θ?n sera-t-elle déclarée asymptotiquement non biaisée si la limite de l’espérance tend vers zéro ou si l’espérance de la limite tend vers zéro ? Les deux définitions coexistent et on a : Définition : limite de l’espérance. Une suite d’estimateurs {θ?n } de θ sera dite asymptotiquement non biaisée, si la suite des espérances de θ?n tend vers θ. C’est-à-dire si : lim E{θ?n } = θ. n→∞
Cette limite n’appelle aucune remarque particulière car il s’agit d’une suite de scalaires. Définition : espérance de la limite. Une suite d’estimateurs {θ?n } de θ sera dite asymptotiquement non biaisée si la suite des écarts : θ?n − θ, convenablement normalisés, tend en loi vers une variable aléatoire d’espérance nulle. C’est-à-dire s’il existe une suite kn telle que : kn (θ?n − θ) −→ Y loi
et
E{Y } = 0.
√ La constante de normalisation kn est souvent proportionelle à n comme dans le cas du théorème central limite. La convergence en loi veut dire qu’à la limite les deux variables aléatoires suivent la même fonction de répartition (sauf peut-être pour un ensemble de mesure nulle). Un estimateur peut fort bien être asymptotiquement non biaisé d’après une définition et pas d’après l’autre. Dans la pratique, on considère plutôt la première définition : la limite de l’espérance. Convergence et absence de biais. La convergence fait référence à la fonction de répartition alors que l’absence de biais fait référence au moment d’ordre un de cette fonction. Il n’y a aucune raison pour que les propriétés de convergence et d’absence de biais soient liées, ce sont des notions indépendantes. De plus, un estimateur convergent n’est pas nécessairement asymptotiquement non biaisé que cela soit suivant l’une ou l’autre définition de l’absence asymptotique de biais. L’exemple suivant le montre pour la définition « limite de l’espérance »17 . Exemple. Soit {θ?n } une suite d’estimateurs de zéro, l’estimateur θ?n est une variable aléatoire discrète qui vaut 0 avec la probabilité 1 − 1/n et n2 avec la probabilité 1/n. La suite d’estimateurs est de toute évidence convergente : la probabilité attachée au point qui n’est pas en zéro tend vers 0 comme 1/n lorsque n → ∞. En revanche il est biaisé et son biais ne tend pas vers zéro mais vers l’infini : E{θ?n } = 0(1 − 1/n) + n2 /n = n. 17 Pour « l’espérance de la limite » il est facile d’exhiber un contre-exemple où la loi limite ne possède pas de moyenne (par exemple, la loi de Cauchy).
9. Le signal en astronomie
575
Réduction du biais Les estimateurs non biaisés sont d’une grande importance théorique puisqu’ils définissent une classe où des estimateurs optimaux peuvent exister mais ils présentent un autre avantage en dehors de cette classe. Si on pense tirer parti de la loi des grands nombres en effectuant la moyenne arithmétique d’un ensemble d’estimateurs biaisés, on convergera vers la moyenne de la loi sousjacente, mais ce ne sera pas le paramètre que l’on veut estimer, on commettra une erreur égale au biais. On voit tout l’intérêt qu’il y a à corriger un biais éventuel ou, tout au moins, à le réduire. On doit noter cependant que, si l’on tente de réduire le biais à l’aide des méthodes exposées ci-dessous alors qu’il n’existe pas d’estimateur non biaisé, on diminuera peut-être le biais de l’estimateur mais on augmentera sa variance de telle façon qu’au final son erreur quadratique moyenne sera plus grande. Le biais est facilement calculable. Dans certaines situations, un simple calcul permet de corriger un biais, c’est le cas pour l’estimation de la variance d’une population que nous allons envisager à titre d’exemple. Supposons que nous ayons à disposition un échantillon (X1 , . . . , Xn ) indépendant issu d’un loi de moyenne μ et de variance σ 2 . Le paramètre à estimer est σ 2 ( la puissance d’un bruit par exemple.) Deux cas sont possibles : soit la moyenne μ est connue, soit elle ne l’est pas. Si la moyenne de la population est connue, on montre que l’estimateur : ,n 2 S = n1 i=1 (Xi − μ)2 appelé « variance de l’échantillon » ne possède pas 2 de biais E{S } = σ 2 . En revanche, si on estime la moyenne de la popu, 2 lation par la moyenne de l’échantillon : M = n1 ni=1 Xi , l’estimateur S est seulement asymptotiquement non biaisé. On montre, en effet, que pour ,n 2 2 2 S = n1 i=1 (Xi − M )2 , E{S } = σ 2 − σn · La variance de l’échantillon est donc systématiquement plus petite que la variance de la population. Dans ce cas, il est facile de corriger le biais en considérant l’estimateur 2 2 n n n S 2 = n−1 S . Il vient : E{S 2 } = E{ n−1 S } = n−1 (σ 2 − σ 2 /n) = σ 2 . Pour estimer sans biais la variance d’une population, il y a donc lieu de considérer l’estimateur : 1 (xi − M )2 . n − 1 i=1 n
S2 =
(9.19)
Notons toutefois que sa variance est plus élevée que celle de l’estimateur biaisé 2 S . On a en effet : Var(S 2 ) =
n−1 2σ 4 2 > Var(S ) = 2σ 4 2 · n−1 n
(9.20)
Si un estimateur θ? est non biaisé pour θ, il n’y aucune raison pour que ? soit un estimateur non biaisé de g(θ). Par exemple, si g est une fonction g(θ)
576
L’observation en astrophysique
convexe, on a l’inégalité de Jensen : E{g(X)} ≥ g(E{X}), qui montre que l’on doit s’attendre à observer un biais. Tel est le cas en ce qui concerne l’estimation de l’écart type σ, on√a : E{S 2 } > (E{S})2 , et on doit alors s’attendre à ce que l’estimateur S = S 2 soit un estimateur biaisé de σ. Pour une variable aléatoire normale N (μ, σ2 ) par exemple, l’estimateur non biaisé de l’écart type σ est : 1 12 n − 1 Γ( n−1 2 ) S ∗ = kn , n ≥ 2, (9.21) (Xi − M )2 , kn = n−1 i 2 Γ( n2 ) où Γ est la fonction eulérienne de deuxième espèce. Le biais n’est pas facilement calculable. On a alors recours à des méthodes de ré-échantillonnage ou méthodes Bootstrap dont la méthode suivante est l’archétype. La méthode de Quenouille. S’il existe un biais de l’ordre de 1/n, cette méthode permet de le réduire à l’ordre 1/n2 . On suppose qu’il est possible de développer la valeur moyenne de l’estimateur en série entière de 1/n. On extrait la moitié de l’échantillon, après avoir éventuellement retiré un point si l’échantillon était au départ de taille impaire. On a alors : 1 1 β + O( 2 ), n n 1 1 ? β + O( 2 ), E{θ2n } = θ + 2n n E{θ?n } = θ +
d’où : 1 E{2θ?2n − θ?n } = θ + O( 2 ). n Le biais en 1/n a disparu mais, en général, la variance de ce nouvel estimateur augmentera d’un facteur de l’ordre de 1/n. Une meilleure méthode consisterait à diviser au hasard le 2n-échantillon en deux parts égales, évaluer les estimateurs correspondants θ?n et θ?n , et calculer le nouvel estimateur : 2θ?2n − 12 (θ?n + θ?n ). La méthode du jackknife. Il existe une autre méthode qui n’augmente la variance que d’un terme en 1/n2 , la méthode dite du jackknife 18 . Cette méthode demande plus de calculs, mais à l’heure actuelle où le calcul électronique devient de plus en plus rapide et de moins en moins cher, le jackknife est 18 Pour
plus de détails voir The jackknife – a review, Miller, 1974.
9. Le signal en astronomie
577
préférable à la méthode de Quenouille. Soit donc θ?n un estimateur de θ, calculé à partir d’un n-échantillon. Développons de nouveau sa valeur moyenne en série entière de 1/n : E{θ?n } = θ +
∞ ak · nk
(9.22)
k=1
On recalcule ensuite les n estimateurs θ?−i en enlevant chaque fois un point i au n-échantillon et on calcule la moyenne arithmétique de ces estimateurs : 1 ? θ?n−1 = θ−i . n i=1 n
(9.23)
Finalement on construit l’estimateur jackknife θ?n suivant l’expression : θ?n = nθ?n − (n − 1)θ?n−1 = θ?n + (n − 1)(θ?n − θ?n−1 ).
(9.24)
On montre que, pour cet estimateur, le biais à l’ordre 1/n a également disparu. Efficacité Nous avons vu que pour des estimateurs sans biais et pour une fonction de perte quadratique, il était possible d’ordonner ceux-ci suivant la valeur de leurs variances. Suivant ce principe, l’estimateur θ?1 sera préférable à θ?2 si Var(θ?1 ) < Var(θ?2 ). On dira alors que θ?1 est plus efficace que θ?2 . Il se pose alors deux questions : 1) pour un estimateur non biaisé donné, est-il possible de réduire sa variance ? et 2) est-il possible, du moins en principe, de rendre sa variance arbitrairement petite ? La réponse à la première question est : oui parfois, mais il faut pour cela qu’il existe une statistique exhaustive, nous verrons plus loin ce que l’on entend par une telle expression. La réponse à la seconde question est : non, il existe une limite inférieure en deça de laquelle il est impossible de réduire la variance. En général on ne connaît pas cette limite mais on peut en donner une bonne approximation : la borne de Rao-Cramér. Ces considérations sont développées dans les sections suivantes. Réduction de la variance La réduction de la variance fait appel à la notion de résumé exhaustif, c’est-à-dire de statistiques qui contiennent en elles-mêmes tout ce que l’on peut espérer savoir sur le paramètre que l’on cherche à estimer. De façon plus précise : Définition. Une statistique T est dite exhaustive, si la loi conditionnelle de l’échantillon X, sachant que T (X) = t, ne dépend pas du paramètre θ. Si
578
L’observation en astrophysique
f (x|T (x) = t) désigne cette densité de probabilité conditionnelle de l’échantillon X, on a : ∂ f (x|T (x) = t) = 0. (9.25) ∂θ Cette définition abstraite correspond cependant à ce que l’on pratique habituellement lorque que l’on réduit des données. En ne conservant de l’échantillon original X = (X1 , . . . , Xn ) que la valeur T (X), on a gardé que ce qui dépendait de θ. En effet, l’équation T (x) = t est celle d’une hypersurface dans l’espace Rn des échantillons et dire que T est un résumé exhaustif, c’est dire que seule compte la valeur t de cette statistique, peu importe la répartition des « points » Xi sur cette hypersurface, elle ne dépend pas de ce que l’on cherche. Si l’on devait reconstruire un échantillon possédant les mêmes caractéristiques que l’échantillon original vis-à-vis de l’estimation de θ, il suffirait de répartir des points au hasard sur l’hypersurface T = t suivant la loi conditionnelle correspondante. Afin de montrer qu’une statistique est exhaustive, il est souvent plus simple de faire appel au critère suivant : Théorème. Critère de factorisation (ou de Fisher-Neyman). Une statistique T est exhaustive pour l’estimation de θ si, et seulement si, la fonction de vraisemblance de l’échantillon peut être factorisé sous cette forme : L(x, θ) = l(t, θ)h(x),
(9.26)
où x désigne une valeur prise par l’échantillon : (X1 = x1 , . . . , Xn = xn ) et L la densité de probabilité en ce point (ou la probabilité s’il s’agit de variables discrètes). Les fonctions l et h doivent être positives. Exemple : loi de Poisson. Pour un échantillon i.i.d suivant la loi de Poisson on a : , n @ λxi −λ λ xi e−nλ Pr{X = x} = e = A · (9.27) x ! xi ! i i=1 A Cette expression est conforme au critère de factorisation avec h(x) = 1/ xi ! ,n et la statistique T = i=1 xi est exhaustive pour le paramètre λ de la loi de Poisson. Avec cette notion, nous sommes maintenant en mesure de citer le théorème de Rao-Blackwell dans une version adaptée aux fonctions de pertes quadratiques. Théorème de Rao-Blackwell. Si θ? est un estimateur sans biais de τ (θ) et si la loi d’échantillonnage admet une statistique exhaustive T , alors l’estimateur θ?1 ainsi calculé : ? = t}, (9.28) θ?1 = E{θ|T est sans biais et sa variance est plus petite que celle de l’estimateur original : ? (sauf si les estimateurs se révèlent être identiques). ∀θ, Var(θ?1 ) < Var(θ)
9. Le signal en astronomie
579
L’amélioration apportée par le théorème de Rao-Blackwell ne nous garantit cependant pas que le nouvel estimateur soit de variance minimale. Pour qu’il en soit ainsi, il faut que la statistique T soit en outre complète. Définition. La statistique T est dite complète si l’espérance de toutes fonctions intégrables de T est non dégénérée, c’est-à-dire si : ∀θ∀g ∈ L1 ,
E{g(T )} = 0 =⇒ g(t) = 0.
(9.29)
La dépendance en θ est contenue dans la loi d’échantillonnage entrant dans le calcul de l’espérance. Exemple : loi binomiale. L’échantillon X de taille k = 1 est issu d’une loi binomiale de paramètre θ inconnu, le paramètre n étant connu. La statistique T = X est trivialement exhaustive, montrons qu’elle est aussi complète. On a pour tout g intégrable : ∀θ ∈]0, 1[,
E{g(T )} =
n
g(x) Cnx θx (1 − θ)n−x = 0,
x=0
= (1 − θ)n
n x=0
g(x) Cnx
$ θ %x = 0. 1−θ
La dernière expression est un polynôme en θ/(1 − θ) de degré n qui s’annule pour une infinité de valeurs de sa variable. Il est donc identiquement nul et g(x) = 0. On démontrerait un résultat similaire pour un échantillon de taille ,k k quelconque et pour T = i=1 Xi . Théorème de Lehmann-Scheffé. Si T est une statistique exhaustive et complète, alors l’améliorée de θ? dans les conditions du théorème de RaoBlackwell est de plus petite variance. L’estimateur θ?1 qui en résulte est donc l’estimateur umvu. Exemple. D’après Tassi (cf. bibliographie), considérons le cas où un objet a la probabilité p de posséder une caractéristique considérée comme étant « exceptionnelle ». On range les objets dans r classes et on extrait ensuite, de façon indépendante, n objets par classe. Le nombre d’objets par classe importe peu, il suffit qu’il soit supérieur à n. On déclare que la classe est elle-même exceptionnelle s’il y a au moins un objet exceptionnel parmi les n objets extraits, sinon elle est banale. Soit Xi le nombre d’objets exceptionnels présents dans l’échantillon de taille n extrait de la classe numéro i. On demande, au vu des données (X1 , . . . , Xr ), d’estimer sans biais la probabilité θ pour qu’une classe soit banale. Considérons la variable 1Xi =0 qui est l’indicatrice de « banalité » de la classe i. Si l’on pose θ? = 1Xi =0 , l’estimateur est une variable de Bernoulli ? = E{1X =0 } = θ, cet estimateur est donc de paramètre θ. On a alors : E{θ} i sans biais. Afin de l’améliorer grâce au théorème de Rao-Blackwell, il faut
580
L’observation en astrophysique
disposer d’une statistique exhaustive pour l’estimation de θ. La fonction de vraisemblance des données (X1 , . . . , Xr ) est le produit de r variables aléatoires binomiales. On a : L(x, θ) =
r @ i=1
CnXi pXi (1 − p)n−Xi =
r @ p , i Xi (1 − p)nr CnXi . 1−p i=1
,r Cette expression et bien de la forme (9.26) et la statistique T = i=1 Xi est exhaustive pour p. Elle l’est aussi pour θ qui ne dépend que de p. L’es? amélioré par Rao-Blackwell est alors : h(θ) ? = E{θ|T ? = t}. En timateur h(θ) ? considérant la classe i = 1 pour le calcul de θ, il vient : ? = E{θ|T ? = t} = Pr{X1 = 0|T = t} = Pr{X1 = 0, T = t} · h(θ) Pr{T = t} Le modèle d’échantillonnage est binomial, il vient alors : ,r Ct Pr{X1 = 0, i=2 Xi = t} ,r = nr−n · t Cnr Pr{ i=1 Xi = t} Cet estimateur ne dépend que de la valeur de la variable T , notons-le h(T ). On a : CT h(T ) = nr−n · (9.30) T Cnr Comme nous avons vu que cette statistique était de plus complète, h(T ) est donc l’estimateur umvu pour θ.
9.5.5
L’inégalité de Fréchet ou de Rao-Cramér
Puisqu’il est possible, sous certaines conditions, de réduire la variance d’un estimateur, il est alors légitime de se poser la question de savoir jusqu’où peut aller cette réduction. De toute évidence, la variance ne peut dépasser la valeur nulle, mais existe-t-il une limite positive non nulle en deçà de laquelle, pour un problème donné, il est impossible de trouver un estimateur réalisant cette performance ? Les problèmes liés à la recherche de cette limite possèdent des aspects théoriques et pratiques d’une extrême importance, ils sont évoqués de ce paragraphe. Un estimateur non biaisé, qui atteint cette variance limite, sera préférable à tous les autres au sens du risque quadratique, il sera dit estimateur optimal et par voie de conséquence il sera umvu. Cependant, on ne parvient pas, dans le cas général, à trouver la limite optimale ; toutefois, il est possible d’en donner une approximation par défaut qui constitue la borne de Rao-Cramér dite encore borne efficace. Il existe, en outre, une large classe d’estimateurs qui atteignent cette borne, on les nomme estimateurs efficaces, ce sont eux que nous étudions maintenant.
9. Le signal en astronomie
581
Un tel estimateur T , par hypothèse non biaisé, a pour moyenne E{T } = τ (θ) et pour variance Var(T ) = E{(T − τ (θ))2 }. Pour calculer cette variance, on utilise l’opérateur espérance mathématique qui est un opérateur linéaire et auquel on peut associer un produit scalaire. Ce produit scalaire, en tant que tel, obéit à l’inégalité de Cauchy-Schwarz. Soit ψ une fonction du n-échantillon (noté X) et du paramètre θ à estimer. D’après Cauchy-Schwarz on a : 2
E{(T − τ (θ))2 } E{ψ(X, θ)2 } ≥ [E{(T − τ (θ)) ψ(X, θ)}] ,
(9.31)
d’où en tenant compte que E{(T − τ (θ))2 } = Var(T ) : 2 E{(T − τ (θ)) ψ(X, θ)} · Var(T ) ≥ E{ψ(X, θ)2 }
(9.32)
L’égalité n’étant obtenue que si, et seulement si, la fonction ψ est proportionnelle à T − τ (θ), c’est-à-dire si : ψ(X, θ) = A(θ) (T − τ (θ)).
(9.33)
L’inégalité (9.32) permet, en principe, de trouver la borne optimale car : 2 E{(T − τ (θ)) ψ(X, θ)} Var(T ) ≥ max · (9.34) ψ E{ψ(X, θ)2 } Cependant, il est pratiquement impossible pour tout T , τ (θ) et toute population parente d’exhiber la borne optimale par le calcul du maximum. Il faut se contenter de trouver une fonction ψ qui fournisse une borne assez proche de la borne optimale. Si la fonction ψ est mal choisie, on trouvera une borne inférieure trop petite, par exemple si ψ ne dépend pas de X on trouvera Var(T ) ≥ 0 ce que nous savions déjà. Afin de trouver un meilleur minorant, il faut trouver un cas d’usage courant, où la fonction ψ possède la forme (9.33) ci-dessus, de manière à ce que la borne soit atteinte. Pour ce cas particulier la borne trouvée sera la borne optimale. Étudions le cas où le n-échantillon X provient d’une loi parente normale de moyenne μ et de variance connue σ 2 , le paramètre θ à estimer est la moyenne μ, l’estimateur est la moyenne empirique M . On suppose de plus que l’échantillon est formé à de variables aléatoires indépendantes et identiquement distribuées (i.i.d). Calculons la fonction de vraisemblance de ce n-échantillon : n 1 $ X − θ %2 @ 1 i √ exp − L(X|θ) = . (9.35) 2 σ σ 2π i=1 Éliminons le produit en prenant le log de l’expression : √
ln L = −n ln(σ 2π) −
n 1 $ Xi − θ % 2 i=1
2
σ
.
(9.36)
582
L’observation en astrophysique
Éliminons ensuite la constante et le carré, en dérivant par rapport à θ. Il vient : n ∂ ln L 1 nθ n = 2 xi − 2 = 2 (M − θ). (9.37) ∂θ σ i=1 σ σ On voit alors que, dans le cas particulier de l’estimation par la moyenne arithmétique M , de la moyenne μ d’une population normale de variance connue, la fonction ∂ ln L/∂θ est précisément du type (9.33) qui transforme l’inégalité de Cauchy-Schwarz en une égalité. Dans ce cas la borne trouvée est la borne optimale. Pour une population quelconque, et pour l’estimation d’une fonction d’un paramètre θ quelconque par une statistique T , on est sûr que la variance de T sera toujours supérieure ou égale à la limite trouvée si on remplace la fonction ψ par ∂ ln L/∂θ dans l’inégalité de Cauchy-Schwarz. Ce ne sera pas la borne optimale mais elle est, à cause du cas qui lui a donné naissance, d’une grande importance pratique. On la nomme la borne efficace. Il reste maintenant à calculer effectivement cette borne et pour cela évaluer les différentes espérances entrant dans l’équation (9.32), nous ne conduirons pas ici ce calcul relativement simple. Il faut cependant noter que le résultat final n’est valable que lorsqu’il est légitime d’intervertir les opérations d’intégration et de dérivation par rapport au paramètre à estimer (par exemple quand les bornes de l’intégrale ne dépendent pas du paramètre.) Cette réserve étant faite, si l’estimateur T est non biaisé, on en déduit l’inégalité suivante portant sur sa variance dite inégalité de Rao-Cramér ou de Fréchet : Var(T ) ≥
[τ (θ)]2 · ∂ 2 ln L ! E − ∂θ2
(9.38)
Nous avons vu que le choix relativement arbitraire de la fonction ψ implique que cette borne inférieure n’est pas nécessairement atteinte. Pour qu’elle soit atteinte, il faut et il suffit que : ∂ ln L = A(θ) (T − τ (θ)), ∂θ
(9.39)
où A(θ) est une fonction quelconque du paramètre à estimer θ. Si la variance d’un estimateur atteint cette borne, il est dit efficace ou mvb (de l’anglais : Minimum Variance Bound).
9.5.6
Les estimateurs efficaces
Dans le cas où la borne efficace (mvb) est atteinte on a : ∂ ln L = A(θ) (T − τ (θ)). ∂θ
(9.40)
9. Le signal en astronomie
583
En remplaçant directement cette expression dans l’équation (9.38) on obtient : Var(T ) =
τ (θ) , A(θ)
(9.41)
et si τ (θ) = θ : 1 · (9.42) A(θ) Ces deux dernières expressions permettent, dans certains cas, de trouver facilement la variance d’un estimateur mvb comme le montrent les exemples suivants. Var(T ) =
Exemple : variance de la moyenne arithmétique d’une loi normale. Pour un n-échantillon issu d’une loi normale de variance connue σ 2 et pour l’estimation de la moyenne θ par la moyenne arithmétique T = M , nous avons vu plus haut que l’on avait : ∂ n n ln L = 2 (M − θ) donc A(θ) = 2 , ∂θ σ σ σ2 · d’où Var(T ) = n Exemple : variance de la variance échantillonnée d’une loi normale. Soit une population normale de densité de probabilité : x2 1 f (x) = √ exp − 2 . 2θ 2πθ
(9.43)
La moyenne est connue, on peut la supposer nulle ; mais la variance θ2 est inconnue. On a alors : ∂ ln L n 1 2 n 2 = 3( (9.44) Xi − θ2 ) = 3 (S − θ2 ) . ∂θ θ n θ La forme de la fonction ∂ ln L/∂θ nous conduit naturellement à choisir comme estimateur T de θ2 , la statistique : 1 2 2 (9.45) S = Xi . n Cet estimateur sera mvb, à la condition qu’il soit non biaisé. On s’assure facilement de cette dernière condition car en effet : 1 1 2 2 E{S } = s2 L dx = Xi 2 L dx = θ = θ2 , (9.46) n i n i La fonction τ (θ) = θ2 admet donc bien S comme estimateur MVB. On peut immédiatement calculer sa variance : 2
Var(S ) = 2
τ (θ) 2θ 2θ4 n = n = n · θ3 θ3
(9.47)
584
L’observation en astrophysique
On note habituellement σ l’écart type ici noté θ, d’où : Var(S ) = 2
2σ 4 · n
(9.48)
On trouve ainsi directement la variance de la variance échantillonnée d’un échantillon normal de moyenne connue.
9.5.7
L’efficacité d’un estimateur
Soit T un estimateur convergent et sans biais pour l’estimation de τ (θ). On mesure son efficacité comme l’inverse du rapport de sa variance à la variance limite donnée par la borne mvb : Eff(T ) =
VarMVB (θ) · Var(T )
(9.49)
L’estimateur T sera dit efficace si son efficacité est de 1 (ou 100 %), ou, en d’autres termes, s’il atteint sa borne mvb. Comme nous l’avons déjà fait remarquer, la borne mvb n’étant pas nécessairement atteinte, un estimateur optimal n’est pas nécessairement efficace.
9.5.8
Le cas des estimateurs biaisés
Soit T un estimateur biaisé de θ. Par définition du biais on a : E {T } = θ + b(θ).
(9.50)
Si l’on choisit la fonction τ (θ) = θ + b(θ), on a alors : E {T } = τ (θ) ,
(9.51)
ce qui montre que T est un estimateur non biaisé de τ (θ). Appliquons la formule de Rao-Cramér pour cette fonction τ . On trouve τ (θ) = 1 + b (θ), et on a également : = > = > Var(T ) ≡ E [t − (θ + b(θ))]2 = E (T − θ)2 − b2 (θ). (9.52) = > Le terme E (T − θ)2 est l’erreur quadratique moyenne de T . Nous venons de voir qu’il est toujours supérieur ou égal à la variance de T . On peut écrire finalement : > = E (T − θ)2 = Var(T ) + b2 (θ) ≥
[1 + b (θ)]2 # + b2 (θ). " 2 ∂ ln L E − ∂θ2
(9.53)
S’il est vrai que l’erreur quadratique moyenne d’un estimateur biaisé est toujours plus grande que sa variance, l’exemple 9.5.8 ci-dessous montre qu’il est
9. Le signal en astronomie
585
possible de trouver un estimateur biaisé dont l’erreur quadratique moyenne soit plus petite que la plus petite variance associée à la classe des estimateurs non biaisés. Exemple : estimation du paramètre de la loi exponentielle. Soit un n-échantillon i.i.d (X1 , . . . , Xn ) issu d’une population suivant la loi exponentielle de moyenne θ : f (x) =
x 1 exp − θ θ
où
E{Xi } = θ et Var(Xi ) = θ2 .
(9.54)
Choisissons la moyenne arithmétique X comme estimateur de θ. Nous savons que c’est un estimateur non biaisé de la moyenne de la population, et donc E{X} = θ. Dans ce cas son erreur quadratique moyenne par rapport à θ est égale à sa variance : = > = = > > E (X − θ)2 = E (X − (E X )2 ≡ Var(X).
(9.55)
Établissons maintenant que X est MVB en calculant ∂ ln L/∂θ : 1 Xi , θ i=1 n
ln L = −n ln θ −
n ∂ ln L n 1 n =− + 2 Xi = 2 (X − θ). ∂θ θ θ i=1 θ
(9.56) (9.57)
Ceci montre que X est bien MVB pour l’estimation de θ, d’où on tire immédiatement : θ2 (9.58) Var(X) = · n ? = nX/(n + 1) est biaisé mais son erreur quadraEn revanche l’estimateur X tique moyenne est plus petite que la borne MVB θ2 /n des estimateurs non biaisés. En effet, il est biaisé : ? = E{X}
n θ, n+1
bn (θ) = −
θ , n+1
(9.59)
mais on a les inégalités suivantes : ? = Var(X)
2 n θ2 ? − θ)2 } = θ < Var(X) = · θ2 < E{(X 2 (n + 1) n+1 n
(9.60)
Cet exemple montre qu’il peut être trop restrictif de se limiter à la recherche du meilleur estimateur possible dans la seule classe des estimateurs non biaisés.
586
9.5.9
L’observation en astrophysique
Borne efficace et information de Fisher
La quantité non négative : %2 ! $∂ ! ∂2 ln L In (θ) ≡ E = E − 2 ln L , ∂θ ∂θ
(9.61)
est appelée information de Fisher contenue dans le n-échantillon. La variable aléatoire ∂ ln L/∂θ étant de moyenne nulle, l’information de Fisher n’est autre que l’inverse de la variance de cette variable aléatoire. Pour des échantillons indépendants (i.i.d), cette grandeur ne dépend que de la taille du n-échantillon et de la densité de probabilité de la population parente et nous avons montré que In (θ) = nI1 (θ). Cela signifie que dans le cas où l’inégalité de Rao-Cramér s’applique, la variance d’un estimateur T décroît au plus vite comme 1/n. L’inégalité s’écrit alors : Var(T ) ≥
(τ (θ))2 · nI1 (θ)
(9.62)
Dans l’estimation du point milieu d’une densité de probabilité uniforme sur ]0, θ], l’estimateur 12 (X(n) + X(1) ) de la moyenne θ/2 a une variance asymptotique : 1 lim Var( 12 (X(n) + X(1) )) = 2 · (9.63) n→∞ 2n Cette variance asymptotique décroît plus rapidement que la limite de RaoCramér parce que nous sommes précisément dans un cas où cette limite ne s’applique pas. En effet, l’espérance mathématique s’exprime par l’intégrale 'θ dx dont la borne supérieure est fonction du paramètre à estimer, par consé0 quent l’inégalité de Rao-Cramér ne s’applique pas. Les bornes déduites des inégalités de Rao-Cramér sont adaptées au cas où les erreurs de mesure sont petites autour du paramètre estimé. On entend par petites des erreurs suivant une loi proche de la loi normale. Lorsque ces erreurs sont grandes, disons proches de la loi de Cauchy, il existe alors des bornes mieux adaptées, c’est-à-dire plus grandes que les bornes de type RaoCramér.
9.5.10
Le cas multidimensionnel
Dans le cas où l’expérimentateur désire estimer conjointement un ensemble de k paramètres (θ1 , . . . , θk ), il existe alors une généralisation de l’inégalité de Rao-Cramér. Cette dernière fait appel à la matrice informationnelle de Fisher J, dont les éléments Jij sont donnés par l’expression : Jij = E{−
∂2 log L}. ∂θi ∂θj
Si V désigne la matrice des variances-covariances des paramètres θ, l’inégalité s’exprime de façon symbolique de la façon suivante : V ≥ J −1 . Où, par
9. Le signal en astronomie
587
convention, le signe > entre des matrices signifie que leur différence est une matrice définie positive, c’est-à-dire que toutes ses valeurs propres sont positives, alors que ≥ signifie qu’au moins une valeur propre peut être nulle. D’une façon pratique, cela veut dire que l’ellipse des erreurs, au niveau ? t V −1 (θ − θ) ? = k 2 , englobe la zone de confiance de confiance γ, soit : (θ − θ) γ ? t J (θ − θ) ? = k 2 . On peut utiliser cette calculée avec la matrice J , soit : (θ − θ) γ dernière zone de confiance comme approximation de la zone de confiance réelle. Le scalaire kγ2 étant ( sous hypothèse normale ) calculé à l’aide de la fonction de répartition F d’une loi du χ2 à k degrés de liberté : kγ2 = F −1 (1 − γ).
9.5.11
Les estimateurs fiables
Comme nous l’avons déjà vu, il existe, en général, plusieurs estimateurs du même paramètre θ. On envisage souvent, entre autres possibilités, la moyenne arithmétique, la médiane ou le point milieu de l’échantillon afin d’estimer la moyenne d’une population. Pour la loi normale par exemple, la moyenne arithmétique de l’échantillon est non biaisée et mvb ; c’est donc le meilleur estimateur possible et il n’y a pas lieu d’en chercher un autre. Mais lequel choisir dans le cas où la population parente est de nature inconnue, ou encore dans le cas où elle est connue mais contaminée par des erreurs de mesure de nature inconnue ? Pour fixer les idées, nous allons choisir trois populations parentes très différentes, et donner les variances asymptotiques des trois estimateurs précédents. Ces trois densités étant symétriques, c’est en fait la position de l’axe de symétrie que l’on cherche à déterminer. Pour simplifier nous prendrons tous les facteurs d’échelle égaux à 1. On obtient le tableau 9.7, où les valeurs en caractères gras sont les plus petites possibles. Tab. 9.7 – Variance asymptotique de trois populations différentes.
a Il
Loi uniformea
Loi normale
Loi de Cauchy
Médiane
1 4n
π 2n
π2 4n
Moyenne
1 12n
1 n
∞
Milieu
1 2n2
π2 24 ln n
∞
s’agit ici de la loi uniforme entre 0 et 1.
On voit sur cet exemple que, si l’on n’a aucune idée de ce qu’est la population parente sous-jacente, il est plus sûr d’utiliser la médiane, afin d’obtenir une variance finie dans tous les cas. On peut considérer le tableau précédent comme la matrice des pertes d’un jeu contre la nature, où dans ce cas d’ailleurs on ne peut que perdre. On fera le choix de la médiane conformément à la stratégie minimax, c’est-à-dire celle qui minimise le maximum des pertes.
588
L’observation en astrophysique
La médiane est un estimateur dit fiable (ou robuste) pour cet ensemble de populations. Il existe plusieurs autres estimateurs fiables de l’axe de symétrie d’une population qui suit une loi symétrique. Ils sont, suivant leur type, adaptés à un spectre plus ou moins large de populations. Donnons-en quelques uns. – La moyenne tronquée. Considérons la moyenne tronquée bilatérale symétrique. À partir du n-échantillon ordonné (X(1) ≤ X(2) ≤ · · · ≤ X(n) ), on retire 2q points, les q plus petits et les q plus grands de façon à obtenir le nouvel échantillon (X(q+1) ≤ . . . ≤ X(n−q) ). Le paramètre de troncature est défini ici comme : α=
q , n
(9.64)
et la moyenne arithmétique du (n − 2q)-échantillon restant sera appelée moyenne symétriquement tronquée à 100α % et notée Tα . On aura donc : Tα =
n−q 1 X(i) . (n − 2q) i=q+1
(9.65)
Notons qu’en général on fixe α compris entre 0 et 1, et que l’on calcule ensuite q = αn. Dans ce cas, la moyenne est tronquée à au plus 100α% et au moins 100(α − 1/n)%. – La moyenne « winsorisée ». La procédure est la même que pour la moyenne tronquée mais on remplace les q plus petites valeurs par X(q+1) et les plus grandes par X(n−q) , puis on calcule la moyenne : 1 Wα = n
n−q
X(i) + q(X(q+1) + X(n−q) ).
(9.66)
i=q+1
– La médiane de Hodges-Lehmann. On fabrique le nouvel échantillon (Y11 , Y12 , . . . , Ynn ) à partir de l’échantillon (X1 , . . . , Xn ) suivant la formule : Yij = 12 (Xi + Xj ), (9.67) et l’on définit la médiane de Hodges-Lehman HL comme la médiane des Yij . – Le point milieu. C’est la statistique du point situé à égale distance des valeurs extrêmes, et qui vaut donc : P = 12 [X(1) + X(n) ].
(9.68)
9. Le signal en astronomie
589
Exemple : variances asymptotiques de divers estimateurs du paramètre de localisation d’une loi de Cauchy. Soit un n-échantillon i.i.d issu d’une loi de Cauchy de densité de probabilité : f (x) =
1 · π[1 + (x − θ)2 ]
(9.69)
Les variances asymptotiques de différents estimateurs de θ sont données par le tableau 9.8. Tab. 9.8 – Variance asymptotique de différents estimateurs de θ0 . Estimateur Maximum de vraisemblance Moyenne tronquée à 38 % Médiane
Variance asymptotique 2 n 2.28 n 2.47 π2 4n n
On voit sur ce tableau que la moyenne tronquée à 38 % est à peine moins efficace, mais elle est plus facile à calculer que l’estimation, dans ce cas optimale, du maximum de vraisemblance.
9.5.12
Quelques méthodes classiques
Il semble que la mise en œuvre d’une méthode tenant compte à la fois des données observées : x et de ce que l’on sait du paramètre inconnu θ, puisse conduire à des estimateurs performants. À cette fin, on pourrait envisager de chercher la valeur θ qui rende maximale la densité de probabilité a posteriori ψ(θ|x), ou une fonctionnelle de celle-ci. Cependant, ψ s’écrit comme le produit de la vraisemblance l(x|θ) par la densité a priori π(θ) et si l’on ne possède pas d’information sur θ, π(θ) reste indéterminé. On peut alors songer à maximiser la vraisemblance et chercher θ? en tant que solution de l’équation implicite : l(x|θ) = maxθ l(x|θ). L’estimateur ainsi trouvé est l’estimateur du maximum de vraisemblance. De façon régulière, on trouve cet estimateur comme solution des équations ∂l/∂θ = 0 avec ∂ 2 l/∂θ2 < 0. Dans ces conditions, on montre que l’estimateur θ? est convergent. En outre, la quantité : (−∂ 2 l/∂θ2 |θ=θ?)1/2 (θ?− θ) se comporte à peu près comme une variable aléatoire normale de moyenne nulle et de variance unité. Ceci montre que, sous réserve d’existence des moments associés, l’estimateur du maximum de vraisemblance est asymptotiquement non biaisé et asymptotiquement efficace. C’est ce résultat qui confère un statut privilégié à l’estimateur du maximum de vraisemblance. Maintenant, si le problème se réduit à estimer la moyenne μ = μ(θ) d’un échantillon normal, la fonction de vraisemblance est, à une constante multiplicative près, égale à exp(− 12 χ2 ) où χ2 est une forme quadratique égale à
590
L’observation en astrophysique
(x − μ)T V −1 (x − μ) (la matrice V est la matrice des variances-covariances de x et X T est la matrice transposée de X). Il revient alors au même de chercher le maximum de l ou de log l et le maximum de vraisemblance correspond alors au minimum de la forme (x − μ)T V −1 (x − μ). Cette remarque introduit le principe de la méthode des moindres carrés, exposée ici dans le cas normal et pour des mesures d’inégales précisions. En dehors du cas normal, la méthode des moindres carrés (du moindre χ2 dans le cas de mesures d’inégales précisions), ne conduit pas toujours à trouver des estimateurs optimaux. Il existe cependant une autre circonstance favorable : le cas linéaire. On entend par « cas linéaire » celui où la moyenne μ dépend linéairement des paramètres inconnus θ, on ne formule pas d’hypothèses sur la nature des données autres que l’existence de μ et de V , en particulier on ne demande pas d’en connaître la densité de probabilité. La décomposition de μ sur une base polynomiale ou en série de Fourier sont deux exemples de cas linéaires ; les coefficients de ces décompositions sont les paramètres inconnus θ. Si μ = Xθ est l’équation matricielle qui exprime la dépendance linéaire du modèle μ par rapport aux θ et si y désigne les données (la notation y au lieu de x est traditionnelle dans ce cas), les estimateurs des moindres carrés sont donnés par l’expression : θ? = (X T X)−1 X T y dans le cas où la matrice V est la matrice indentité (on peut toujours se ramener à ce cas par changement de variables). Le théorème de Gauss-Markov stipule que ces estimateurs sont non biaisés et qu’ils possèdent, pour chaque paramètre θ, la plus petite variance dans la classe des estimateurs linéaires. Il est remarquable que l’estimateur θ? possède des propriétés optimales sans faire référence à la densité de probabilité des mesures y. La méthode du maximum de vraisemblance ou celle des moindres carrés fournissent des estimateurs souvent performants mais ils peuvent se révéler inacceptables. Ils peuvent être les meilleurs dans une classe qui se trouve être trop réduite (cas normal ou classe des estimateurs sans biais par exemple) ou encore ils peuvent présenter des anomalies, par exemple si l’opérateur (X T X)−1 n’existe pas. Il convient alors de se retourner vers ce qui avait été évoqué au début de ce paragraphe, c’est-à-dire introduire une certaine dose de connaissance a priori sur l’estimateur recherché. Ce dessein peut être réalisé par l’intermédiaire d’une fonction régularisante g qui traduit la fidélité de la solution vis-à-vis de l’idée que l’on se fait de θ ; la vraisemblance l traduisant la fidélité aux données. Dans cette optique, on cherche des estimateurs rendant maximale la quantité f = λ0 l + λ1 g, avec λ0 + λ1 = 1. Les scalaires λ0 et λ1 sont des multiplicateurs de Lagrange, rendant compte de la part relative accordée à la fidélité aux données et à celle accordée à l’a priori sur θ. Le cadre bayesien offre à cette méthode une interprétation probabiliste naturelle. En effet, le maximum de ψ coïncide avec celui de log ψ qui peut être écrit log ψ = log l + log π, forme qui peut être identifiée à f . De nombreuses méthodes de recherche d’estimateurs reposent sur ce principe dès lors que les méthodes classiques sont en défaut. On les classe suivant la nature
9. Le signal en astronomie
591
de la fonction régularisante (maximum d’entropie, régularisation de Tikhonov, pseudo-inverse...) ou de son interprétation probabiliste dans le cadre bayesien. On trouvera des exemples de ces méthodes dans le corps de cet ouvrage. La difficulté est souvent de trouver la pondération, en terme des multiplicateurs λ0 et λ1 , qui conduise à des estimateurs optimaux, la validation croisée est une approche qui tente d’aborder ce problème.
9.6
Des données à l’objet : le problème inverse19
Dans cette section, nous développons les procédures permettant d’obtenir la meilleure estimation possible de l’objet qui a été observé, en utilisant toutes les informations dont il est possible de disposer sur l’instrument utilisé pour cette observation, sur les sources de bruit propres à l’instrument ou au signal reçu, mais également sur l’objet lui-même qui n’est pas, le plus souvent, totalement inconnu. Ici, nous appelons données l’ensemble des valeurs mesurées à l’issue du processus d’observation. La prise en compte de ces informations améliore la restitution de l’objet à l’issue du traitement des données, et peut aussi fournir aussi une estimation des marges d’incertitude affectant cette restitution. La figure 9.13 schématise ces procédures. Les développements et outils qui suivent peuvent s’appliquer à de très nombreux types de données rencontrées dans l’observation en astrophysique : images de tout format et à toutes longueurs d’onde, spectres, taux de polarisation en fonction de la fréquence, etc. Néanmoins, pour rendre plus concret ce qui suit et l’illustrer d’exemples, le choix a été fait de se limiter au cas de l’analyse de front d’onde et du traitement d’images, et d’y développer des exemples pris dans les domaines de l’optique adaptative, traitée en § 6.3, et de l’interférométrie en § 6.4). En effet ceux-ci, nés pour le premier au début des années 1990, ont considérablement stimulé ces méthodes de traitement. Le lecteur adaptera facilement les notions présentées à d’autres cas qu’il pourrait rencontrer, en radioastronomie, en hautes énergies, etc.
9.6.1
La position du problème
Problème direct Considérons ce premier cas, classique en physique : un objet initial, par exemple une onde électromagnétique, traverse un système qui va l’affecter : turbulence atmosphérique, instrument présentant des aberrations et de la diffraction, etc. On peut déduire les propriétés de l’onde à sa sortie, si l’on connaît toutes les propriétés du système, qui auront été incluses dans un modèle direct, ou modèle de formation des données de ce système. On retrouve le principe des modèles end-to-end , traités au § 9.2. 19 Cette
section est due à la précieuse collaboration de Laurent Mugnier.
592
L’observation en astrophysique
estimateur Maximum a posteriori
Fig. 9.13 – Schématisation du problème inverse, et des différentes solutions qui en sont proposées dans la présente section. a) De l’objet à l’observation, et de l’observation à l’objet ; b) le problème direct ; c) le problème inverse et ses méthodes. Illustrons ceci, à titre d’exemple, par l’analyse de front d’onde faite en optique adaptative, c’est-à-dire la mesure d’aberrations, propres au télescope ou dues à la traversée de couches turbulentes, à l’aide d’un analyseur de surface d’onde (Hartmann-Shack) : la grandeur physique intéressante est ici la phase ϕ(r, t) sur la pupille de sortie du télescope, qui contient toute l’information sur les aberrations subies par l’onde. Les données de mesure sont les pentes moyennes de la phase ∂φ(r, t)/∂x et ∂φ(r, t)/∂y sur chaque sous-pupille du Hartmann-Shack selon deux directions perpendiculaires, que l’on peut concaténer dans un vecteur i. Le calcul des pentes i connaissant la phase ϕ est un problème direct, classique en physique, qui requiert le choix d’un modèle de formation des données.
Un modèle direct complet inclut la modélisation de la formation des données jusqu’à la détection, voire jusqu’au support de stockage dans le cas de transmission des données avec compression. Il prend ainsi en compte le bruit photonique, le bruit de lecture du détecteur, le bruit de quantification du numériseur, le bruit éventuel de compression, etc (cf. § 9.2).
9. Le signal en astronomie
593
Problème inverse Il s’agit ici de remonter des données à la connaissance de l’objet qui en est à l’origine, ce qui est désigné par problème inverse et va requérir d’inverser le modèle de formation des données. Nos sens et notre cerveau résolvent sans cesse de tels problèmes inverses, analysant l’information reçue, par la rétine par exemple, et en déduisant des positions dans l’espace, des formes à trois dimensions, etc. C’est aussi la situation la plus fréquente de l’observateur en astronomie, tentant de déduire de ses observations et d’énoncer, avec le plus de véracité possible, un ensemble de propriétés sur l’objet source. Le traitement de données expérimentales, en physique et en particulier en astronomie, consiste donc à résoudre un problème inverse, en pratique après une étape de réduction ou prétraitement des données, dont le but est de corriger les défauts instrumentaux de façon à ce que les données puissent être correctement décrites par le modèle direct adopté (cf. § 9.4). Estimer (cf. § 9.5) ou remonter à la phase ϕ à partir du vecteur des pentes i est le problème inverse de l’analyse de front d’onde par Hartmann-Shack, qui nécessite d’inverser le modèle de formation des données correspondant. Développons ici un autre exemple, pris dans un domaine spectral différent. La mission d’astronomie γ integral (§ 7.6) a une capacité d’analyse spectrale grâce à trois de ses instruments, respectivement appelés jem-x, ibis-isgri et -picsit et spi. Chacun peut mesurer le spectre de la source observée, ici le système binaire à trou noir Cygnus X-1. Le modèle de formation de données est contenu dans un logiciel, appelé xspec et on y injecte un modèle a priori de la source, comprenant un certain nombre de paramètres libres. On compare alors la sortie simulée de ce logiciel avec les mesures issues de chacun des instruments, et l’ajustement, en un sens que nous précisons plus loin, permet de fixer au mieux les paramètres, comme illustré sur la figure 9.14.
Nous verrons ci-dessous que l’inversion peut souvent tirer parti des connaissances statistiques sur les incertitudes de mesure, généralement modélisées comme des bruits. Les méthodes d’inversion naïves ont souvent la caractéristique d’être instables, en ce sens que l’inévitable bruit de mesure est amplifié de manière non contrôlée lors de l’inversion, ce qui conduit à une solution inacceptable pour représenter l’objet. Dans ce cas, où les données seules ne suffisent pas à obtenir une solution acceptable, des méthodes d’inversion plus sophistiquées, dites régularisées, sont développées. Elles incorporent des contraintes supplémentaires pour imposer à la solution une certaine régularité, compatible avec nos connaissances a priori sur celle-ci. Ceci est un point essentiel : dans le traitement des données, nous introduisons de l’information supplémentaire, qui nous est dictée par notre connaissance a priori de l’objet : par exemple, une brillance ne peut prendre que des valeurs positives, un objet présente un contour le limitant spatialement (disque d’une étoile),
594
L’observation en astrophysique
Fig. 9.14 – Spectre du système binaire accrétant Cygnus X-1, vu par les divers instruments de l’observatoire du rayonnement γ integral. Le modèle ajusté aux données est un modèle dit hybride dans lequel les électrons de la couronne possèdent une distribution non thermique. (D’après Cadolle-Bel M. et al., Soc. Franç. Astron. Astroph., Scientific Highlights 2006, p. 191.)
une fluctuation temporelle ne peut contenir des fréquences plus élevées qu’un certain seuil, etc. Concevoir explicitement le traitement de données comme l’inversion d’un problème direct est généralement très fructueux. Cela oblige d’abord à modéliser l’ensemble du processus de formation de données, pour le prendre en compte dans l’inversion. Cela permet aussi d’analyser telle ou telle méthode existante (par exemple une déconvolution classique, ou un filtrage comme présenté au § 9.1.3) et d’en expliciter les hypothèses sous-jacentes, ou les défauts. On peut ainsi concevoir des méthodes qui tirent simultanément parti des connaissances disponibles, d’une part sur le processus de formation des données et d’autre part a priori c’est-à-dire avant de faire les mesures, sur l’objet ou la grandeur physique intéressante. Nous présentons ci-dessous les notions de base et outils nécessaires pour aborder la résolution d’un problème inverse, que l’avènement de puissants outils de calcul informatique a profondément transformée.
9. Le signal en astronomie
595
Dans le cadre du présent ouvrage20, les outils présentés sont illustrés sur quelques problèmes inverses relativement simples, (c’est-à-dire linéaires), rencontrés en astronomie : reconstruction de front d’onde à partir de mesures d’un analyseur Hartmann-Shack, restauration d’images corrigées par optique adaptative, reconstruction d’images multispectrales en interférométrie à frange noire (cf. § 6.6). Nous ne traitons pas des extensions, possibles, à des problèmes non linéaires.
9.6.2
Qu’est-ce qu’un problème bien posé ?
Désignons par o la grandeur physique d’intérêt, qu’on appelle l’objet observé dans ce qui suit : phase de l’onde dans le cas d’un analyseur de front d’onde, étoile ou galaxie dans le cas d’une image au plan focal d’un télescope, spectre d’un quasar dans le cas d’un spectrographe, etc. Appelons i les données mesurées21 : pentes issues de l’analyseur Hartmann-Shack, image, spectre, etc. Considérons pour l’instant que o et i sont des grandeurs continues, c’est-àdire des fonctions de l’espace ou du temps, voire des deux, appartenant à des espaces de Hilbert notés respectivement X et Y . Le modèle direct, déduit de la physique et des propriétés connues de l’instrument, permet de calculer un modèle des données, dans le cas de l’observation d’un objet qui serait connu. C’est ce qui est fait dans une opération de simulation de données : i = H(o). (9.70) Nous nous limitons ici à un modèle direct linéaire, c’est-à-dire : i = Ho,
(9.71)
où H est un opérateur linéaire continu de X dans Y . C’est dans ce cadre que Hadamard22 a introduit le concept de problème bien posé. Dans le cas où ce modèle direct est linéaire et invariant par translation, par exemple dans le cas de l’imagerie faite par un télescope à l’intérieur du domaine isoplanétique (cf. § 6.2), H est un opérateur de convolution, et il existe une fonction h appelée fonction d’étalement de point (fep) telle que i = Ho = ho. 20 Un
(9.72)
article de référence pour le lecteur intéressé par les problèmes inverses est Titterington, D.M. « General structure of regularization procedures in image reconstruction », Astron.Astrophys., 144, 381-387, 1985. Voir aussi l’ouvrage pédagogique très complet de Idier, J. Approche bayésienne pour les problèmes inverses, Hermès, Paris, 2001, dont cette introduction s’inspire en partie. 21 Les conventions d’écriture de ce paragraphe sont les suivantes : objet o et image i sont en italique lorsqu’il s’agit des fonctions continues, et en gras lorsqu’elles sont discrétisées (au chapitre 6, des majuscules O et I ont été utilisées). Les matrices sont ici en capitales droites grasses (M) et les opérateurs en majuscules italiques (M ). 22 Jacques Hadamard (1865-1963), mathématicien français, a contribué à la théorie des nombres et à l’étude des problèmes bien posés.
596
L’observation en astrophysique
On cherche à inverser l’équation (9.71) c’est-à-dire à trouver o pour i donné. On dit que le problème est bien posé (au sens de Hadamard) si la solution o vérifie à la fois les conditions habituelles d’existence et d’unicité, mais aussi la condition moins classique de stabilité, c’est-à-dire si la solution dépend continûment des données i. En d’autres termes, une petite variation des données – en pratique, une autre réalisation du bruit aléatoire – ne doit entraîner qu’une petite variation de la solution. Ces trois conditions, dites conditions de Hadamard, se traduisent respectivement par : – existence : il existe o ∈ X tel que i = Ho, soit i ∈ Im(H) ; – unicité : le noyau de H est réduit à zéro, soit Ker(H) = {0} ; – stabilité : l’inverse23 de H sur Im(H) est continu Cette condition de stabilité est équivalente à la condition Im(H) fermé, soit encore Im(H) = Im(H). Pour nombre de problèmes inverses, même les deux premières de ces conditions ne sont pas remplies, sans parler de la troisième. En effet, d’une part Im(H) est l’ensemble des images possibles en l’absence de bruit, ensemble qui est plus petit que l’espace des données bruitées auquel appartient i. En imagerie par exemple, Im(H) est un espace vectoriel qui ne contient aucune fréquence supérieure à la fréquence de coupure optique du télescope (D/λ), alors que le bruit en contient. En général, l’existence de la solution n’est donc pas assurée. D’autre part, le noyau de H contient tous les objets non vus par l’instrument. Ainsi, pour un analyseur de Hartmann-Shack, ce sont les modes spatiaux (par exemple décrits en termes de polynômes de Zernike) non vus comme le mode piston (Z1 ) ou le mode dit gaufre ; pour un imageur, ce sont les fréquences spatiales de l’objet supérieures à la fréquence de coupure optique du télescope. Le noyau n’est donc généralement pas réduit à {0} et l’unicité n’est pas assurée. Le mathématicien Nashed a introduit le concept de problème bien posé au sens des moindres carrés, qui permet à la fois de répondre positivement aux questions d’existence – en pratique – et d’unicité, puis de montrer qu’une inversion faite au sens des moindres carrés ne conduit pas à une bonne solution du problème inverse à cause de son instabilité, aussi appelée non robustesse 24 au bruit. Il demeure donc mal posé. On dit que oˆmc est une solution aux moindres carrés du problème 9.71 si : ||i − H oˆmc ||2 = inf ||i − Ho||2 , o
23 L’inverse
(9.73)
de H sur Im(H), noté H −1 , est bien défini car on suppose Ker(H) = {0}. qualification de robustesse au bruit, souvent employée à propos des méthodes d’inversion, signifie que celle-ci est telle qu’elle n’amplifie pas exagérément la puissance du bruit. 24 La
9. Le signal en astronomie
597
où ||·|| est la norme euclidienne ou L2 . Nashed montre alors ceci : – existence : une solution de type moindres carrés existe si et seulement si, i ∈ Im(H) + Im(H)⊥ . Cette condition est toujours vérifiée si Im(H) est fermé ; – unicité : si plusieurs solutions existent, on choisit celle, unique, de norme minimale, c’est-à-dire qu’on projette la solution sur l’orthogonal du noyau, Ker(H)⊥ . On la note H † i. On appelle « inverse généralisé » et on note H † cet opérateur, qui à tout i ∈ Im(H) + Im(H)⊥ associe la solution aux moindres carrés de norme minimale de i = Ho, c’est-à-dire la seule solution dans Ker(H)⊥ . On montre de plus que H † est continu si et seulement si Im(H) est fermé. On dit que le problème 9.71 est bien posé au sens des moindres carrés, si une solution aux moindres carrés (de norme minimale) existe, est unique, et est stable – i.e., dépend continûment des données i. On voit alors que le problème 9.71 est bien posé au sens des moindres carrés si et seulement si H † est continu, c’est-à-dire si et seulement si Im(H) est fermé. Et pour nombre d’opérateurs, par exemple lorsque H est la convolution par une réponse h de carré intégrable, cette condition n’est pas vérifiée. Une caractérisation des solutions aux moindres carrés permet de bien comprendre intuitivement ce qu’est une telle solution : soit H un opérateur linéaire continu d’un espace de Hilbert X vers l’espace de Hilbert Y , alors les trois propositions suivantes sont équivalentes : a) ||i − H oˆmc ||2 = inf ||i − Ho||2 ; o∈X
b) H ∗ H oˆmc = H ∗ i, avec H ∗ adjoint de H (équation normale) ;
(9.74)
c) H oˆmc = P i, avec P opérateur de projection (orthogonale) de Y sur Im(H). En particulier, la caractérisation (c) nous apprend que la solution aux moindres carrés résout exactement l’équation de départ (9.71) quand on projette les données i sur (la fermeture de) l’ensemble des données possibles en l’absence de bruit, Im(H). Dans le cas de la dimension finie, c’est-à-dire pour les problèmes pratiques, i.e., discrétisés, un sous-espace vectoriel est toujours fermé. Par conséquent, on est assuré à la fois de l’existence et de la continuité de l’inverse généralisé. Cependant, le caractère mal posé du problème continu ne disparaît pas par discrétisation, il change simplement d’aspect : l’instabilité mathématique du problème continu, traduite par la non-continuité de l’inverse généralisé en dimension infinie, se traduit en une instabilité numérique du problème discrétisé : le problème inverse discrétisé, en dimension finie, est mal conditionné, comme nous le détaillons plus loin. Le conditionnement d’un problème inverse discrétisé caractérise la robustesse au bruit lors de l’inversion ; il est lié à la
598
L’observation en astrophysique
dynamique des valeurs propres de H ∗ H (matrice en dimension finie), et est d’autant plus mauvais que cette dynamique est grande.
9.6.3
Les méthodes d’inversion classiques
Dans ce qui suit, nous considérons que les données, qui ont été numérisées (cf. § 9.1.3), sont discrètes, finies et rassemblées dans un vecteur i. En imagerie, pour une image de taille N × N , i est un vecteur de taille N 2 qui concatène les lignes ou les colonnes de l’image. (Cette concaténation n’est pas à faire dans le calcul, nous l’utilisons ici d’un point de vue conceptuel.) La première étape de la résolution du problème inverse consiste à discrétiser également l’objet recherché o en le décomposant sur une base finie : base de pixels ou de sinus cardinaux pour une image, base de polynômes de Zernike pour une phase aberrante (c’est-à-dire affectée d’aberrations). Le modèle qui relie o à i est donc une approximation du modèle direct continu des équations (9.70) ou (9.71). En y incorporant explicitement les incertitudes de mesures sous forme d’un bruit additif b (vecteur composé de variables aléatoires), il s’écrit : i = H(o) + b. (9.75) dans le cas général et : i = Ho + b.
(9.76)
dans le cas linéaire, H étant une matrice. Dans le cas particulier où H représente une convolution discrète, le modèle direct s’écrit : i = ho + b,
(9.77)
où h est la réponse impulsionnelle du système et désigne la convolution discrète. Notons que, dans le cas d’un bruit de photons, le bruit n’est pas additif, au sens où il dépend des mesures non bruitées Ho : la notation de l’équation (9.75) est alors quelque peu abusive25 . Méthode des moindres carrés La méthode la plus universellement utilisée pour estimer des paramètres o à partir de données i est la méthode des moindres carrés. Cette méthode ˆ mc qui minimise l’écart, en moyenne quadratique, entre consiste à rechercher o les données i et le modèle de données H(o) : ˆ mc = arg min||i − H(o)||2 , o o
(9.78)
25 Certains auteurs notent i = Ho b le modèle direct bruité pour signifier une opération de bruitage qui peut dépendre, en chaque valeur de la donnée, de la valeur de la donnée non bruitée.
9. Le signal en astronomie
599
où arg min signifie argument du minimum et ||·|| désigne la norme euclidienne. Cette méthode a été publiée pour la première fois par Legendre26 en 1805, et vraisemblablement découverte par Gauss27 quelques années plus tôt mais sans être publiée. Legendre utilisa la méthode des moindres carrés pour estimer l’ellipticité de la Terre à partir de mesures d’arc, dans le but de définir le mètre. Dans le cas où le modèle des mesures est linéaire et donné par (9.76), la solution est analytique et s’obtient en annulant le gradient du critère (9.78) : Ht Hˆ omc = Ht i.
(9.79)
Si H H est inversible – i.e., si le rang de la matrice H est égal à la dimension du vecteur inconnu o – alors la solution est unique et s’exprime comme : t
−1 t ˆ mc = Ht H o H i.
(9.80)
Sinon, comme en dimension infinie (cf. § 9.6.2), il existe une infinité de solutions mais une seule de ces solutions est de norme (ou « énergie ») minimale. C’est l’inverse généralisé, que l’on note H† i. Relation entre moindres carrés et filtre inverse Quand le processus de formation d’image peut être modélisé par une convolution, le caractère invariant par translation de l’imagerie se traduit par une structure particulière de la matrice H ; cette structure est approximativement celle d’une matrice circulante (pour une convolution à une dimension), ou circulante par blocs, à blocs circulants (pour une convolution à deux dimensions). Sous cette approximation, qui revient à rendre périodique la réponse impulsionnelle h, la matrice H se diagonalise par transformée de Fourier discrète (tfd, calculable par un algorithme de fft), et ses valeurs propres sont ˜ (définie comme la tfd de h). On peut les valeurs de la fonction de transfert h alors écrire la solution aux moindres carrés de norme minimale du paragraphe précédent dans le domaine de Fourier discret28 : ˜ ∗(u) ˜ı(u) ˜ı h ˜ ˜ ˜ = (u) ∀u tel que h(u) = 0, et 0 si h(u) = 0. o ˆ mc (u) = 2 ˜ ˜ |h(u)| h (9.81) où ˜· représente la transformée de Fourier discrète. Dans le cas d’un modèle de données convolutif, la solution aux moindres carrés est donc identique au filtre inverse, à l’approximation sus-mentionnée près. 26 Adrien-Marie Legendre (1752-1833), mathématicien français, dont les contributions furent importantes en statistique, en algèbre et en analyse. 27 Carl Gauss (1777-1855), appelé le prince des mathématiciens, astronome et physicien allemand, dont les contributions furent aussi diverses que profondes dans ces domaines. 28 À la matrice Ht correspond dans le domaine de Fourier discret la fonction de transfert ˜ ∗ et les inversions matricielles donnent des inverses simples. h
600
L’observation en astrophysique
Méthode du maximum de vraisemblance Dans la méthode des moindres carrés, le choix d’une mesure quadratique de l’écart entre données i et modèle de données H(o) n’est pas justifié, si ce n’est par le fait que l’on peut mener analytiquement le calcul de la solution. En outre, cette méthode n’utilise aucunement notre éventuelle connaissance des propriétés statistiques du bruit. Or cette information sur le bruit permet d’interpréter la méthode des moindres carrés et surtout de l’étendre. Modélisons les incertitudes de mesure b comme un bruit de loi de probabilité pb (b). D’après l’équation (9.75), la loi des données i conditionnellement à l’objet, c’est-à-dire à objet o donné (donc supposé connu), est alors29 : p(i | o) = pb (i − H(o)),
(9.82)
L’équation (9.82) permet de tirer des réalisations de données bruitées connaissant l’objet, c’est-à-dire de simuler des données. Dans un problème inverse au contraire, on n’a qu’une réalisation des données (celles effectivement mesurées) et on cherche à estimer l’objet. La méthode du maximum de vraisemblance (mv) consiste justement à renverser le point de vue sur p(i | o) en considérant o comme une variable, i fixe égal aux données, et à rechercher l’objet o qui maximise p(i | o). La quantité p(i | o) vue comme une fonction de ˆ mv qui la maximise o est alors appelée la vraisemblance des données, et l’objet o est celui qui rend les données effectivement observées les plus probables30 : ˆ mv = arg max p(i | o). o o
(9.83)
Le modèle de bruit le plus utilisé est sans conteste le modèle gaussien centré (c’est-à-dire à moyenne nulle), caractérisé par sa matrice de covariance Cb : " # 1 p(i | o) ∝ exp − [i − H(o)]t C−1 b [i − H(o)] . 2
(9.84)
Le bruit est dit blanc (cf. Appendice II) si sa matrice de covariance est diagonale. Si de plus cette matrice est proportionnelle à l’identité, alors le bruit est dit blanc stationnaire ou homogène. Le bruit de lecture d’un détecteur ccd (cf. § 7.4.6) est souvent modélisé par un tel bruit gaussien centré stationnaire. Le bruit de photons est blanc mais suit une loi de Poisson (cf. Appendice II), dont on peut montrer qu’à fort flux elle tend vers une loi gaussienne non stationnaire de variance égale au signal détecté en chaque pixel. La maximisation de la vraisemblance est évidemment équivalente à la minimisation d’un critère défini comme l’opposé du logarithme de 29 Cette
équation se lit : la probabilité de i sachant o est la loi du bruit en i − H(o). notation arg max se lit argument du maximum et désigne la valeur de la variable qui maximise la quantité qui suit : ici p(i | o). 30 La
9. Le signal en astronomie
601
celle-ci et appelé anti-log-vraisemblance : Ji (o) = − ln p(i | o).
(9.85)
Dans le cas d’un bruit gaussien, l’anti-log-vraisemblance s’écrit : Ji (o) =
1 [i − H(o)]t C−1 b [i − H(o)] . 2
(9.86)
Si en outre le bruit est blanc, alors : Ji (o) =
1 |i(k) − H(o)(k)|2 , 2 k σ 2b (k)
(9.87)
où les σ 2b (k) sont les éléments de la diagonale de Cb . Ji (o) est un critère dit de moindres carrés pondérés. Si le bruit est de plus stationnaire de variance σb2 alors Ji (o) = 1/(2σb2 )||i − H(o)||2 est exactement le critère de moindres carrés, dits ordinaires par opposition aux moindres carrés pondérés.
La méthode des moindres carrés peut donc s’interpréter comme un maximum de vraisemblance si le bruit est blanc gaussien stationnaire. Inversement, si la loi du bruit est connue mais est différente, le maximum de vraisemblance permet de prendre en compte cette connaissance sur le bruit et généralise alors les moindres carrés. Exemple : reconstruction de front d’onde par maximum de vraisemblance Considérons un analyseur de Hartmann-Shack qui mesure les aberrations dues à la turbulence atmosphérique sur un télescope observant l’espace depuis le sol. On décompose la phase en pupille de sortie sur une base de polynômes de Zernike Zk , dont le degré est nécessairement limité en pratique à une valeur maximale de k : k max ϕ(x, y) = ok Zk (x, y). (9.88) k=1
On recherche donc o, la collection des coefficients ok de cette décomposition, à partir de la mesure des pentes moyennes, concaténées dans un vecteur de mesures i. Le modèle de données est identique à l’équation (9.76) : i = Ho + b, où H est essentiellement un opérateur de dérivation appelé matrice d’interaction. Dans la simulation présentée ci-après, l’analyseur contient 20 × 20 souspupilles dont seulement 276 reçoivent de la lumière, du fait d’une occultation centrale (miroir secondaire du télescope) de 33 %, ce qui donne 552 mesures de pentes. La phase turbulente vraie ϕ est une combinaison linéaire de kmax = 861 polynômes de Zernike, tirée selon une statistique
602
L’observation en astrophysique de Kolmogorov. La matrice H est donc de taille 552 × 861. Le bruit ajouté sur les pentes est blanc gaussien stationnaire et de variance égale à la variance des pentes non bruitées, soit un rapport signal à bruit de 1 sur chaque mesure. Dans ces conditions, l’estimée de la phase, au sens du maximum de vraisemblance, est identique à la solution au sens des moindres carrés (cf. paragraphe précédent). La matrice Ht H de l’équation (9.80) est de taille kmax × kmax et n’est pas inversible (car on n’a que 552 mesures). La solution inverse généralisée est inexploitable car complètement dominée par le bruit. Le remède souvent retenu est de rec réduire, lors de la reconstruction de front d’onde, la dimension kmax de l’espace des inconnues o. Ce remède est une des méthodes de régularisation connues et est appelé régularisation par contrôle de la dimension. rec Un exemple de reconstruction pour différentes valeurs de kmax est présenté figure 9.15.
Phase vraie
rec MV kmax =3
rec MV kmax = 21
rec MV kmax = 55
rec MV kmax = 105
rec MV kmax = 210
Fig. 9.15 – Analyse de front d’onde sur une pupille. En haut à gauche : phase simulée (appelée vraie). Autres figures : phases reconstruites par maximum de vraisemblance (mv), en faisant varier le nombre de modes reconstruits. rec Pour kmax = 210, valeur bien inférieure au nombre de mesures, la phase reconstruite est déjà inacceptable. Sa forme particulière est due au fait que le télescope a une obstruction centrale et que l’on n’a donc pas de mesures au centre de la pupille.
Cet exemple illustre bien les cas où la matrice Ht H, bien qu’inversible, est mal conditionnée, c’est-à-dire a des valeurs propres très proches de 0, ce qui conduit à une amplification non contrôlée du bruit. rec La troncature de l’espace des solutions à des valeurs plus faibles de kmax produit des solutions plus raisonnables, mais d’une part le choix optimal de rec kmax dépend de la force de la turbulence et du niveau de bruit et ce réglage est difficile à faire en pratique, d’autre part cette troncature réalise une erreur de modélisation, puisqu’elle revient à négliger toutes les composantes de la phase
9. Le signal en astronomie
603
rec . Nous voyons plus loin comment l’introduction turbulente au-delà de kmax de connaissances a priori sur la régularité spatiale de la phase (spectre de Kolmogorov) permet d’obtenir une solution meilleure sans cette réduction ad hoc de la taille de l’espace des inconnues.
Interprétation de l’échec des méthodes non régularisées L’échec de la méthode du maximum de vraisemblance, illustrée par l’exemple précédent, peut surprendre au vu des bonnes propriétés statistiques du maximum de vraisemblance, qui est un estimateur convergent vers la vraie valeur des paramètres lorsque le nombre de données tend vers l’infini, qui est asymptotiquement efficace, etc. Mais ces bonnes propriétés ne sont qu’asymptotiques, c’est-à-dire qu’elles ne concernent que les situations où l’on a un bon contraste statistique, défini simplement comme le rapport du nombre de mesures au nombre d’inconnues. Dans la pratique et en particulier dans l’exemple précédent, on a souvent à estimer un nombre de paramètres qui est du même ordre de grandeur que le nombre de mesures, parfois plus grand, auquel cas ces propriétés asymptotiques ne sont d’aucun secours. Dans cette situation, fréquente, d’un contraste statistique défavorable, l’inversion est instable, c’est-à-dire très sensible au bruit, ce qui peut souvent s’interpréter comme provenant du caractère mal posé du problème sous-jacent en dimension infinie. La restauration d’image est un autre cas typique de cette situation : pour une image de N × N pixels, on cherche évidemment à reconstruire un objet de même taille, et si l’on augmente la taille de l’image on augmente de la même manière le nombre de paramètres inconnus liés à l’objet, sans améliorer le contraste statistique, qui reste de l’ordre de 1. On a vu que la solution aux moindres carrés était dans ce cas donnée par le filtre inverse, dont on sait justement qu’il est très instable visà-vis du bruit. Cette instabilité se comprend aisément en réinjectant l’équation de mesure (9.77), dans le domaine de Fourier discret, dans la solution (9.81) : ˜ ˜ı b ˜ ˜+ · =o (9.89) o ˆ mc = ˜ ˜ h h Il est clair d’après cette équation que le bruit est très amplifié pour toutes les fréquences pour lesquelles la valeur de la fonction de transfert ˜ est proche de zéro. On peut penser, pour réduire l’amplification du h ˜ que pour bruit, à modifier (9.81) et ne réaliser la division de ˜ı par h ˜ n’est pas trop petite. Ceci les fréquences u où la fonction de transfert h constitue également une régularisation par contrôle de la dimension de rec pour la reconstruction de la solution, très similaire au choix d’un kmax front d’onde, et souffre du même caractère ad hoc ainsi que de la même difficulté de réglage.
En résumé, les méthodes d’inversion simples telles que les moindres carrés ou le maximum de vraisemblance ne donnent des résultats satisfaisants que
604
L’observation en astrophysique
si l’on a un bon contraste statistique. Ainsi, le maximum de vraisemblance peut s’appliquer avec succès à des problèmes tels que le recalage d’image, où on recherche un vecteur à deux dimensions, afin de recaler entre elles deux images constituées d’un grand nombre de pixels. Plus généralement, il s’applique encore à la recherche des quelques variables d’un modèle paramétrique parcimonieux à partir de données en assez grand nombre : estimation du diamètre d’une étoile à partir de visibilités en interférométrie optique, estimation de l’ellipticité de la Terre à partir de mesures d’arc, etc. Dans nombre de problèmes où le contraste statistique n’est pas favorable, le problème est mal conditionné et la régularisation c’est-à-dire l’ajout, lors de l’inversion, de contraintes et de connaissances a priori sur la solution, devient très profitable, comme nous le montrons maintenant.
9.6.4
Les méthodes d’inversion avec régularisation
La régularisation d’un problème inverse correspond à l’idée que les données seules ne permettent pas d’obtenir une solution acceptable et qu’il faut donc introduire une information a priori sur la régularité de l’objet à estimer. Nous entendons ici par le terme régularité le fait que l’objet, pour des raisons physiques tenant à sa nature même, doit posséder certaines propriétés, ou encore obéir à certaines règles (de signe, de taille, de fréquences par exemple). La solution résulte alors d’un compromis entre l’exigence de fidélité aux données et celle de la régularité postulée de l’objet. En effet, plusieurs solutions très différentes, certaines très mauvaises et d’autres très bonnes, peuvent être compatibles avec les données ; ainsi, dans l’exemple précédent de reconstruction d’un front d’onde, rec la phase vraie et la phase reconstruite pour kmax = 210 (Fig. 9.15) donnent des valeurs de vraisemblance très voisines, c’est-à-dire sont toutes les deux fidèles aux données. De plus, la solution plus douce, rec plus régulière, obtenue pour kmax = 55 est moins bien ajustée, c’est-àrec = 210 dire est moins fidèle aux données que celle obtenue pour kmax – car elle a été obtenue par une optimisation sur moins de degrés de liberté –, et pourtant elle est bien plus proche de la phase vraie.
Estimation bayesienne et estimateur du maximum a posteriori L’estimation bayesienne, que nous présentons brièvement ici, permet de combiner naturellement l’information apportée par les mesures et l’information disponible a priori. Supposons avoir exprimé notre connaissance a priori de l’objet observé par une distribution de probabilité, dite loi a priori p(o). Il ne s’agit pas de supposer que l’objet observé est réellement la réalisation d’un phénomène aléatoire de loi p(o) ; cette loi doit simplement être représentative de nos informations a priori, c’est-à-dire prendre des valeurs faibles pour les objets reconstruits qui seraient peu compatibles avec celles-ci, et des valeurs élevées pour les objets très compatibles.
9. Le signal en astronomie
605
La règle de Bayes31 permet d’exprimer la probabilité de l’objet o, conditionnellement aux mesures i, dite probabilité a posteriori – c’est-à-dire probabilité de l’objet après avoir fait les mesures – en fonction de la probabilité a priori de l’objet p(o) et de la probabilité des mesures conditionnellement à l’objet, p(i | o). Cette dernière probabilité contient nos connaissances sur le modèle de formation de données, y compris le modèle de bruit. La règle de Bayes s’exprime ainsi (cf. § 9.5) : p(o | i) =
p(i | o) × p(o) ∝ p(i | o) × p(o). p(i)
(9.90)
Estimateur du maximum a posteriori . Muni de l’expression précéˆ qui estimerait au mieux dente, comment doit-on choisir l’objet reconstruit o le véritable objet ? Un choix couramment fait est l’estimateur du maximum a posteriori ou map. Il consiste à définir comme solution l’objet qui maximise la probabilité a posteriori p(o | i) : ˆ map = arg max p(o | i) = arg max p(i | o) × p(o). o o
o
(9.91)
C’est l’objet le plus probable, sachant les données et nos connaissances a priori. Cette probabilité a posteriori, vue comme une fonction de l’objet, est appelée vraisemblance a posteriori. Elle prend en compte, via l’équation (9.90), à la fois les mesures i, le modèle de formation de données et les connaissances a priori de l’objet. En particulier, il est remarquable qu’avec un a priori uniforme (p(o) = constante), c’est-à-dire une absence d’information sur l’objet, le map redonne la méthode du maximum de vraisemblance. On peut montrer que le choix de l’estimateur map revient à minimiser le risque moyen (cf. § 9.5) pour une fonction de coût particulière, dite en tout-ourien, mais ceci dépasse le cadre de cette introduction aux problèmes inverses. ˆ minimisant l’erreur D’autres choix de fonction de coût, tels que le choix d’un o quadratique moyenne à l’objet vrai o sous la loi a posteriori, peuvent être envisagés, mais ils conduisent généralement à des coûts plus importants en temps de calcul de la solution32 . Équivalence avec la minimisation d’un critère régularisé La maximisation de la vraisemblance a posteriori est équivalente à la minimisation d’un critère Jmap (o) défini comme l’opposé du logarithme de celle-ci. D’après (9.91) ce critère peut s’écrire comme la somme de deux composantes : Jmap (o) = − ln p(i | o) − ln p(o) = Ji (o) + Jo (o),
(9.92)
31 Thomas Bayes (1762-1761), mathématicien britannique dont le principal travail, portant sur les probabilités inverses, ne fut publié que de façon posthume. 32 Un ouvrage de référence sur la théorie de l’estimation est le livre de Lehmann, E. Theory of point estimation, John Wiley, 1983.
606
L’observation en astrophysique
où Ji est le critère de fidélité aux données déduit de la vraisemblance (cf. équation (9.85)) qui est souvent un critère de moindres carrés, et où Jo (o) − ln p(o) est un critère dit de régularisation ou de pénalisation (de la vraisemblance) qui traduit la fidélité à l’a priori. L’écriture de la solution map comme l’objet qui minimise le critère (9.92) fait clairement apparaître qu’elle réalise le compromis entre fidélité aux données et fidélité à l’a priori annoncé au début de ce paragraphe 9.6.4. Lorsque o n’est pas la réalisation d’un phénomène aléatoire, de loi p(o) (par exemple en restauration d’image), Jo (o) comprend généralement un facteur multiplicatif appelé coefficient de régularisation ou hyper-paramètre33, dont la valeur règle le point de compromis. Des méthodes d’ajustement non supervisé (c’est-à-dire automatique) de ce coefficient existent mais dépassent le cadre de cet ouvrage34. Cas linéaire et gaussien : le lien avec le filtre de Wiener Nous considérons ici le cas où le modèle de données est linéaire (équation (9.76)), le bruit est supposé gaussien et l’a priori adopté pour l’objet est ¯ et de matrice de covariance Co : également gaussien35 , de moyenne o " # 1 t −1 ¯ ¯ p(o) ∝ exp − (o − o) Co (o − o) . (9.93) 2 En utilisant l’équation (9.86), on voit que le critère à minimiser pour obtenir la solution map est : Jmap (o) =
1 1 t ¯ ). ¯ )t C−1 [i − Ho] C−1 o (o − o b [i − Ho] + (o − o 2 2
(9.94)
Ce critère est quadratique en o et son minimum est donc analytique ; celui-ci s’obtient en annulant le gradient du critère : t −1 −1 −1 ˆ map = Ht C−1 ¯ . o H Cb i + C−1 o o b H + Co
(9.95)
Quelques commentaires permettent d’éclairer ce résultat d’apparence un brin rébarbative. Tout d’abord, la solution au sens du maximum de vraisemblance s’obtient en prenant C−1 o = 0 dans cette équation. Incidemment, ceci montre que cette solution correspond, dans le cadre bayesien, à supposer une énergie infinie pour o. Ensuite, en prenant de plus Cb proportionnelle à la matrice 33 On désigne par hyper-paramètre l’ensemble des paramètres du modèle des données (par exemple la variance du bruit) ou du modèle a priori (par exemple la turbulence atmosphérique et donc le paramètre r0 ), qui sont fixés lors de l’inversion. 34 Voir Idier, J. op.cit, chap. 2 et 3. 35 Nous ne supposons pas du tout ici que la forme de l’objet est gaussien, mais que sa distribution de probabilité est gaussienne. C’est le cas par exemple lorsque o est une phase turbulente qui suit la statistique de Kolmogorov (cf. § 2.6). Le théorème central limite (cf. Appendice II) conduit souvent à des objets aléatoires gaussiens, lorsque la perturbation de l’objet est due à de multiples causes indépendantes.
9. Le signal en astronomie
607
identité, on voit que l’on retrouve exactement la solution au sens des moindres carrés de l’équation (9.80). Enfin, le cas de la déconvolution est particulièrement éclairant : on suppose que le bruit est stationnaire, de densité spectrale de puissance (dsp) Sb , que la loi a priori sur l’objet est également stationnaire avec une dsp So . Pour toutes les grandeurs en jeu, on fait la même approximation de périodicité qu’au paragraphe 9.6.3. Toutes les matrices de l’équation (9.95) se diagonalisent alors dans la même base de Fourier discrète, et la solution peut alors s’écrire dans cette base, avec des multiplications et des inverses simples et non plus matricielles : ˜ o ˆ map (u) =
˜ ∗ (u) h ˜ 2 (u) |h|
+ Sb /So (u)
˜ı(u) +
Sb /So (u) ˜ 2 (u) |h|
+ Sb /So (u)
˜¯ (u). o
(9.96)
Dans cette expression, Sb /So (u) est l’inverse d’un rapport signal à bruit ˜ à la fréquence spatiale u et o ¯ est la TF de l’objet a priori, généralement pris nul ou égal à un objet de valeur constante. Cette expression est celle du filtre de Wiener (cf. § 9.1.3) pour le cas où l’objet a priori n’est pas nul. Pour les fréquences où le rapport signal à bruit est fort, cette solution tend vers le filtre inverse ; pour les fréquences où ce rapport est faible, la solution tend vers l’objet a priori. On peut même voir qu’à chaque fréquence spatiale u, la solution est sur un segment qui relie la solution du maximum de vraisemblance (filtre inverse) à la solution a priori, la position sur le segment étant donnée par le rapport signal à bruit : ˜ı(u) ˜ ˜¯ (u), o ˆ map (u) = α + (1 − α) o ˜ h
(9.97)
en ayant posé : α=
˜ 2 (u) |h| · ˜ 2 (u) + Sb /So (u) |h|
(9.98)
Cette expression illustre bien le fait que la régularisation réalise un compromis biais-variance qui permet de réduire l’erreur d’estimation : l’erreur quadratique moyenne sur l’objet estimé est la racine de la somme du biais, élevé au carré, et de la variance de l’estimateur utilisé. La solution du filtre inverse (obtenue pour Sb /So = 0) est à biais nul mais amplifie le bruit de manière non contrôlée, c’est-à-dire possède une variance non bornée. La solution (9.96) est, par rapport à la solution du maximum de vraisemblance, ¯ ; accepter ce biais permet de réduire la biaisée vers la solution a priori o variance très notablement et, globalement, de réduire l’erreur quadratique moyenne sur l’objet estimé. Application à la reconstruction de front d’onde Reprenons l’exemple de la reconstruction de front d’onde à partir de données d’un analyseur Hartmann-Shack traité ci-dessus au § 9.6.3. Le bruit est
608
L’observation en astrophysique
toujours supposé gaussien, blanc, de matrice de covariance Cb = σ 2 I. On suppose que la phase suit une statistique de Kolmogorov ; elle est donc gaussienne, de matrice de covariance Co connue et ne dépend que du diamètre de Fried r0 qui quantifie la force de la turbulence. La phase vraie possède une variance spatiale σϕ2 = 3.0 rd2 . La phase la plus probable, connaissant les mesures et disposant de cette information a priori, est la solution map donnée par l’équation (9.95). Cette solution est présentée sur la figure 9.16 ; l’erreur 2 d’estimation correspond à une variance spatiale σerr = 0.7 rd2 , qui est plus faible que la meilleure des solutions obtenues précédemment en tronquant la représentation de la phase à un petit nombre de polynômes de Zernike 2 rec (σerr = 0.8 rd2 , obtenue pour kmax = 55).
Phase simulée σϕ2 = 3.0 rd2
solution map 2 σerr = 0.7 rd2
rec solution mv, kmax = 55 2 σerr = 0.8 rd2
Fig. 9.16 – Comparaison de phases reconstruites sur une pupille. À gauche : phase turbulente simulée, à estimer. Au centre : phase estimée par map. À droite : Meilleure phase estimée par maximum de vraisemblance sur une base tronquée.
La solution map tire parti des connaissances a priori sur la statistique spatiale de la turbulence. Pour une utilisation en optique adaptative, où la fréquence d’échantillonnage est généralement bien supérieure à 1/τ0 , il est judicieux d’opter pour une extension naturelle de cet estimateur qui utilise également les connaissances a priori sur la statistique temporelle de la turbulence ; cette extension est l’estimateur optimal du filtrage de Kalman.
9.6.5
Une application à l’imagerie par optique adaptative
Nous appliquons ici ces outils de résolution du problème inverse à un cas particulier, celui de l’imagerie par optique adaptative, dont nous présentons quelques illustrations, soit par simulation, soit par traitement d’observations astronomiques vraies. Ingrédients de la déconvolution Les images longue pose corrigées par optique adaptative (OA) doivent être déconvoluées, car la correction réalisée n’est que partielle. En considérant la réponse impulsionnelle h connue, l’objet estimé au sens du map, noté ici
9. Le signal en astronomie
609
ˆ map , est donné par l’équation (9.91) c’est-à-dire est celui qui minimise le o critère (9.92). Voyons comment définir les deux composantes de ce critère. Afin de pouvoir restaurer des objets à grande dynamique, fréquents en astronomie, le terme de fidélité aux données Ji doit incorporer une modélisation fine du bruit prenant en compte à la fois le bruit de photon et le bruit électronique. Ceci peut être réalisé en traitant le bruit de photon comme un bruit gaussien non stationnaire et aboutit à un critère Ji du type moindres carrés pondérés (équation (9.87)) plutôt qu’à un terme de moindres carrés ordinaires. Pour des objets à bords francs comme des satellites artificiels, des astéroïdes ou des planètes, un a priori gaussien (comme celui qui aboutit au filtre de Wiener (cf. § 9.6.4)), ou de manière équivalente un critère de régularisation quadratique, a tendance à lisser les bords et à introduire près de ceux-ci des oscillations parasites ou ringing. Une interprétation de cet effet est qu’une régularisation quadratique donne à l’apparition d’un saut (bord franc sur l’objet, i.e., différence de valeur importante entre pixels adjacents), lors de la minimisation du critère Jmap (o), un coût proportionnel au carré de la valeur du saut. Une solution est alors d’utiliser un critère préservant les bords francs (ou edgepreserving) comme les critères dits quadratiques-linéaires, ou L2 L1 , qui sont quadratiques pour les faibles sauts et linéaires pour les forts sauts. La partie quadratique assure un bon lissage du bruit et la partie linéaire annule la pénalisation des bords.
Par ailleurs, pour de nombreuses raisons, on est souvent amené à considérer que la réponse impulsionnelle h est imparfaitement connue. Effectuer une déconvolution classique, c’est-à-dire en supposant la réponse impulsionnelle connue mais avec une réponse impulsionnelle fausse, peut conduire à des résultats catastrophiques. À l’inverse, la déconvolution dite aveugle, où l’on minimise le même critère (9.92) mais en recherchant simultanément o et h, est très instable, à l’instar des méthodes non régularisées. La déconvolution myope consiste à estimer conjointement o et h dans un cadre bayesien avec une régularisation naturelle pour la réponse impulsionnelle et sans avoir à régler d’hyper-paramètre supplémentaire. L’estimateur map conjoint est donné par : ˆ = arg max p(o, h | i) = arg max p(i | o, h) × p(o) × p(h) (ˆ o, h) o,h
o,h
= arg min (Ji (o, h) + Jo (o) + Jh (h)) , o,h
où Jh est un critère de régularisation sur h, qui introduit des contraintes sur la variabilité possible de la réponse impulsionnelle. Le paragraphe suivant présente des résultats sur des données expérimentales obtenus avec la méthode de restauration mistral36 , qui combine les trois 36 Cet acronyme signifie Myopic Iterative STep-preserving Restoration algorithm, soit Algorithme itératif de restauration myope à préservation de saut. Cette méthode est décrite
610
L’observation en astrophysique
ingrédients évoqués ci-dessus : la modélisation fine du bruit, la régularisation non quadratique et l’aspect myope. Restaurer à partir de données astronomiques réelles L’image de la figure 9.17a montre une longue pose de Ganymède, satellite de Jupiter, corrigée par optique adaptative. Cette image a été enregistrée le 28/09/1997 sur le banc d’OA de l’onera installé sur le télescope de 1.52 m de l’Observatoire de Haute-Provence. La longueur d’onde d’imagerie est λ = 0.85 μm et le temps de pose de 100 s. Le flux total estimé est 8 × 107 photons et le rapport D/r0 estimé est 23. Le champ total est de 7,9 , dont seulement la moitié est montrée ici. La réponse impulsionnelle moyenne et sa variabilité ont été estimées à partir de l’enregistrement de cinquante images d’une étoile brillante située à proximité. Les figures 9.17(b) et 9.17(c) montrent les restaurations obtenues par l’algorithme de Richardson-Lucy (mv pour un bruit de Poisson), interrompu à 200 et 3 000 itérations respectivement37 . Dans le premier cas, similaire à une restauration avec régularisation quadratique, l’image restaurée est assez floue et présente des oscillations (ringing), et dans le second cas, très similaire au résultat d’un filtrage inverse, le bruit domine la restauration.
(a)
(b)
(c)
Fig. 9.17 – (a) Image corrigée de Ganymède, obtenue avec le banc d’optique adaptative de l’onera, le 28 septembre 1997. (b) Restauration par Richardson-Lucy, interrompue à 200 itérations ; (c) idem à 3 000 itérations. (D’après Mugnier, L. et al., chap. 10 de Idier, J. op.cit.) L’image figure 9.18a illustre la déconvolution myope avec a priori préservant les bords. La figure figure 9.18b montre une image synthétique large bande obtenue à partir de clichés d’une sonde spatiale nasa/jpl38 passée à dans Mugnier, L. M. et al., MISTRAL : a Myopic Edge-Preserving Image Restoration Method, with Application to Astronomical Adaptive-Optics-Corrected Long-Exposure Images, J. Opt. Soc. Am. A, vol. 21, pp. 1841–1854, 2004. 37 L’arrêt d’un algorithme non régularisé avant convergence est une méthode de régularisation encore répandue mais très ad hoc. 38 Voir http://space.jpl.nasa.gov/.
9. Le signal en astronomie
611
proximité de Ganymède. La comparaison montre que de nombreuses caractéristiques de Ganymède sont correctement restaurées. Une comparaison plus équitable consiste à examiner conjointement la déconvolution myope effectuée par mistral avec l’image de la figure 9.18b convoluée par la réponse impulsionnelle parfaite d’un télescope de 1.52 m, présentée figure 9.18c.
(a)
(b)
(c)
Fig. 9.18 – (a) Déconvolution par mistral de l’image de Ganymède de la figure 9.17. (b) En comparaison, une image synthétique large bande obtenue grâce à la base de données nasa/jpl. (c) Même image synthétique, mais convoluée par la réponse impulsionnelle parfaite d’un télescope de 1.52 m de diamètre. (D’après Mugnier, L. M. et al., mistral : a Myopic Edge-Preserving Image Restoration Method, with Application to Astronomical Adaptive-Optics-Corrected Long-Exposure Images, J. Opt. Soc. Am. A, vol. 21, pp. 1841–1854, 2004.)
9.6.6
Une application à l’interférométrie coronographique
Nous développons un second exemple de problème d’inversion, relatif ici à la détection des planètes extrasolaires à l’aide d’un interféromètre à frange noire (cf. § 6.6), que l’on peut aussi appeler interféromètre coronographique. Avec l’instrument Darwin, à l’étude en Europe, ou Terrestrial Planet FinderInterferometer (mission nasa à l’étude au cours des années 2000), les données se présenteront sous une forme très différente de celle d’une image au sens classique du terme. Elles nécessiteront la mise en œuvre d’un processus de reconstruction pour leur exploitation. Elles consisteront, à chaque instant t de mesure, en une intensité dans chaque canal spectral λ. Cette intensité peut être modélisée comme l’intégrale, sur un certain domaine angulaire, de la carte de transmission instantanée de l’interféromètre Rt,λ (θ), qui dépend du temps t à cause de la rotation de l’interféromètre relativement au plan du ciel, multipliée par la distribution d’intensité de l’objet observé oλ (θ). Le modèle de données est donc linéaire mais foncièrement non convolutif, c’est-àdire très différent de celui rencontré en imagerie. La carte de transmission est
612
L’observation en astrophysique
une simple sinusoïde dans le cas d’un interféromètre de Bracewell ; elle devient plus complexe lorsque plus de deux télescopes interfèrent simultanément. En recombinant les données astucieusement et avec des cartes de transmission asymétriques, il est possible d’éliminer la contribution au signal mesuré des composantes de l’objet observé qui ont une distribution spatiale paire : fuites stellaires, lumière exozodiacale, et a fortiori lumière zodiacale et émission thermique de l’instrument (qui ont un niveau constant dans le champ). On peut alors ne rechercher, lors de la reconstruction d’image, que les planètes, ce qui correspond au modèle d’objet suivant : oλ (θ) =
N src
Fk,λ δ(θ − θk ),
(9.99)
k=1
où Nsrc est le nombre de planètes (supposé ici connu) et Fk,λ est le spectre de la k-ième planète dans un intervalle spectral [λmin , λmax ] fixé par l’instrument. Ce modèle paramétré permet de contraindre notablement l’inversion pour contrebalancer le fait que les données sont nettement plus pauvres qu’une image. Avec ce modèle d’objet, le modèle de formation de données s’écrit : N src
it,λ =
Rt,λ (θ k )Fk,λ + bt,λ ,
(9.100)
k=1 2 peut être où bt,λ est un bruit supposé gaussien blanc, dont la variance σt,λ estimée à partir des données et est supposée connue ici. Le problème inverse à résoudre est d’estimer les positions θk et les spectres Fk,λ des planètes, que l’on regroupe dans deux vecteurs notés (θ, F ). La solution MV est celle qui minimise le critère suivant, de type moindres carrés pondérés au vu des hypothèses faites sur le bruit :
2 N src 1 Ji (θ, F ) = it,λ − Rt,λ (θk )Fk,λ 2 σt,λ t,λ
(9.101)
k=1
Comme on le verra sur les résultats de reconstruction, l’inversion reste difficile dans les conditions de fort bruit envisagées. Le modèle d’objet adopté (équation (9.99)), séparable entre variables spatiales et spectrales, contient déjà toutes nos informations a priori spatiales sur l’objet. Il est néanmoins possible de contraindre encore plus l’inversion en ajoutant la connaissance supplémentaire que les spectres recherchés sont des grandeurs positives (à toutes les longueurs d’ondes) et de plus sont des fonctions relativement douces de la longueur d’onde. Cette dernière information est prise en compte en incorporant au critère à minimiser une régularisation spectrale, qui mesure la rugosité du spectre : m 2 N λ src max ∂ Fk,λ Jo (F ) = μk , (9.102) ∂λm k=1
λ=λmin
9. Le signal en astronomie
613
où la dérivée m-ième du spectre (m = 1 ou 2 en pratique) est calculée par différences finies et où les μk sont des hyper-paramètres qui permettent de régler le poids accordé à la régularisation. La solution map est celle qui minimise le critère composite Jmap (θ, F ) = Ji (θ, F ) + Jo (F ). La mise en œuvre de cette minimisation est assez délicate du fait de nombreux minima locaux du critère. Elle utilise le fait que, pour chaque position θ supposée des planètes, on peut ˆ (θ) car le critère Jmap est quaobtenir simplement l’estimée map du spectre F ˆ (θ) dans Jmap , on dratique pour les spectres F . Si l’on remplace ceux-ci par F obtient une fonction à minimiser partiellement optimisée, qui ne dépend plus (explicitement) que des positions : † ˆ (θ)). Jmap (θ) = Jmap (θ, F
(9.103)
La minimisation de ce critère est fondée sur une recherche séquentielle des planètes, à la manière de l’algorithme clean. La figure 9.19 (cahier couleur) † obtenues dans le cas d’une seule planète, montre les cartes du critère Jmap en fonction des informations a priori utilisées. Il apparaît clairement que les contraintes de positivité et de douceur ajoutées sur les spectres améliorent notablement l’estimation de la position de la planète, en discréditant (Fig. 9.19 droite) des positions compatibles avec les données (Fig. 9.19 gauche et centre) mais correspondant à des spectres très chaotiques. La figure 9.20 montre le spectre estimé d’une Terre ; comme attendu, la régularisation spectrale évite l’amplification du bruit et a un effet bénéfique sur l’estimation. Vrai spectre Spectre estimé sans régul. Spectre estimé avec régul.
spectre corps noir
absorption H2O
absorption 03
absorption CO2
Fig. 9.20 – Spectre reconstruit à la position estimée de la planète : sans régularisation (en mi-foncé) et avec régularisation (en clair ), à comparer au spectre vrai d’une Terre (en noir ). Voir aussi les figures 6.58 et 9.19, cahier couleur.
614
L’observation en astrophysique
Exercices Note : ces exercices portent également sur les sujets traités dans les Appendices I et II. TF
Exercice 9.1. À partir des transformées de Fourier (notées −→) de gauche, montrer que l’on peut déduire les paires de Fourier de droite : 2 sin x TF sin x TF −→ πΠ(πs), −→ Λ(πs), x x 2 TF √ 2 2 1 TF , δ(ax) −→ e−x −→ πe−π s , |a| x2 1 TF √ − 2σ −2π 2 σ2 s2 ix TF 2 e . −→ 2πσe , e −→ δ s − 2π Exercice 9.2. À l’aide du théorème de convolution, donner une expression pour : 2 2 e−ax ∗ e−bx . (L’exercice 4.15 est une application du résultat.) Réponse On se sert ici de la propriété suivante : la transformée de Fourier d’un produit de convolution est le produit des transformées de Fourier des termes du produit. Cette propriété est très utile pour les calculs numériques, car les algorithmes de multiplication sont plus rapides. On se sert également des propriétés de linéarité et de similitude : 2
F (x) = e−ax ∗ e−bx
2
! !! 2 2 = T F T F e−ax .T F e−bx # "π − x2 π − x2 a b e e . = TF a b ! a+b 2 π = √ T F e− ab x ab ab π 3/2 − a+b x2 e . F (x) = √ a+b
Exercice 9.3. Prouver le théorème de Wiener-Khintchine : autocorrélation et densité spectrale forment une paire de Fourier. En l’appliquant par exemple à la fonction i(t), représentant un courant électrique en fonction du temps, et à sa TF ˜i (ν), où ν est une fréquence temporelle, donner de ce théorème une interprétation physique en termes de puissance. Exercice 9.4. Comparer les TF du produit de convolution et du produit de corrélation de deux fonctions.
9. Le signal en astronomie
615
Exercice 9.5. Un signal X(t), dont le spectre est à support borné, traverse un filtre linéaire dont la réponse impulsionnelle est F (t). Soit Y (t) le signal de sortie. X(t) et Y (t) sont échantillonnés, soient les suites {Xi } et {Yj }. Montrer que : {Yi } = {Ii } ∗ {Xi } . Comment déduire la séquence {Ii } ? Exercice 9.6. Filtrage par moyenne courante (lissage). Soit un signal x(t) = xs+b(t) où xs est une constante que l’on cherche à déterminer et b(t) un bruit aléatoire stationnaire perturbant la mesure, tel que b(t) = 0. On forme la quantité : 1 t+T yT (t) = x(θ) d(θ) T t appelée moyenne courante de x(t). Mettre yT (t) sous la forme d’un produit de convolution. En déduire que yT (t) est le résultat d’un filtrage linéaire sur x(t). Déterminer la fonction de transfert H (f ) de ce filtre et sa bande passante équivalente Δf définie par :
+∞
Δf = −∞
2
˜
H(f ) df.
Réponse Une écriture équivalente de la moyenne courante est donnée à une translation de T /2 près par : yT (t) = x(t) ∗ 1/T Π(t/T ). Donc la moyenne courante est le résultat du filtrage linéaire par le filtre ˜ ) = sinc (Tf ) et, d’après le théorème de Parseval : H(f Δf =
2
1
Π( t ) dt = 1 ·
T T
T
Exercice 9.7. Démontrer l’expression de la fonction d’autocorrélation R(τ ) d’un processus gaussien après filtrage par le filtre linéaire : ˜ H(ν) =
1 · 1 + (2πRCν)2
Exercice 9.8. Soit un processus x(t). On forme un nouveau processus xT (t), appelé estimation de la moyenne de x(t), défini par : 1 xT (t) = 2T
t+T
x(t)dt. t−T
616
L’observation en astrophysique
Montrer que, lorsque x(t) est stationnaire :
xT (t) = x(t) = η, σx2T
1 = 4T 2
+T
−T
+T
−T
C(t1 − t2 )dt1 dt2 ,
avec : C(t1 − t2 ) = R(t1 − t2 ) − η 2 . 2 Exprimer σxT en fonction de t1 – t2 = τ . Appliquer ce résultat au processus filtré de l’exercice 6.7 et en déduire une expression analytique simple de sa variance. Tracer graphiquement la quantité σ 2 (T ) et donner de ce graphe une interprétation simple. Appliquer les données ci-dessus pour aborder le problème suivant, fréquemment rencontré en astrophysique (en spectroscopie par transformée de Fourier, en interférométrie des tavelures, en étude des modes propres d’oscillation du Soleil, etc.) : Un expérimentateur se propose d’estimer par une mesure la densité spectrale d’un processus x(t), dont il peut supposer a priori qu’il est normal centré. Décrire comment il doit procéder de façon pratique. Quelle valeur de T doit-il choisir pour que son estimation de la densité spectrale ST (ν) soit contenue dans un intervalle de confiance qu’il se fixe à l’avance ?
Exercice 9.9. Pas de Shannon et théorème d’échantillonnage. Dans un fluide turbulent, la dissipation visqueuse impose un nombre d’onde de coupure κM au spectre des fréquences spatiales contenues dans la turbulence (cf. Chap. 2). Supposant le milieu isotrope, sur quel réseau géométrique faudrait-il disposer des capteurs de température pour être capable de reconstituer, par interpolation ultérieure, la température du milieu en tout point ? S’il se superpose aux fluctuations turbulentes une onde plane sinusoïdale de température, de nombre d’onde κ0 dans une direction donnée, comment est modifiée la densité spectrale ? Exercice 9.10. Pas de Shannon. On se propose de déterminer avec une grande précision la période T du pulsar optique Vela PSR 0833-45 (Fig. 7.27), de période Tp voisine de 89 ms. Le signal est reçu par un photomultiplicateur puis échantillonné à la fréquence fE . Le courant d’obscurité du récepteur présente un bruit poissonnien de densité spectrale blanche jusqu’à fc c fp , fp = 1/T . Quelle est la valeur optimale de fE ? Déterminer le rapport signal à bruit obtenu si la mesure dure un temps T (on se fixera les quantités nécessaires : magnitude du pulsar, transmission et rendement quantique de l’ensemble, surface du télescope, courant de bruit). Montrer que fE doit être modifiée si l’on recherche des informations sur la forme de l’impulsion périodique reçue. Comment ? Quel est l’effet de cette modification sur le rapport signal à bruit obtenu sur la DSP ?
9. Le signal en astronomie
617
Exercice 9.11. Numérisation et troncature. Soient deux processus normaux centrés x(t) et y(t), de même variance σ 2 , dont la corrélation est donnée par :
x(t)y(t) = ρσ 2 . ce qui revient encore, à écrire pour la loi de probabilité jointe : Probabilité{X ≤ x < X + dX, Y ≤ y < Y + dY } = =
2 1 X + Y 2 − 2ρXY . exp − 2σ 2 (1 − ρ2 ) 2πσ 2 (1 − ρ2 )1/2
Soient ai et bi les échantillons de x(t) et y(t) pris à intervalles de temps réguliers ti . Au lieu de numériser x et y, on se contente d’en garder le seul signe : ai [resp. bi ] = +1 si x(t) [resp. y(t)] ≥ 0, = −1 si x(t) [resp. y(t)] < 0. Cette numérisation sur un bit est extrêmement rapide. Montrer que la corrélation des nouvelles variable aléatoire discrètes ai et bi est donnée par :
ai bi =
2 arc sin ρ, π
ou, dans le cas d’une corrélation faible ρ 1, ai bi ∼ 2ρ π ∝ x(t)y(t). Supposons que les densités spectrales de x(t) et y(t) sont à support borné (signaux filtrés). Soit R(τ ) l’autocorrélation des processus a et b, et S(ν) l’interspectre de a et b (TF de R). Montrer que le rapport signal à bruit obtenu sur une estimation de S n’est inférieur que d’un facteur 2/π à celui que l’on déterminerait pendant le même temps de mesure sur les processus originaux x et y. Les corrélateurs numériques temps réel utilisent cette propriété (clipping en anglais) pour augmenter leur vitesse de calcul. Exercice 9.12. À l’aide d’un spectromètre très résolvant (cf. § 8.3.3), on observe la totalité de la surface du Soleil (flux intégré) sur le flanc d’une raie spectrale d’absorption formée dans la photosphère. L’intensité reçue est alors fortement dépendante du décalage Doppler de la raie, c’est-à-dire de la composante de vitesse moyenne sur la ligne de visée. Une fois corrigé l’effet Doppler dû aux divers mouvements relatifs Terre-Soleil (rotation des astres, mouvement de la Terre), le résidu non nul est interprété comme une oscillation globale de la surface solaire. Une période de 2 h 40 (160 min) est observée. Quel est l’échantillonnage optimal du signal ? Aux latitudes non polaires, l’échantillonnage ne peut avoir lieu que pendant le jour ; quel est l’effet de cette troncature sur le spectre observé ? Montrer qu’il contient alors des raies artefacts ou fantômes. Si, de surcroît, des nuages, survenant aléatoirement dans le temps, empêchent parfois l’échantillonnage, quel est leur effet sur la DSP ? On pourra procéder à une simulation numérique sur ordinateur. (Voir une description de ces mesures dans Grec G. et al., Nature, 288, 541, 1980.)
618
L’observation en astrophysique
Exercice 9.13. La densité spectrale d’un cliché de granulation solaire photosphérique, observée en lumière blanche, est donnée par la figure 9.21. Le cliché mesuré avait pour dimensions 13 × 13 secondes d’angle. Quelle est la résolution en fréquence spatiale obtenue sur la figure ? Pour en simplifier le calcul, chaque granule a été représenté par un pic de Dirac. Comment peuton interpréter la dsp bidimensionnelle calculée et, notamment, l’apparente structure hexagonale à basse fréquence et le « bruit » à haute fréquence ?
Fig. 9.21 – Densité spectrale de la granulation solaire. (D’après Aime C. et al., Astr. Ap., 79, 1, 1979. Avec l’aimable autorisation de Astronomy and Astrophysics.)
Exercice 9.14. À partir de la luminance du fond de ciel au voisinage de 500 nm (cf. § 2.3), déterminer le nombre de coups de signal fond de ciel donnés par chaque pixel d’un ccd (rendement quantique η = 0.6) observant un champ de 2 × 2 secondes d’angle à travers un télescope de diamètre 3.6 m, de transmission supposée égale à l’unité. Quelle est la magnitude limite d’une galaxie pouvant être extraite avec un degré de confiance raisonnable de ce fond de ciel au bout d’une heure de pose (attention ! ne pas confondre le fond de ciel et la fluctuation de ce fond) ? Que gagnerait-on avec une pose d’un mois ? d’un an ? Réponse D’après le paragraphe 2.3.1, le ciel a une magnitude : mν = 22 arc sec−2 . Soit un flux du fond de ciel par seconde d’angle : Fc = 3.92 × 10−8 .10−22/2.5 = 6.21 × 10−17 W m−2 μm−1 arc sec−2 . Le nombre de coups de signal du ciel est : nc = Fc S Ω t/(hc/λ),
9. Le signal en astronomie
619
où S est la surface collectrice du télescope : S = π 1.82 m2 , t est le temps d’intégration, Ω est l’angle solide vu par le pixel : 4 arc sec2 , hc/λ est l’énergie d’un photon. Le nombre de photons nécessaires de la galaxie pour un intervalle de confiance raisonnable (3 σ) : ng = 3 (Fc S Ωt(hc/λ)) Et donc le flux de la galaxie : Fg = ng (hc/λ)/(St) en Wm−2 μm−1 , Fg = 3 ((hc/λ)Ω/(St)Fc ). On note ainsi que le plus petit flux détectable varie comme t−1/2 . Pour t = 3 600 s : Fg = 1.56 × 10−19 W m−2 μm−1 , soit une magnitude : mν = 28.5. Pour t = 1 mois, on gagne un facteur (24 × 30) = 26.8 soit 3.5 magnitudes. Pour t = 1 an, on ne gagne plus que 1.35 magnitude supplémentaire. ceci suppose toutefois que le bruit resterait stationnaire sur d’aussi longues durées. Exercice 9.15. Un récepteur photoconducteur pour l’infrarouge est placé au foyer d’un télescope de 4 m observant un champ de diamètre 10 secondes d’arc dans la bande photométrique N, supposée en créneau, de largeur 0.5 μm. Deux termes contribuent au signal reçu : le flux de photons issu de l’étoile et celui dû à l’émission de l’atmosphère terrestre, d’émissivité ε(λ). Comment évaluer ε(λ) ? (cf. § 2.3). Adoptant ε(λ) = 0.5 pour le site considéré, calculer le bruit de fond thermique atmosphérique. Quelle est la magnitude limite mN imposée par ce phénomène pour 1 s d’observation ? pour 1 h ? Suggérer diverses possibilités pour améliorer l’observation. Exercice 9.16. Un procédé d’extraction d’un signal hors du bruit : la détection synchrone. Pour extraire un signal noyé dans un bruit, toutes les informations possédées a priori sur ce signal (signal positif, signal périodique de période connue, etc.) devront être utilisées pour réduire l’incertitude finale. Le cas où la fréquence et la phase du signal sont toutes deux imposées conduit à une détection particulièrement simple. Dans la figure 9.22, le rayonnement x(t) est périodiquement modulé par un disque tournant (ou tout autre dispositif équivalent) à la pulsation ω et la phase ϕ. Le signal mesuré est alors : X0 (t) = b(t) + x(t)F (t), où b(t) est le bruit du récepteur, F (t) la fonction périodique, en général non sinusoïdale, caractérisant le modulateur. On réalise alors, de façon analogique électronique, ou de façon numérique, les opérations suivantes : – filtrage : X1 (t) = X0 (t) * H(t), où H(t) est un filtre à bande passante étroite, Δω ω, centré sur ω ;
620
L’observation en astrophysique
Fig. 9.22 – Disque tournant modulant le rayonnement. – multiplication : X2 (t) = X1 (t) cos (ωt + ϕ’) ; – filtrage basse fréquence, par exemple par moyenne courante : X3 (t) = X2 (t) ∗ Π(t/T ),
avec T 2π/ω.
Montrer que cette succession d’opérations ne conserve dans le bruit b(t) que la partie du spectre de puissance comprise dans Δω, puis utilise l’information de phase. Dans le cas d’un bruit blanc, estimer le rapport signal à bruit obtenu en sortie. Si x(t) a un caractère aléatoire (processus de Poisson décrivant l’arrivée des photons), quel est l’effet sur la mesure ?
Chapitre 10 Grands relevés et observatoires virtuels L’astronomie a toujours eu besoin de cataloguer les objets que voit l’astronome et qu’elle étudie. Hipparque en Grèce (entre 161 et 127), les astronomes Shi Shen et Gan De en Chine1 , constituèrent, bien avant notre ère, les premiers catalogues systématiques du ciel observable depuis ces pays. Tycho Brahe fit de même, puis vint la cartographie des objets non stellaires, dont celle de Messier2 . L’entreprise de la Carte du ciel, à la fin du xixe siècle, marque le début des grands catalogues modernes. L’informatique a bouleversé ce paysage dans la dernière décennie du xxe siècle, facilitant à la fois le volume de données à conserver, leur accessibilité, leur communication et leur adressage par de multiples méthodes automatisées. Ce sont quelques-uns des résultats de cette révolution qui font l’objet de ce chapitre. Au développement de l’astrophysique statistique, aux relevés systématiques de tout le ciel, à toutes longueurs d’onde, s’ajoute l’émergence des observatoires virtuels qui permettent le rapprochement de toutes les cartes et données disponibles sur un objet particulier, éclairant ainsi le problème astrophysique que l’on cherche à résoudre.
10.1
L’astrophysique statistique
Un déluge de données, en croissance exponentielle, caractérise l’astronomie moderne. Plusieurs raisons à cette évolution rapide peuvent être données. Une première, assez évidente, tient à la croissance des capacités instrumentales en terme de taille des télescopes (cf. Chap. 5), de nombre de pixels des détecteurs bidimensionnels (cf. Chap. 7), ou de résolution et domaine spectral 1 Période
des Royaumes combattants, vers 500 avant J.-C. Messier (1730-1817), astronome français, auteur du catalogue de nébuleuses qui conserve encore son initiale M. 2 Charles
622
L’observation en astrophysique
des spectrographes (cf. Chap. 8). Une autre raison, plus subtile, est que désormais, dans plusieurs domaines de l’astrophysique, l’information recherchée, que ce soit sur un phénomène à l’échelle cosmique, ou sur une classe particulière d’objets, ne peut être solidement établie qu’en analysant un échantillon contenant des milliers, voire des dizaines de millions d’individus. Seuls de tels nombres permettent de réduire les effets de dispersion ou de manque de résolution pour isoler un effet dilué. De très ambitieux programme d’observation, appelés grands relevés (large survey en anglais), mettent souvent en jeu des instruments qui leur sont dédiés, mais également des instruments généralistes sur de grands télescopes. Ils sont menés durant des mois ou des années par des consortia internationaux, au sein desquels collaborent souvent des dizaines de chercheurs. L’astronomie galactique et la cosmologie moderne sont deux disciplines particulièrement friandes de ce type d’observations. Depuis peu, la communauté s’intéressant au système solaire lointain est également apparue comme un acteur de ces grands relevés, dans sa recherche d’objets au-delà de l’orbite de Neptune. L’étude de la Galaxie, qu’il s’agisse de ses populations stellaires, de sa structure ou des composantes du milieu interstellaire, a fait naître, en particulier dans les domaines radio centimétrique et millimétrique, de nombreux relevés exhaustifs. Dans les autres domaines de longueurs d’onde, les satellites d’observation dans l’infrarouge et aux hautes énergies ont complété cette cartographie. La figure 1.7 (cahier couleur) illustre de façon spectaculaire la couverture spectrale ainsi obtenue. La cosmologie a été productrice d’immenses programmes – et continue de l’être. Que ce soit la mise en évidence des grandes structures matérialisées par les amas et associations de galaxies, la recherche d’évolution des premières galaxies dans l’univers lointain, témoignage des processus d’assemblage des premières structures, ou encore la mise en évidence de la matière noire par les effets de lentille gravitationnelle faible (weak lensing), il faut collecter et analyser les images de millions de galaxies pour obtenir une tendance statistiquement significative. À ce titre, la quête d’une détermination, la plus précise possible, des paramètres cosmologiques peut être considérée comme exemplaire de cet indispensable besoin d’une dimension statistique portant sur de très grands nombres d’objets. La recherche d’objets rares se situe à l’opposé de cette démarche mais pourtant met en jeu des besoins tout à fait analogues, en termes de quantité d’information à acquérir et analyser : la propriété recherchée n’est pas ici partagée de façon ténue par des millions d’individus mais au contraire est l’apanage d’une population raréfiée que seuls quelques signes – par exemple des couleurs très particulières pour les naines brunes – permettent de traquer au sein d’un échantillon gigantesque de cousins à première vue guère différents. La recherche des quasars, des nébuleuses planétaires, des naines brunes, des
10. Grands relevés et observatoires virtuels
623
planètes flottantes3 , ou encore d’objets trans-neptuniens fait ainsi l’objet de programmes ambitieux. Une classe particulière de grands relevés est celle des relevés exhaustifs du ciel, c’est-à-dire de toute la sphère céleste, dans un certain domaine de longueur d’onde. Cette classe a vu ses premières tentatives dans le domaine visible à la fin du xixe siècle avec l’entreprise – qui n’a malheureusement pas abouti totalement – de la Carte du ciel 4 qui visait la cartographie du ciel des deux hémisphère sous la forme de 22 000 plaques photographiques. Cette entreprise fut reprise, avec plus de succès, au début de la seconde moitié du xxe siècle avec le Palomar Optical Sky Survey (poss) qui, réalisé avec le télescope à très grand champ inventé par Bernhardt Schmidt, fut particulièrement efficace. Il fut ensuite complété par des relevés équivalents faits dans l’hémisphère Sud depuis l’Australie et le Chili. Un peu plus tard, la radio-astronomie emboîta le pas – par exemple, citons le relevé pmn (Parkes-mit-nrao) –, ainsi que l’astronomie infrarouge avec le satellite iras (1983) qui cartographia le ciel infrarouge lointain. Le domaine des hautes énergies ne fut pas en reste – relevés par le satellite rosat (1992) en X par exemple – et, en 2007, il n’est guère de domaine de longueur d’onde qui n’offre pas une cartographie entière du ciel. Les relevés astrométriques sont également de grande importance, avec le grand relevé stellaire astrométrique qu’a réalisé le satellite Hipparcos (1989) et le relevé encore bien plus impressionnant – un milliard d’étoiles – que gaia, son successeur, devrait entamer en 2012 (cf. Chap. 4). Du point de vue de l’analyse qu’on peut en faire à partir des données qu’il produit, un grand relevé se caractérise par plusieurs paramètres dont les principaux sont le champ couvert, la sensibilité (ou profondeur), la complétude, la confusion. Champ : c’est la surface couverte par le grand relevé. Certains relevés couvrent tout le ciel, ou seulement un des deux hémisphères. Être étendu est la condition pour ne pas être dominé par des effets de concentrations ou de rareté. Le terme de variance cosmique est généralement utilisé en cosmologie observationnelle pour qualifier cette cause d’incertitude. Sensibilité ou profondeur : c’est la magnitude, ou le flux, des objets les plus faibles détectés sans ambiguïté ; souvent il s’agit d’un critère du type flux > nσ où σ est l’incertitude sur la mesure de flux. La profondeur atteinte dépend en général directement de la durée de la pose sur une direction donnée. Être profond est la condition pour atteindre une statistique fiable des objets particulièrement lointains ou intrinsèquement peu lumineux. En fonction des objectifs recherchés, un compromis entre sensibilité et champ est toujours 3 On appelle ainsi des objets, de type planétaire, dont la masse est inférieure à celle des naines brunes, soit environ 13 M , mais qui ne seraient pas en orbite autour d’une étoile. 4 La Carte du ciel fut une remarquable opération internationale entre astronomes du monde entier. Elle fut engagée par une conférence internationale réunie à Paris en 1887, laquelle répartit le travail entre 18 observatoires, tous équipés du même modèle de lunette construite par les frères Henry, à l’Observatoire de Paris. La tâche se poursuivit pendant trois quarts de siècle, et les archives photographiques de cette entreprise ont aujourd’hui une inestimable valeur scientifique.
624
L’observation en astrophysique
recherché, le temps total alloué à un programme devant rester dans des limites raisonnables de mois ou d’années. Complétude : c’est une notion qui est très liée à la précédente ; elle est définie comme la magnitude apparente (ou le flux) au-delà (en deçà) de laquelle seule une fraction (en général 50 % ) des objets étudiés est effectivement détectée. Une méthode classique pour déterminer cette limite de complétude est d’introduire des données simulées de façon réaliste au sein des données réelles et d’en déterminer la fraction effectivement détectée par l’algorithme. Un relevé peut être complet, cela signifie que pratiquement aucun membre de la classe d’objet recherchée n’a été omis. Confusion : si plusieurs sources sont situées dans l’élément de résolution spatiale de l’instrument d’observation, alors les comptages obtenus sont incorrects parce que la position et le flux apparents des sources sont modifiés par le mélange avec des sources, généralement plus faibles. C’est ce qu’on appelle la confusion de sources, et l’erreur de mesure résultante est désignée sous le terme de bruit de confusion. Ce problème apparut d’abord en radioastronomie, où le lobe des antennes est important. Le domaine infrarouge peut également être sensible à cette limite, dès lors que la sensibilité devient importante tandis que la résolution angulaire demeure modeste : c’est le cas exemplaire des observatoires spatiaux infrarouges comme iras (1983), iso (1995) ou Spitzer (2003) dont les télescopes, de diamètre inférieur au mètre, offrent une résolution angulaire comprise entre quelques secondes et la minute d’angle, tandis que la sensibilité atteinte est excellente en raison de l’absence de fond thermique dans l’espace (cf. Fig. 10.1, cahier couleur).
10.2
Les grands relevés
Un âge d’or des grands relevés aura sûrement été celui des années 19802005 : elles ont vu une série de tels programmes apporter des bouleversements, en particulier en cosmologie qui jusque-là se cantonnait pour l’essentiel à des développements théoriques, faute de données observationnelles suffisantes. Cet âge d’or devrait se prolonger pendant la décennie 2005-2015 avec des projets de plus en plus ambitieux. Sans être exhaustif, on citera ainsi les grands relevés photométriques, spectroscopiques et ceux du fond cosmique microonde, présentés dans le tableau 10.1. La liste est impressionnante, mais elle est à la mesure des résultats spectaculaires en cosmologie, qui ont marqué les années 1995-2005 : mise en évidence de l’accélération de l’expansion de l’univers et de l’énergie noire associée, confirmation de l’inflation, confirmation d’un univers plat, mesures de la plupart des paramètres cosmologiques avec une précision qui ne cesse de croître, mise en évidence de la matière noire, etc. Les grands relevés utilisent généralement des moyens dédiés, soit sous forme d’un instrument spécialisé au foyer d’un télescope généraliste ou en-
10. Grands relevés et observatoires virtuels
625
Tab. 10.1 – Quelques grands relevés disponibles ou en cours (2007). Nom
Moyen
λ
Champ couvert
Relevés photométriques apm
machine à mesurer
visible
Hémisphère Sud
sdss
caméra (sol)
visible
10 000 deg2
cfht-Legacy
caméra (sol)
visible
410 +170 + 4 deg2
iras
satellite (1983)
12, 25, 60, 100 μm
Ciel complet
2mass
caméra (sol)
proche infrarouge
Ciel complet
denis
caméra (sol)
proche infrarouge
Ciel complet
Einstein
satellite (1979)
X
Ciel complet
xmm
satellite (1999)
X
5 deg2
CfA2
sol
Vis
17 000 deg2
deep2
sol
Vis
3.5 deg2
sdss
sol
Vis
10 000 deg2
vvds-wide
sol
Vis
16 deg2
vvds-deep
sol
Vis
1.5 deg2
zcosmos
sol
Vis
1.7 + 1.0 deg2
Relevés spectroscopiques
Relevés de mesure du fond cosmique micro-onde cobe
satellite (1989)
1.25 μm - 5 mm
Ciel complet
boomerang
ballon
25-412 GHz
Hémisphère Sud
wmap
satellite (2001)
22-90 GHz
Ciel complet
planck
satellite (2008)
30-857 GHz
Ciel complet
core un système télescope / instrument entièrement consacré au but visé. Dans ce dernier cas, il peut s’agir d’un satellite.
10.2.1
Les relevés aux longueurs d’onde du visible
Grands relevés Schmidt et leur numérisation Pour être efficace, un grand relevé doit être capable d’accéder d’un coup à un grand champ, tout en ayant une résolution angulaire importante. Dans le domaine optique, la plaque photographique de grande dimension, installée au foyer de télescopes de Schmidt, aura été de ce point de vue un outil remarquablement adapté pendant plusieurs décennies. Les relevés, réalisés avec ces instruments entre les années 1950 et 2000, présentent toutefois un rendement quantique médiocre qui les cantonne à une magnitude limite comprise entre 19 et 21, suivant la couleur, et une mauvaise qualité de la photométrie à cause de la non-linéarité de l’émulsion photographique. En dépit de ces limites et de leur ancienneté, ces relevés sont encore les seuls à rendre accessible le ciel complet à des résolutions de l’ordre de quelques secondes d’angle, ce qui leurs confère un intérêt réel. Leur inconvénient majeur, qui était de ne pas fournir directement une information numérique appropriée à l’archivage et au
626
L’observation en astrophysique
traitement de masse, n’est plus réel grâce à la numérisation systématique des plaques. Les trois grands relevés Schmidt ont été : – serc/aao (Télescope de Siding Spring, Australie) pour l’hémisphère Sud (δ < 0 deg). Les deux séries de plaques réalisées sont dénommées J (bleu) et I, de 1974 à 1987, et R de 1990 à 2000. – possi/possii (Palomar Schmidt Telescope) : E (rouge) et O (bleu) pour δ > −20 deg, de 1950 à 1958. J (bleu), F (rouge), N (bande I) pour δ > 0 deg, de 1987 à 2000. – eso : R (rouge) pour δ < −20 deg de 1978 à 1990.
Le champ d’une plaque du poss est en général de 5 deg × 5 deg avec une résolution moyenne de 3 seconde d’angle. Ces relevés ont été distribués dans les observatoires du monde entier sous forme de copies sur papier photographique de grande taille, occupant des dizaines de mètres de rayonnage et accompagnés en général de feuilles transparentes superposables, contenant des informations multilongueur d’onde sur les sources identifiées. L’exploitation moderne de ces grands relevés, réalisés par les télescopes de Schmidt, n’a été rendue possible que grâce à la numérisation des plaques photos. Elle s’est faite à l’aide de machines spécialisées qui, en explorant avec une grande précision mécanique la plaque point par point, ont permis d’en traduire ses niveaux de gris en pixels numérisés : – L’aps (Automatic Plate Scanner ) de l’université du Minnesota a produit les numérisations des plaques possi E et O. Le catalogue comporte 200 millions d’objets (Nord) de première époque ainsi qu’un catalogue de galaxies. Tous les objets répertoriés correspondent à des doubles détections en deux couleurs. – Le pmm ou Proper Motion Machine est mis en œuvre par l’us Naval Observatory (Washington, États-Unis). Les mesures du Ppossi et du possii, de l’aao-J, du serc et de l’eso ont permis la production du catalogue usno qui comporte 520 millions d’objets. Deux magnitudes grossières (R et B) sont données pour ces objets. C’est un catalogue de référence pour l’astrométrie. – L’apm est l’Astronomic plate machine située à Cambridge (UK). Cette machine a numérisé les plaques de l’aao-R, du serc-J et celles du possi. Un catalogue de galaxies, bien connu des cosmologistes, a d’abord été obtenu. En 2007, deux catalogues complets des hémisphères Nord et Sud sont disponibles. – En France, la mama est une machine à mesurer de grande précision, installée à l’Observatoire de Paris, dont l’utilisation a été orientée vers des programmes spécifiques plutôt que vers la couverture exhaustive de grand relevés.
10. Grands relevés et observatoires virtuels
627
Grands relevés ccd L’avènement des détecteurs ccd (cf. Chap. 7) vers 1980 a fini par détrôner la plaque photographique, mais ce n’est qu’au cours de la décennie 1990 que les relevés ont pu les utiliser avec une efficacité réelle. Il fallait pouvoir assembler en mosaïques de très grande surface des capteurs ccd spécifiquement développés – possédant une surface sensible sans perte sur les bords et une connectique renvoyée en face arrière pour laisser les côtés libres – et mettre au point les techniques de juxtaposition précise (on parle d’aboutage). Le record est actuellement détenu par la caméra megacam (Fig. 10.2, cahier couleur), développée par le Service d’astrophysique du cea (France), qui réussit le pari de faire fonctionner simultanément et à basse température, une juxtaposition de 40 capteurs ccd de 4 612 × 2 048 pixels chacun, fabriqués par la société britannique eev. Cette caméra est installée au foyer primaire du télescope cfht (Hawaii) derrière un réducteur focal dédié, constitué d’une combinaison sophistiquée de lentilles de très grand diamètre et d’une lame mobile de stabilisation d’image. Une excellente qualité d’image est effectivement atteinte sur la quasi-totalité de l’impressionnant champ de vue de 1 deg × 1 deg. Relevés photométriques profonds à grand champ. Ils permettent de sonder des volumes qui dépassent la taille caractéristique des grandes structures de l’univers (≈ 60 Mpc), aussi les mesures sont-elles peu affectées par la variance cosmique. La mesure de la fonction de corrélation angulaire est une des utilisations classiques de ces relevés. Ils permettent également de sélectionner des sous-échantillons d’objets rares dans l’univers. À titre d’illustration, citons l’évolution des moyens d’observation et des performances correspondantes des relevés grand champ profonds effectués à l’aide du télescope cfht (Hawaii). – Le premier relevé, le Canada-France Deep Field (cfdf), a été effectué entre 1996 et 1997 grâce à la caméra uh8k, une mosaïque de 8 ccd dont le champ de vue était de 29 × 29 . Ce relevé couvre 1 deg2 et compte plus de 100 000 objets, jusqu’à la limite de détection IAB = 25.5. – La mise en service de la caméra cfh12k, une mosaïque de 12 ccd avec un champ de vue de 42 × 28 , a ensuite permis, entre 1999 et 2000, le relevé vimos vlt Deep Survey (vvds) qui couvre 16 deg2 avec une profondeur IAB = 24.8. – Depuis 2004, la caméra megacam permet la réalisation de relevés avec un champ de vue encore plus important. Le cfht Legacy Survey (cfht-ls) est un relevé sur plusieurs années, non achevé en 2007, dont l’objectif est d’imager 170 deg2 du ciel (composante Wide) dans 5 couleurs (u*, g’, r’, i’, z’) , jusqu’à la magnitude IAB = 25.5 et 4 deg2 (composante Deep) jusqu’à la magnitude IAB = 28.3. Le Ccfht-ls comporte également une composante
628
L’observation en astrophysique très étendue (Very Wide) dans le plan écliptique pour la recherche d’objets trans-neptuniens.
Parmi les grands relevés faisant date, il faut également citer le Sloan Digital Sky Survey, mené à l’observatoire d’Apache Point (New Mexico, États-Unis) depuis 1998. Ce relevé ccd, qui couvre un quart du ciel Nord autour du pôle galactique (10 000 deg2 ) et une partie du plan galactique, comporte 5 couleurs5 (u’, g’, r’, i’, z’) et atteint la magnitude 23 en r’. Un télescope dédié de 2.5 m a été conçu pour acquérir des images de 3 × 3 deg2 , en utilisant une mosaïque de 5 × 6 ccd 2 048 × 2 048, fonctionnant en mode de balayage continu. Le volume de l’ensemble des données brutes excédera 40 Tbytes. Un sous-ensemble d’environ 1 TB comportera 1 million de spectres, ainsi que des positions et imagettes dans chaque couleur pour plus de 100 millions d’objets. Relevés photométriques ultra-profonds. Le télescope spatial Hubble (hst) est équipé depuis 2002 de la caméra optique acs (Advanced Camera for Surveys) qui peut faire l’image de champs de vue de 202 × 202 ( )2 avec une taille de pixel de 0.049 . Avant la panne qui l’a rendue inutilisable au début 2007, c’était un remarquable outil pour observer les objets les plus faibles, grâce au contraste et à la résolution inégalés des images. Deux relevés photométriques profonds ont été particulièrement spectaculaires : il s’agit des Hubble Deep Field North et South (hdf-n et hdf-s) ; des objets jusqu’à des magnitudes IAB = 27.6 ont pu être détectés, le champ de vue demeurant toutefois limité à 4 de côté. Le nombre d’objets observés n’atteint ainsi qu’un total de 2 500 galaxies sur ces deux champs. La résolution angulaire des images obtenues avec le hst était unique pour l’étude de la morphologie des galaxies à des décalages spectraux z > 1, jusqu’à l’arrivée vers 2005 des premiers sondages en infrarouge proche utilisant l’optique adaptative, lesquels sont en passe de modifier cette situation. Grands relevés spectroscopiques C’est particulièrement en cosmologie observationnelle que les grands relevés spectroscopiques sont conçus comme des compléments indispensables des grands relevés d’imagerie : ils permettent en effet d’accéder à la troisième dimension, la distance, grâce à la mesure du décalage spectral vers le rouge des galaxies en récession. On notera que les relevés photométriques multicouleur contiennent une information qui peut être assimilée à un spectre à basse résolution et être utilisée pour estimer la distance des galaxies par la méthode des décalages photométriques vers le rouge. Pour atteindre une précision suffisante dans la mesure de z, il est nécessaire de couvrir le plus grand domaine spectral possible avec un grand nombre de filtres à bandes passantes étroites. 5 Ces filtres sont ceux du système photométrique usno (US Naval Observatory 40-in telescope).
10. Grands relevés et observatoires virtuels
629
Le relevé combo-17 est ainsi un relevé profond, avec une imagerie sur 0.78 degrés2 , réalisée avec la caméra wfi (Wide Field Imager ), équipant le télescope mpg/eso de 2.2 m à La Silla au Chili. Les images sont obtenues dans 17 bandes optiques, dont 12 filtres étroits, qui couvrent un domaine spectral entre 300 et 900 nm. L’échantillon de combo-17 compte 25 000 décalages spectraux photométriques.
Par rapport à l’utilisation des décalages spectroscopiques, la mesure est moins robuste et moins précise – on estime que l’erreur est 10 fois plus élevée –, aussi les relevés spectroscopiques proprement dits ont-ils été proposés assez rapidement. Comme il n’est pas envisageable de mesurer de façon efficace ce décalage, galaxie après galaxie, même à la faible résolution spectrale requise, des méthodes de spectroscopie multi-objets ont fleuri, avec essentiellement deux grandes familles qui se partagent ce mode : celle des spectrographes multifentes et celle des spectrographes à fibres optiques en mode méduse (cf. § 8.3). Dans l’univers proche (z < 0.1), deux très grands relevés spectroscopiques ont permis d’acquérir un nombre de données considérable depuis 2001. • Le Two deg Field Galaxy Redshift Survey (2dfgrs). Il s’agit d’un projet anglo-australien, réalisé au télescope de 3.9 m (Anglo-Australian Observatory). Il utilise le spectrographe multi-objets Two deg Field (2dF). 400 fibres optiques sont disposées automatiquement par un robot et permettent de mesurer les objets ciblés (cf. Chap. 8). Les objets sont sélectionnés automatiquement à partir des plaques photographiques digitalisées de l’apm Galaxy Survey. Ce relevé couvre 2 000 deg2 et compte au final 230 000 mesures de z sur autant de galaxies. • Le Sloan Digital Sky Survey (sdss). Outre sa caméra (voir ci-dessus), le sdss possède un spectrographe multi-objets à fibres optiques, capable d’acquérir 640 spectres simultanément. L’objectif de ce relevé, en cours (2007), est d’obtenir les spectres d’un million de galaxies. À des décalages spectraux z supérieurs à 0.3, il n’existe pas encore d’échantillon spectroscopique équivalent en taille à ceux des relevés 2dfgrs ou sdss. Pour illustrer la difficulté de la tâche à accomplir à grand z, on notera que le flux observé d’une galaxie à z = 4 est 6 000 fois plus faible que celui de la même galaxie située à z = 0.1. Le compromis entre la taille du champ observé, la profondeur des observations et la fraction d’objets ciblés conduit en général à une sélection des sources purement établie sur une limite en magnitude apparente. Les relevés réalisées entre 1994 et 2000 l’ont été avec des télescopes de la classe des 4 m et des spectrographes multi-objets dotés d’un gain multiplex compris entre 50 et 70. L’échantillon spectroscopique le plus large compte 2 000 galaxies jusqu’à la magnitude R < 21.5 pour le cnoc2 Galaxy Redshift Survey, ce qui est 100 fois inférieur à la taille des échantillons réalisés dans l’univers proche. Le Canada-France Redshift Survey (cfrs) a réalisé des analyses statistiques jusqu’à z = 1.3, grâce à une sélection d’objets faibles.
630
L’observation en astrophysique
Les résultats établis par le cfrs sont spectaculaires, mais l’échantillon contient moins de 250 galaxies dans chaque tranche d’âge. Les télescopes de la classe des 8 m ont permis de réaliser des relevés nettement plus profonds. Le relevé spectroscopique du K20 a été réalisé au vlt (Very Large Telescope, Chili) avec les spectrographes fors1 et fors2, de gain multiplex 19 et 52 respectivement. Ce relevé a permis de mesurer le décalage z de 550 objets. Mais c’est la combinaison de spectrographes multi-objets (mos) à très haut gain multiplex et l’utilisation intensive des télescopes de 8 m qui, en 2007, permet la réalisation de relevés spectroscopiques contenant au final plusieurs dizaines de milliers de galaxies jusqu’à des valeurs z ≈ 6. Deux tels grands relevés spectroscopiques profonds sont en cours de réalisation en 2007 : les relevés deep2 et vimos-vlt Deep Survey (vvds). Le projet deep2 est réalisé avec le spectrographe deimos au télescope Keck II. Le spectrographe deimos est un mos à fentes, qui permet d’obtenir 75 spectres simultanément avec une résolution spectrale R = 4 000. deep2 doit mesurer le spectre de 65 000 galaxies à z > 0.7. Le projet vvds est en cours de réalisation (2007) au vlt avec le spectrographe VIsible Multi-Object Spectrograph (vimos). Ce spectrographe permet d’observer jusqu’à 1 000 spectres simultanément en basse résolution (R = 200). L’objectif est l’acquisition de 150 000 décalages de galaxies, jusqu’à z = 6. Le champ du vlt, de 30 , est scindé en quatre sous-champs, chacun imagé spectralement au travers d’un masque à fentes et d’un grism sur une mosaïque de ccd. Chaque masque est une mince feuille d’aluminium dans laquelle un laser de puissance a découpé de fines fentes. L’analyse spectrale simultanée de 1 000 objets peut être ainsi menée au moyen de cet instrument.
10.2.2
Les relevés dans l’infrarouge
C’est dans l’espace que le premier grand relevé infrarouge digne de ce nom a été réalisé : il s’agit de la couverture quasi complète du ciel par le satellite iras (1983) dans quatre bandes : 12, 25, 60 et 100 μm, à une résolution de 1 minute d’angle environ. Un balayage continu du ciel était assuré par le satellite placé sur une orbite polaire maintenue perpendiculaire à la direction du Soleil, le télescope pointant suivant la verticale locale. C’est au refroidissement de toute l’expérience, télescope et détecteurs, qu’on doit l’excellente sensibilité atteinte. Trois opérations de retraitement complet des données ont permis, au cours d’une quinzaine d’années, d’améliorer très largement la qualité du produit final. Ce n’est qu’avec l’arrivée de matrices de détecteurs de dimension appréciable (2562 pixels) que des relevés en infrarouge proche, depuis le sol, ont pu être envisagés au début des années 1990. 2mass et denis ont été les deux principaux programmes de cette nature (cf. Tab. 10.1).
10. Grands relevés et observatoires virtuels
631
– 2mass (2 μm All Sky Survey). Il s’agit d’un relevé de tout le ciel dans les bandes photométriques J, H, et K du proche infrarouge, réalisé avec deux télescopes construits spécialement et placés chacun dans un hémisphère. Les magnitudes limites atteintes sont respectivement de 17, 16.4 et 15.6. – denis (Deep Near Infrared Southern Sky Survey) est un relevé européen du ciel austral dans les bandes I, J et K atteignant les magnitudes limites respectives : 18.5, 16.5 et 14. Le relevé a été mené entre 1997 et 2003 depuis le télescope généraliste de 1 m de l’eso (La Silla, Chili) qui lui avait été affecté à temps plein. Le relevé est disponible sous forme d’images et d’un catalogue de sources ponctuelles, complété par un catalogue spécifique pour les Nuages de Magellan.
10.3
Un observatoire virtuel
Au début du XXIe siècle, le souhait est apparu de pouvoir mettre à profit cette extraordinaire richesse des relevés et confronter simultanément toutes les informations multilongueur d’onde sur une région ou un objet et en extraire une plus-value astrophysique unique. C’est désormais à la portée de n’importe quel chercheur dans le monde entier : depuis son ordinateur, il peut, grâce à un ensemble d’outils standardisés, accéder à plusieurs de ces bases de données et en superposer de façon homogène les informations sous forme de cartes. C’est la notion d’observatoire virtuel dont le développement est devenu une priorité dans de nombreux pays et qui fait l’objet d’une coordination au niveau mondial. Des centaines de terabits (1012 bits) de données d’observation, correspondant à plusieurs milliers de milliards de pixels sont produits par les observatoires au sol ou dans l’espace, à un débit qui va s’accélérant chaque année. Ces informations, stockées sous forme numérique dans d’immenses banques de données sont bien sûr exploitées par les chercheurs qui ont été responsables de leur production, mais souvent pour n’en extraire qu’une information très ciblée, alors que la richesse de ces bases permettrait à d’autres chercheurs d’y trouver une masse d’autres informations, sur d’autres objets par exemple, méritant tout aussi bien l’analyse. Mettre à disposition ces données au bénéfice d’une communauté vaste éviterait en particulier de dupliquer des nuits d’observation coûteuses. Les observatoires et les agences spatiales ont bien perçu cet enjeu et la plupart offrent aujourd’hui ce service à la communauté des chercheurs, en donnant un accès libre à leurs archives au bout d’une période généralement courte, d’un à deux ans, durant laquelle une exclusivité d’accès est réservée aux promoteurs des observations. Le besoin désormais affiché est de franchir un nouveau pas en offrant la possibilité de reconstruire le ciel d’une façon virtuelle, à toutes les longueurs d’onde. L’accès en ligne à des bases disséminées dans les observatoires du monde entier, d’une façon conviviale et directement exploitable
632
L’observation en astrophysique
scientifiquement, demande les moyens des nouvelles technologies de l’information et des outils de recherche et d’analyse, rapides et simples d’emploi. L’objectif du projet européen Astrophysical Virtual Observatory (avo), né en 2001, est bel et bien de donner ces moyens aux chercheurs. Soutenu par la Commission européenne, ce projet est conduit par l’eso avec plusieurs partenaires européens. Le pendant américain de l’avo, également né en 2001 est le US National Virtual Observatory (nvo)6 . Parmi les acteurs de l’avo, on peut mentionner deux centres français qui sont exemplaires par leurs fonctions respectives dans le schéma de l’avo. Il s’agit d’une part du Centre de données astronomiques de Strasbourg (cds) (cnrs - université Louis Pasteur) dont la spécialité est l’archivage et d’autre part du centre de données terapix (Traitement Elémentaire, Analyse et Réduction des PIXels) de l’Institut d’Astrophysique de Paris (cnrs - université Paris 6) qui se situe en amont, en traitant de façon automatisée les immenses masses de données qui proviennent des grands relevés. Depuis de nombreuses années, le cds est un centre de référence qui collecte, identifie et archive les données sur les objets astronomiques et la bibliographie. Interrogeable en ligne, sa banque de données Simbad est unique au niveau mondial. Le cds a également été un pionnier en matière d’Observatoire Virtuel avec la mise au point de l’outil Aladin, qui permet d’ores et déjà de visualiser et superposer sur son ordinateur les images des principaux grands relevés d’imagerie, d’identifier les sources cataloguées et d’en afficher les données photométriques et astrométriques correspondantes (voir un exemple sur la figure 10.3). Le centre terapix a été créé pour exploiter les données qui sont fournies par les caméras ccd Megacam (domaine visible) et Wircam (domaine infrarouge) installées au foyer du télescope de 3.6 m de diamètre Canada-France-Hawaii. C’est en particulier le très ambitieux relevé du cfht Legacy Survey qui mobilise une très large fraction des moyens de ce centre. Depuis, ses missions se sont élargies et terapix traite des données provenant d’autres très grands relevés.
6 www.us-vo.org/about.cfm.
10. Grands relevés et observatoires virtuels
633
Fig. 10.3 – Panneau supérieur : un exemple des possibilités du logiciel Aladin du cds qui permet de confronter des images issues de grands relevés (ici iras 100 μm à gauche et poss visible à droite) et de superposer à partir de catalogues (ici 2-mass) l’identification d’objets et la photométrie : les mesures apparaissent dans le bandeau inférieur. Panneau inférieur : l’interface utilisateur qui permet de sélectionner les bases de données d’images ou de catalogues.
This page intentionally left blank
Appendice I La transformation de Fourier Avertissement : Les appendices I et II sont donnés pour faciliter la compréhension des notions introduites en particulier aux chapitres 6, 7 et 9, et pour unifier les notations utilisées dans tout l’ouvrage. Écrits avec un certain souci de rigueur, on n’y cherchera pas néanmoins des démonstrations mathématiques ni un formalisme parfait. Les exemples sont choisis pour rester proches des applications présentées dans le corps de l’ouvrage.
I.1 I.1.1
Définitions et propriétés Définitions
Soit une fonction f (x), où x ∈ R. La transformée de Fourier (notée TF pour abréger) de f (x) est la fonction f˜(s), où s ∈ R. +∞ f˜(s) = f (x) e−2jπsx dx. -∞ Les fonctions f et f˜ sont dites former une paire de Fourier, et on écrira encore : f˜ f
ou f˜ = TF[f ].
La fonction f˜(s) existe si la fonction f (x) est bornée, sommable et possède un nombre fini de maxima, minima et discontinuités. Ceci n’entraîne pas nécessairement que la transformée de f˜ soit f . Pour que la transformation de Fourier soit réciproque, +∞ f (x) = f˜(x) e2jπsx ds, −∞
il suffit que f soit de carré sommable, c’est-à-dire qu’existe l’intégrale : +∞ 2 |f (x)| dx. −∞
636
L’observation en astrophysique
La définition de la TF peut être étendue aux distributions. La TF d’une distribution n’est pas nécessairement de carré sommable. Les fonctions f et f˜ peuvent être réelles ou complexes. Généralisation Il est possible de généraliser la TF à plusieurs dimensions, en définissant f sur l’espace Rn . Soit r, w ∈ Rn , alors :
+∞
f˜(w) =
f (r) e−2jπr.w dr.
−∞
Interprétation simple Si f (t) désigne une fonction du temps, f˜(s) représente son contenu en fréquences temporelles. De même, si f (r) est défini sur R2 , représentant un espace à deux dimensions, la fonction f˜(w), où w ∈ R2 , représente le contenu en fréquences spatiales de f (r).
I.1.2
Quelques propriétés
Linéarité
TF [af ] = a TF [f ] a ∈ R, a constante. TF [f + g] = TF [f ] + TF [g]. Symétrie et parité Les considérations de symétrie sont précieuses dans l’étude de la TF. Soit P (x) et Q(x), les parties paires et impaires de f (x) : f (x) = P (x) + Q(x). Ceci entraîne
∞
˜ =2 f(s) 0
P (x) cos(2 πxs) dx − 2j
∞
Q (x) sin(2 πxs) dx. 0
On a également la relation triviale : ˜ f (0) = −∞+∞ f (x)dx, qui indique que le moment d’ordre 0 correspond à la fréquence nulle.
I. La transformation de Fourier
637
De ce résultat, on déduit le tableau suivant : Tab. I.1 – Symétrie des paires de Fourier. f (x)
f˜
réelle et paire
réelle et paire
réelle et impaire
imaginaire et impaire
imaginaire et paire
imaginaire et paire
complexe et paire
complexe et paire
complexe et impaire
complexe et impaire
réelle quelconque
partie réelle paire partie imaginaire impaire
imaginaire quelconque
partie imaginaire paire partie réelle impaire
La figure I.1 donne une représentation commode de la transformée f˜(s).
Fig. I.1 – Représentation de la transformée de Fourier f˜(s) d’une fonction réelle quelconque f (x) : parties réelles et imaginaires de f˜(s).
Similitude La relation de similitude s’écrit : 1 ˜ $s% f f (ax)
|a| a
a ∈ R, a constante.
La dilatation d’une fonction entraîne une contraction de sa transformée. Cette propriété très « visuelle » est utile pour comprendre qu’une fonction, dont le support est très compact, a une transformée très étalée : en analyse de fréquences temporelles, on énoncera qu’une impulsion de courte durée possède un spectre en fréquences très large, c’est-à-dire contient des fréquences d’autant plus élevées que l’impulsion est brève. C’est la relation classique du spectre d’un paquet d’ondes, selon laquelle la connaissance des propriétés d’un signal ne peut être arbitrairement précise à la fois en temps et en fréquence.
638
L’observation en astrophysique
Translation La relation de translation s’écrit : f (x − a) e−2jπas f˜(s). Une translation dans un espace est une rotation de phase dans l’espace transformé. Dérivation Les relations suivantes découlent directement de la définition d’une paire de Fourier : df (x)
(2 πjs)f˜(s) dx
I.1.3
dn f (x)
(2 πjs)n f˜(s). dxn
Cas particuliers importants : une dimension
Fonction porte
A La fonction porte, dénotée (x), est définie par : @ 1 1 x∈R − , + (x) = 1, 2 2 @ 1 1 (x) = 0, x ∈ R −∞, − , , +∞ 2 2
et représentée à la figure I.2. On a également la porte de largeur a : ⎧ a a ⎨= 1 x ∈ − , $x% ⎪ 2 2 Π . a ⎪ ⎩= 0 x ∈ −∞, − a , a , +∞ 2 2 A La TF de la fonction porte (x) s’écrit (sinus cardinal) : sinc s =
sin πs
Π(x), πs
et en appliquant la relation de similitude : $x% Π
| a | sinc (as). a La fonction porte est parfois aussi dénommée fonction fenêtre ou simplement fenêtre.
I. La transformation de Fourier
639
Fig. I.2 – La fonction porte et sa transformée, le sinus cardinal. Distribution de Dirac La distribution de Dirac, également appelée pic de Dirac, est notée δ(x). Elle est définie par l’intégrale suivante, qui n’existe qu’au sens des distributions : +∞ δ(x) = e2jπsx ds. −∞
Sa transformée de Fourier est donc 1 sur ]–∞, +∞[. Peigne de Dirac Cette distribution est formée de la répétition périodique infinie de distri(x) et dénommée également Shah (d’après butions de Dirac. Elle est notée le caractère cyrillique III) : (x) =
+∞
δ(x − n).
n=−∞
Cette distribution présente la propriété remarquable d’être identique à sa TF : (x)
(s).
Elle est encore appelée fonction d’échantillonnage à cause de la propriété suivante, illustrée par la figure I.3 : (x)f (x) =
+∞
f (x)δ(x − n),
n=−∞
et que l’on pourrait formuler ainsi : à partir de la fonction continue f (x), l’opérateur prélève un nombre (ici infini) de valeurs discrètes de f (x), que l’on considère donc comme des échantillons 1 de f (x). 1 Le terme échantillon est pris ici dans une acception proche de celle du langage courant. Cf. aussi Appendice II et § 9.1.
640
L’observation en astrophysique
Fig. I.3 – (a) Échantillonnage d’une fonction f (x) par un peigne de Dirac : (b) Réplication d’une fonction f (x) par convolution avec un peigne de Dirac.
Elle peut également se présenter comme un opérateur de réplication (Fig. I.3b) : (x)f (x) =
+∞
f (x − n),
n=−∞
où désigne un produit de convolution (cf. infra). Le rôle de cette distribution est important dans l’étude de l’échantillonnage d’un signal, par exemple lorsqu’on le digitalise, et également dans l’étude des structures périodiques (antennes d’un interféromètre, traits d’un réseau...).
Fonctions trigonométriques N’étant pas de carré sommable, les fonctions trigonométriques ne possèdent pas de TF dans l’espace des fonctions. La TF existe néanmoins au sens des distributions (Fig. I.4) : 1 cos πx
δ s+ 2 j δ s+ sin πx
2
1 +δ s− 2 1 1 −δ s− 2 2 1 2
symétrique. antisymétrique.
I. La transformation de Fourier
641
Fig. I.4 – Transformées de Fourier des fonctions trigonométriques. (Les tiretés désignent des quantités imaginaires.)
I.1.4
Cas particuliers importants : deux dimensions
Fonction porte Cette fonction est définie sur R2 (Fig. I.5) comme constante sur un cercle de diamètre unité, nulle à l’extérieur : Π
$r% 2
C =
1 0
r<1 r ≥ 1.
Fig. I.5 – Transformée de Fourier de la fonction porte bidimensionnelle à symétrie circulaire.
La notation J1 (x) désignant la fonction de Bessel d’ordre 1, la TF de la fonction porte s’écrit : $r% J1 (2 πw) Π
· 2 w La relation de similitude impose : Π
$r % J1 (2 πaw)
a 2a w
a > 0.
642
L’observation en astrophysique
Distribution de Dirac Cette distribution est définie par : 2
e2jπr.w dw
δ(x, y) = δ(r) =
r = |r | ,
plan
et a, pour TF, la quantité 1 sur tout le plan w(u, ν).
Distribution d’échantillonnage bidimensionnelle (« planche de fakir ») Cette distribution est formée de la réplique bidimensionnelle de pics de Dirac : 2
(x, y) =
+∞
+∞
2
δ(x − m, y − n).
m=−∞ n=−∞
Elle est identique à sa transformée de Fourier :
(x, y) 2
2
(u, v).
Un tableau des paires de Fourier fréquemment utilisées Les figures I.6 et I.7 présentent respectivement, sous formes graphique et visuelle, les paires de Fourier à une ou deux dimensions dont l’usage est fréquent. On notera en particulier la fonction de Gauss à une dimension : 2
2
e−πx → e−πs , et à deux dimensions : 2
2
e−πr → e−πw , qui se conserve par TF. Le théorème de similitude conduit à :
e
−π
x 2
a
2
|a| e−π(as) .
I. La transformation de Fourier
643
644
L’observation en astrophysique
Fig. I.6 – Paires de Fourier usuelles. (D’après Bracewell R.N., The Fourier Transform and its Applications, McGraw-Hill, 1965. Avec l’aimable autorisation de McGraw-Hill Book Co.)
Fig. I.7 – Paires de Fourier usuelles à deux dimensions (d’après Bracewell R.N., ibid.). Noter le caractère imaginaire de la TF de sin(πy).
I. La transformation de Fourier
I.1.5
645
Théorèmes importants
Convolution La convolution de deux fonctions (ou distributions) est définie par l’intégrale : +∞ h(x) = f (x)g(x) = f (u) g(x − u) du. −∞
La convolution exprime une transformation linéaire appliquée à f (x), à partir d’un opérateur g(x). Cette transformation représente le comportement de nombreux systèmes physiques qui font subir à un signal d’entrée, représenté parf (x), une opération linéaire conduisant au signal de sortie h(x) (Fig. I.8).
Fig. I.8 – Convolution de deux fonctions f (u) et g(u). La transformation de Fourier agit de façon remarquable sur la convolution : f (x), g(x), h(x) = f (x)g(x) ↑↓ ↑↓ ↑↓ f˜(s), g(s), h(s) = f (s) g(s). Un produit de convolution de deux fonctions (ou distributions) est transformé en produit (multiplication) de leur TF. La convolution est commutative, associative et distributive sur l’addition. Les énoncés ci-dessus restent valables à plusieurs dimensions. Par exemple H(r) = F (r)G(r) = F (ρ) G(r − ρ)dρ. ˜ ˜ H(w) = F˜ (w) G(w). Corrélation Le produit de corrélation (ou intercorrélation) de deux fonctions réelles (ou distributions) est défini par : +∞ k(x) = f (u)g(u + x) du, −∞
646
L’observation en astrophysique
et son interprétation est aisément perceptible sur la figure I.9. Noter le changement de signe par rapport à l’opération de convolution. Il n’y a pas de notation universellement acceptée pour dénoter la corrélation ; on pourra noter : k = Cf g ou k = f ⊗ g Si f et g sont complexes, on définit le produit de corrélation par : +∞ f ∗ (u) g(u + x) du, f ⊗g = −∞
où l’astérisque * désigne la conjugaison complexe. L’autocorrélation d’une fonction (ou distribution) est évidemment : +∞ k(x) = f ∗ (u)f (u + x) du. −∞
Fig. I.9 – Le produit de corrélation k(x) = f (x) ⊗ g(x) de deux fonctions réelles, calculé pour une valeur de x, est représenté par l’aire hachurée.
Théorème de Parseval (ou de Rayleigh) Ce théorème énonce qu’il y a égalité entre la norme d’une fonction et celle de sa TF :
˜ 2 | f (x)|2 dx = f(s)
ds = f f ∗ dx = f˜f˜∗ ds, et l’on a également, dans le cas de deux fonctions (distributions), f g ∗ dx = f˜g˜∗ ds, Densité spectrale On appelle densité spectrale, ou densité spectrale de puissance de la fonction f (x) la quantité :
2
Sf (s) = f˜(s) ,
I. La transformation de Fourier
647
et on appelle généralement f˜(s) le spectre de f (x). Ces désignations sont parfois abusivement confondues : en optique ou spectroscopie, ce qui est communément appelé un spectre est en réalité une densité spectrale (cf. Chap. 5). Enfin, on désignera par spectre d’amplitude la quantité :
" 2 2 #1/2
˜
˜ ˜ ,
f (s) = e f (s) + m f (s) et par spectre de phase la quantité : arg f˜(s) = Arc tg
m f˜(s) · e f˜(s)
Ces définitions peuvent être résumées ainsi : f˜(s)
˜
f (s)
spectre spectre d’amplitude
arg f˜(s) spectre de phase
˜ 2 densité spectrale, spectre de puissance
f(s)
Théorème d’autocorrélation (Wiener-Khintchine) L’autocorrélation de f (x) a pour transformée de Fourier la densité spectrale de f (x) : f (x) ↑↓ f˜(s)
f (x) ⊗ f (x) ↑↓
˜ 2
f (s)
2
La densité spectrale f˜(s) est une quantité toujours réelle et positive ; l’information de phase de la fonction complexef (x), qui est contenue dans les parties respectivement réelles et imaginaires de f˜(s), est perdue dans l’opération d’autocorrélation. Interspectre et intercorrélation Si les fonctions (ou distributions) f (x) et g(x) ont respectivement f˜(s) et g˜(s) pour TF, l’interspectre ou, mieux encore, l’interdensité spectrale est défini par : Sf g (s) = f˜(s) g˜∗ (s), ∗ avec en général Sf g (s) = Sgf (s). On a de même la relation entre interspectre et intercorrélation TF Sf g (s) ←→ Cf g (x).
648
I.2
L’observation en astrophysique
Grandeurs physiques et transformation de Fourier
L’utilisation de la TF pour représenter des grandeurs physiques est précieuse, car elle permet d’isoler, dans un signal compliqué, des composantes simples (sinusoïdales) et donc aisément manipulables, représentables et interprétables. Il doit demeurer clair néanmoins que le passage dans l’espace de Fourier ne représente aucun ajout ou retrait à la quantité d’information présente dans la fonction de départ. Les grandeurs physiques, qu’elles soient représentées par des fonctions ou par des distributions, présentent des limitations particulières qui amènent à préciser les concepts énoncés ci-dessus. Support de f(x) La transformée de Fourier def (x) est définie sif (x) est définie sur un support ]–∞, +∞[. Une grandeur physique n’est en général connue que sur un support borné : un signal f (t), fonction par exemple, ne sera connu du temps, que sur un intervalle de temps T fini − T2 , T2 . Il est évidemment possible de prolonger la fonction f (t) hors de cet intervalle en faisant (fenêtrage) : T T f (t) = 0, t ∈ −∞, − et , +∞ , 2 2 auquel cas la TF peut être calculée et le spectre déterminé sans ambiguïté, si f (t) est connu en tout point de l’intervalle (c’est-à-dire avec un échantillonnage infiniment T T dense. Si, en revanche, f (t) est inconnue en dehors de l’intervalle − 2 , 2 , aucune information précise ne peut être donnée sur son spectre, sauf hypothèses particulières (périodicité, fonction de carré sommable...). Cette méthode de fenêtrage peut être généralisée. On peut, par exemple, adapter en permanence (s’il s’agit d’une fonction du temps) la largeur T de la fenêtre. Cette analyse de Fourier à fenêtre variable et glissante (adaptative) porte le nom d’analyse temps-fréquence. Un outil puissant est la représentation de Wigner-Ville. Fréquences négatives La fonction f˜(s) est également définie sur le support ]–∞, +∞[ ; elle fait donc appel à des fréquences négatives. Celles-ci ont-elles une interprétation physique ? Une grandeur physique est une grandeur réelle et il suffit de connaître les parties réelles et imaginaires de sa TF, f˜(s) sur le support [0, +∞[ pour pouvoir connaître f˜(s) sur ]–∞, +∞[ en complétant respectivement par symétrie et antisymétrie. La fonction f˜(s) est alors hermitique (partie réelle paire et partie imaginaire impaire). Sa transformée de Fourier f (x) est réelle. Supposons que l’on veuille effectuer une opération de filtrage
I. La transformation de Fourier
649
numérique sur f (x), ce qui revient à multiplier sa TF par une certaine fonction ˜ ˜ h(s). Il conviendra d’effectuer l’opération f˜(s) h(s) sur tout le support ]–∞, +∞[, avant de prendre la TF inverse. Ceci peut être résumé par le tableau suivant :
Puissance d’un signal Soit un signal quelconque, noté de façon générale f (x) et pouvant être complexe : il pourra s’agir, par exemple, d’un champ électrique complexe, dont l’amplitude et la phase sont fonction du temps. On appelle puissance instantanée du signal la quantité : p(x) = f (x) f ∗ (x). Lorsque la variablex est le temps t et lorsque f est un courant ou une tension, cette dénomination réfère au sens physique courant. La puissance moyenne sur un intervalle X centré sur x0 est définie par : 1 x0 +X/2 P (x0 , X) = f (x) f ∗ (x) dx. X x0 −X/2 L’intégrale de la puissance instantanée est l’énergie associée au signal : +∞ p(x) dx. −∞
Si le signal est nul en dehors de l’intervalle X, l’intégrale converge en général sans problème. Si ce n’est pas le cas, le signal peut présenter une énergie infinie, alors que sa puissance moyenne est finie. Par exemple, le signal : f (x) = cos2 (2 πx), a pour puissance moyenne :
P =
1 , 2
alors que son énergie est infinie. La puissance moyenne d’un signal f (x) à support ]–∞, +∞[ sera définie par la limite, si elle existe : 1 +X/2
P = lim f (x)f ∗ (x)dx. x→∞ X −X/2
650
L’observation en astrophysique
Bien que les termes « énergie » et « puissance » ne correspondent à une signification physique classique que pour des signaux dépendant du temps, leur emploi, conformément aux définitions ci-dessus, est tout à fait général. Spectre de puissance d’un signal Signal à énergie finie. Si f (x) est le signal, f˜(s) peut être calculée et la quantité :
2
Sf (s) = f˜(s) f˜∗ (s) = f˜(s) , déjà définie comme la densité spectrale de f (x), est également appelée spectre de puissance de f (x). En analyse dimensionnelle, Sf (s) est une énergie par intervalle de fréquence (densité spectrale énergétique) et non une puissance. La dénomination de puissance spectrale, ou densité spectrale de puissance (dsp), est néanmoins consacrée par l’usage. L’énergie totale du signal est évidemment l’intégrale, si elle existe : +∞ Sf (s) ds. −∞
Signal à énergie infinie. Dans ce cas, f˜(s) ne peut être calculée. Néanmoins, la fonction d’autocorrélation de f (x) peut exister comme : 1 X/2 Cf f (x) = lim f (u)f (x + u) du X→∞ X −X/2 et le théorème de Wiener-Khintchine donne la densité spectrale du signal f (x) : Sf (s) = TF [Cf f (x)]. Ici, au sens de l’analyse dimensionnelle et par cohérence avec les définitions précédentes, Sf (s) est une énergie, ou encore une puissance par intervalle de fréquence, et le terme de densité spectrale de puissance est approprié. Par exemple, s’agissant d’un signal sous forme de tension électrique V (t), la dsp se mesurera en V2 Hz−1 et le spectre d’amplitude en V Hz−1/2 . Interdensité spectrale, intercorrélation Les définitions et remarques qui précèdent s’appliquent également à la combinaison de deux fonctions f (x) et g(x). Par exemple, l’interdensité spectrale, dans le cas de signaux d’énergie finie, s’écrira : ˜ g˜∗ (s), Sf g (s) = f(s) et l’intercorrélation s’écrira : Cf g (x) =
+∞
f (u)g(u + x) du. −∞
I. La transformation de Fourier
651
Si les énergies sont infinies, l’intercorrélation est la limite, si elle existe, 1 X→∞ X
Cf g (x) = lim
+X/2
f (u) g(u + x) du, −X/2
et l’interdensité spectrale est définie par : Sf g (s) = TF [Cf g (x)].
I.3
La transformation en ondelettes
L’analyse de Fourier permet de décomposer un signal en fonctions périodiques à support infini ; c’est une transformation globale, qui s’applique bien à des signaux évoluant peu ou pas dans le temps, typiquement des signaux stationnaires ou quasiment stationnaires. Néanmoins, un signal physique est toujours défini sur un support borné, son émission est localement définie dans le temps et l’information importante est souvent contenue dans sa non-stationnarité (début et fin). Cette remarque, faite sur des signaux temporels, s’appliquera aussi à une image bornée dans l’espace ou à d’autres types de signaux. Le fenêtrage introduit ci-dessus apporte une réponse partielle au problème. Il permet de remplacer une définition sur un support infini par une définition du signal comprenant un nombre minimal de coefficients significatifs, en un mot de le comprimer de la façon la plus efficace. Deux méthodes spécifiques ont été développées pour représenter et analyser ce type de signaux. Il importe de les citer ici, car elles deviennent d’usage fréquent en astronomie, pour traiter des données aussi diverses que des spectres observés, des images, des émissions temporelles variables, telles que sursauts solaires, impulsions périodiques d’un pulsar, etc. Dans ces méthodes, la variable temps peut naturellement être remplacée par une coordonnée d’espace, ou plusieurs (les deux coordonnées d’une image), ou toute autre variable telle que la longueur d’onde dans un spectre. La représentation temps-fréquence prend en compte l’évolution temporelle du contenu fréquentiel d’un signal. Elle fournit la « fréquence instantanée » du signal et la dépendance temporelle de celle-ci. La transformation en ondelettes, ou représentation temps-échelle, décrit l’évolution d’un signal relativement à une échelle d’observation. Les ondelettes sont des fonctions oscillantes et localisées dans le temps, à la différence des fonctions sinusoïdales de la transformée de Fourier. Elles ont toutes même forme et ne diffèrent que par leur instant d’apparition et leur durée. Les ondelettes de durée courte et d’amplitude faible représentent donc des composantes très locales du signal, ignorées lors d’un examen de celui-ci à plus grande échelle. Ces deux méthodes sont particulièrement utiles pour les tâches de classification et d’analyse morphologique, essentielles en astronomie. Un signal
652
L’observation en astrophysique
(image d’un type de galaxie par exemple) aura ainsi une signature propre sur la transformée en ondelettes de l’image d’un champ d’amas. Il s’agit d’une concentration de l’information pertinente, à la manière dont, dans une transformée de Fourier, une fréquence particulière noyée dans un signal émerge comme un « pic » dans le spectre de celui-ci.
Appendice II Les variables et processus aléatoires Les phénomènes de bruit, associés aux fluctuations d’un système thermodynamique ou au caractère quantique des interactions, forment la limite pratique et théorique de la mesure de tout phénomène. Leur rôle important dans l’ouvrage nous amène à préciser quelques notions mathématiques essentielles (cf. avertissement de l’appendice I).
II.1
Variables aléatoires
Variable aléatoire (v.a.) Soit une épreuve donnée (par exemple, jet de dé, ou bien absorption d’un photon par effet photo-électrique) présentant un ensemble d’issues possibles ζ. A chacune de ces issues est associée une quantité x(ζ) à l’aide d’une règle définie à l’avance1 . Cette règle est également notée x(ζ), qui est une variable aléatoire. Il lui est attaché une probabilité P (ζ), probabilité d’obtenir l’issue ζ lors de l’épreuve (Fig. II.1).
Fig. II.1 – L’expérience ε formée de l’ensemble (ici discret) des issues ζ à chacune desquelles est associée la valeur x(ζ) de la variable aléatoire x. 1 Nous utilisons la notation x pour une v.a. : le lecteur prendra garde, selon le contexte, de ne pas la confondre avec la désignation du vecteur x. Un vecteur peut aussi, bien entendu, être une variable aléatoire, mais nous n’introduisons ici pas de notation spécifique à ce cas.
654
L’observation en astrophysique
On notera {x ≤ x} l’ensemble des issues telles que la variable aléatoire x prenne une valeur au plus égale à un nombre x. Cet ensemble peut soit être vide, soit comprendre une issue, plusieurs issues ou la totalité des issues. Chacun de ces cas est appelé un événement, auquel est associée une probabilité. La probabilité est une fonction positive définie sur l’ensemble des événements et satisfaisant à certaines propriétés énoncées ci-après. Une variable aléatoire réelle est définie lorsque l’ensemble {x ≤ x} est un événement quel que soit le nombre réel x. Il faut également que les probabilités des événements {x = +∞} et {x = −∞} soient nulles. Une variable aléatoire complexe est définie par un processus qui associe de même à chaque issue ζ un nombre complexe : z (ζ) = x (ζ) + jy (ζ) , tel que les fonctions x et y soient des variables aléatoires. Sauf énoncé explicite du contraire, on se limitera dans la suite à des v.a. réelles. Fonction de répartition2 Étant donné un réel x, l’ensemble {x ≤ x}, formé de toutes les issues ζ telles que x(ζ) ≤ x, est un événement. La probabilité de cet événement P {x ≤ x} est un nombre qui dépend de x, c’est donc une fonction de x, que l’on notera Fx (x), ou plus simplement F (x) s’il n’y a pas d’ambiguïté sur la v.a. sur laquelle elle porte. On a : Fx (x) = P {x ≤ x} . Cette fonction F (x) est la fonction de répartition de la v.a. x. Elle possède les propriétés suivantes : F (−∞) = 0 ;
F (+∞) = 1.
– C’est une fonction non décroissante de x : on a F (x1 ) ≤ F (x2 ) pour x1 < x2 . – F (x) est continue à droite : F (x+ ) = F (x). Densité de probabilité La dérivée de la fonction de répartition, au sens des distributions, f (x) =
dF (x) , dx
est appelée densité (ou fonction de densité, ou encore fréquence) de la v.a. x. 2 Appelée parfois par anglicisme fonction de distribution (en anglais, distribution function). Nous préférons le terme répartition pour éviter la confusion avec les distributions.
II. Les variables et processus aléatoires
655
Si F (x) est continue et dérivable partout, sauf en un nombre dénombrable de valeurs de x, la v.a. est dite continue. En attribuant arbitrairement à cet ensemble de valeurs de x (de mesure nulle) des valeurs positives à f (x), il est possible de traiter f (x) comme une fonction définie partout.
Fig. II.2 – Densité de probabilité f (x) et fonction de répartition F (x) d’une loi de Poisson (a = 3).
Si les issues sont en nombre discret, F (x) présente l’aspect « en escalier » de la figure II.2. La densité s’écrit alors : f (x) = pi δ (x − xi ) , i
comme une succession de distributions de Dirac d’amplitude pi , où pi est la probabilité d’obtenir l’issue i. On a : dF (x) |x=xi = F (xi ) − F x− δ (x − xi ) . i dx La densité de probabilité est normalisée à l’unité : +∞ f (x) dx = F (+ ∞) = 1. −∞
Espérance mathématique L’espérance mathématique associée à une fonction quelconque ϕ de la v.a. continue x, de densité f , s’écrit : +∞ φ(x) f (x) dx. E {ϕ (x)} = −∞
De même, si x est une v.a. discrète, prenant les valeurs xn avec les probabilités pn , alors : E {ϕ (x)} = ϕ (xn ) pn . n
656
L’observation en astrophysique
En physique, l’espérance mathématique est appelée moyenne d’ensemble et notée ϕ. L’espérance mathématique est, entre autres propriétés utiles, l’opérateur générateur des moments de la loi de probabilité. Moments Une loi quelconque de probabilité est entièrement décrite par sa fonction de répartition ou sa densité de probabilité, mais cette information est trop riche pour être facilement appréhendée. On introduit un nombre plus restreint de paramètres qui donnent déjà des indications essentielles : ce sont les moments de la loi. Le moment d’ordre k de la v.a. x est défini par μk = E{xk }, avec k entier positif ou nul et le moment centré par μk = E{(x − E{x})k }. On a toujours μ0 = 1. La connaissance de l’ensemble (infini) des moments d’une répartition est équivalente à la connaissance de sa fonction de répartition F (x). Moyenne. La valeur moyenne d’une v.a. continue x est : +∞ η = E {x} = xf (x) dx, −∞
où f (x) est la densité de la variable. Si x est une v.a. discrète, prenant les valeurs xn avec la probabilité pn , alors : E {x} = xn pn . n
La quantité η donne une information sur le « centrage » de la densité f (x). On peut également définir la valeur la plus probable de x, qui est la valeur x1 telle que f (x1 ) soit maximum. La médiane de x est la valeur xm telle que : P {x ≤ xm } = F (xm ) =
1 · 2
Variance. La variance est définie par le moment centré d’ordre deux : ! +∞ μ2 = E (x − η)2 = (x − η)2 f (x) dx. −∞
Cette quantité, plus communément notée σ 2 , informe sur la « concentration » de la v.a. autour de sa moyenne η. Sa racine carrée positive σ est appelée écart type ou déviation standard , abrégé rms (de l’anglais, root mean square). On a : > = > = = > σ2 = E x2 − 2 xη + η 2 = E x2 − 2 ηE {x} + η 2 = E x2 − η 2 ,
II. Les variables et processus aléatoires
657
et donc la relation importante : = > σ 2 = E x2 − (E {x})2 . Fonction caractéristique La fonction caractéristique d’une v.a. x est l’espérance mathématique de la nouvelle v.a. eiωx définie à partir de la v.a. x : = > Φ (ω) = E eiωx =
+∞
f (x) eiωx dx.
−∞
On reconnaît la transformée de Fourier de f (x) : TF
Φ(ω) f (x). De même, si x est une v.a. discrète, Φ (ω) =
eiωxk P {x = xk } .
k
Quelques variables aléatoires importantes On démontre que, si l’on se donne une fonction G(x) telle que : G (−∞) = 0 G (+∞) = 1, G(x1 ) ≤ G(x2 )
lim G(x) = 1,
x→∞
si x1 < x2 ,
G(x+ ) = G(x). il est possible de trouver une épreuve et une v.a. définie sur cette épreuve, telle que sa fonction de répartition F (x) soit égale à G(x). Les fonctions ci-dessous définiront donc des v.a. au sens précis du terme. Elles fournissent par ailleurs une bonne approximation du comportement aléatoire de certaines grandeurs physiques. Loi normale ou de Gauss ou gaussienne. La densité de probabilité de la loi normale est donnée par : 2 1 (x − η) f (x) = √ = N x ; η, σ2 . exp − 2 2σ σ 2π C’est une loi à deux paramètres η (position) et σ (échelle).
658
L’observation en astrophysique Sa fonction de répartition est :
x f (u) du = 0.5 + erf
F (x) = −∞
x−η σ
,
ou erf(x) désigne la fonction d’erreur, qui est tabulée ou programmable. Le paramètre η est la moyenne, le paramètre σ 2 la variance de la loi. Les moments centrés impairs sont nuls et les moments pairs donnés par : μ2r =
(2r)! 2r σ . 2r r!
On vérifie que les deux paramètres η et σ spécifient complètement la loi normale. La largeur à mi-hauteur (en anglais, Full Width Half Maximum ou fwhm) est donnée par : √ fwhm = 2σ 2 ln 2 ≈ 2.3548 σ La v.a. y = x−η σ est une v.a. normale de moyenne nulle et de variance unité. Elle est appelée v.a. normale réduite. Nous verrons plus loin qu’un grand nombre de phénomènes physiques satisfont à la loi normale. Il est utile de pouvoir quantifier la probabilité que la v.a. réduite se trouve avec une probabilité peu différente de 1 dans l’intervalle [−Q, +Q] :
"
#
x − η
P
< Q = 1 − α. σ
On convient également du terme intervalle de confiance au niveau (1 − α). Le tableau II.1 en donne les valeurs pour différentes valeurs de α. Tab. II.1 – Intervalles de confiance de la loi normale. (1 – α) en % Q
50.0 0.6745
68.3 1
90.0 1.64
95.0 1.96
95.4 2
99.0 2.5758
99.7 3
99.9 3.2905
Ainsi une v.a. de loi N (x ; η, σ) a une probabilité de 99.7 % de se trouver dans l’intervalle [η − 3σ, η + 3σ] lors d’un tirage (épreuve). Cette confiance de 99.7 % correspond à celle qu’il faut accorder à la règle des trois sigmas. Loi de Poisson. La loi de Poisson donne la probabilité de trouver k événements dans un certain intervalle (intervalle de temps ou, plus généralement, domaine), lorsque les événements sont indépendants les uns des autres, se produisent à un taux (dans le temps) ou avec une répartition sur le domaine (dans l’espace) constant et sont en nombre non limité. La loi de probabilité de la v.a. discrète x, prenant ses valeurs aux points 0, 1, 2, 3, ..., n est : P {x = k} = e−a .
ak · k!
II. Les variables et processus aléatoires
659
Le paramètre unique a est appelé paramètre de la loi de Poisson. La densité de probabilité est donnée par : f (x) = e−a
∞ ak δ (x − k) . k! k=0
C’est une suite infinie de distributions de Dirac. La moyenne ainsi que la variance de la loi de Poisson sont toutes deux égales à a. Loi du χ2 . Une v.a. x suit une loi du χ2 lorsque sa densité de probabilité est donnée par l’expression : ⎧ 1 n/2−1 ⎨ (x/2) e−x/2 pour x > 0 f (x) = 2 Γ (n/2) . ⎩ 0 pour x < 0 Il n’y a qu’un paramètre n, strictement positif, appelé le degré de liberté. On note que, si n = 3, on retrouve la loi de Maxwell de la théorie cinétique des gaz. La fonction gamma (Γ) est tabulée ou programmable. La moyenne de la v.a. x est égale à n, sa variance égale à 2n. La principale propriété de la loi du χ2 est la suivante : Si les i v.a. xi sont indépendantes et suivent la loi normale réduite, alors la v.a. χ2 , définie par n , χ2 = x2i , suit une loi du χ2 à n degrés de liberté. i=I
Théorème central limite3 Soit une suite de v.a. x1 , x2 ,..., xn , indépendantes, possédant la même densité fn (x), de moyenne η et de variance σ 2 . On montre que leur moyenne arithmétique : n 1 ¯= x xi , n 1 possède une moyenne μ et une variance σ 2 /n. Elle se rapproche donc de μ quand n tend vers ∞ (loi des grands nombres). En outre, le théorème central limite stipule que cette variable se comporte à la limite comme une v.a. normale de moyenne μ et de variance σ 2 /n. Ce résultat dépend peu de la nature précise de la densité f , on lui demande seulement de posséder une moyenne et une variance. Il existe des versions moins restrictives de ces conclusions, par exemple lorsque les lois des xi sont différentes mais possèdent ¯ se comporte alors toutes une moyenne μi et une variance σi2 . La variable x comme une v.a. normale, de moyenne η et de variance σ 2 : , , 2 ηi σi 2 et σ = η= · n n2 3 L’expression théorème central limite est la traduction littérale de l’allemand zentralen Grenzversatz qui signifie : théorème établissant une limite dont l’importance est centrale en théorie des probabilités.
660
L’observation en astrophysique
La densité fx (x) de x¯ tend alors, lorsque n → ∞, vers la loi normale : 2 (x − η) 1 . exp − f (x) = √ 2 σ2 σ 2π On aura une idée intuitive de la démonstration de ce théorème en remarquant que la densité f (x) s’écrit comme le produit de n-convolution : f (x) = f1 (x)f2 (x) · · · fn (x). Or le produit de convolution d’un nombre croissant de fonctions positives, qui tendent vers 0 en +∞ et −∞, tend vers une fonction gaussienne. Ceci est d’ailleurs facile à visualiser pour la puissance n-ième de convolution d’une fonction porte Π(x). Ce théorème central limite est très utile en physique, où le comportement statistique d’un ensemble peut résulter de la moyenne d’un grand nombre d’effets indépendants.
II.2
Processus aléatoires ou stochastiques
Définition Soit une expérience présentant un ensemble d’issues possibles ζ chacune avec une probabilité P (ζ). À chaque issue est alors assignée une fonction du temps t, réelle ou complexe : x(t, ζ). La famille de fonction ainsi créée est appelée processus stochastique (que nous abrégeons en p.s. dans ce qui suit). ζ appartient à l’ensemble des issues de l’expérience et t est un nombre réel appartenant à ]−∞, +∞[. La notation x(t) sera utilisée pour représenter le processus. Cette notation peut être interprétée comme représentant quatre aspects différents d’un processus : a) une famille de fonctions dépendant du temps (ζ est le paramètre de la famille) ; b) une fonction du temps particulière (ζ étant fixé) ; c) une variable aléatoire (à t fixé, pour un ensemble d’épreuves ζ) ; d) un nombre (à t fixé, pour une épreuve ζ fixée). L’aspect c) est évidemment une condition nécessaire pour que l’on puisse parler de processus aléatoire. Pour fixer les idées, considérons les trois exemples suivants de processus : – L’expérience consiste à tirer une molécule dans un gaz et la quantité x(t) est la projection de la vitesse de cette molécule suivant un axe donné, telle qu’elle varie au cours du temps.
II. Les variables et processus aléatoires
661
– L’expérience consiste à tirer un oscillateur dans la production d’un fabricant, oscillateur dont la tension délivrée peut s’écrire : x(t, ζ) = a(ζ) · sin(ωζ t), où amplitude et fréquence dépendent de l’oscillateur. La tension délivrée est un processus stochastique. On remarque qu’ici, pour une issue fixée, la fonction x(t) est parfaitement déterminée. – L’expérience consiste à jeter un dé et : x(t) = sin t si face ; x(t) = 2 t si pile. La fonction représentant x(t) est aléatoire, mais parfaitement définie après tirage. La figure II.3 illustre ces différentes manières de percevoir un processus stochastique. Nous supposerons de plus que x(t) est réel.
Fig. II.3 – Différentes représentations d’un processus stochastique continu x(t). (a) x(t, ζ) est une fonction aléatoire de t ; (b) x(t, ζ) une fonction déterministe de t.
Fonction de répartition La fonction de répartition du premier ordre du p.s. x(t) est : F (x ; t) = P {x(t) ≤ x} , probabilité de l’événement {x(t) ≤ x}, formé de toutes les issues ζ telles que, à l’instant t, les fonctions x(t, ζ) n’excèdent pas la valeur x. La densité correspondante est : f (x, t) =
∂F (x ; t) · ∂x
On définit de même la fonction de répartition du second ordre du p.s. x(t). Soient à deux instants t1 et t2 les deux v.a. x(t1 ) et x(t2 ). Cette fonction s’écrit : F (x1 , x2 ; t1 , t2 ) = P {x(t1 ) ≤ x1 , x(t2 ) ≤ x2 } ,
662
L’observation en astrophysique
et la densité correspondante : f (x1 , x2 ; t1 , t2 ) =
∂ 2 F (x1 , x2 ; t1 , t2 ) · ∂x1 ∂x2
Moyenne d’un p.s. La moyenne du p.s. est l’espérance mathématique : η(t) = E {x(t)} et dépend généralement du temps t. Autocorrélation et autocovariance d’un p.s. L’autocorrélation du p.s. x(t) est la probabilité conjointe des v.a. x(t1 ) et x(t2 ) : +∞ x1 x2 f (x1 , x2 ; t1 , t2 ) dx1 dx2 . R (t1 , t2 ) = E {x(t1 ) x(t2 )} = −∞
L’autocovariance de x(t) est l’espérance mathématique du produit des v.a. x(t1 ) et x(t2 ) : C(t1 , t2 ) = E {[x(t1 ) − η(t1 )] [x(t2 ) − η(t2 )]} On a évidemment les relations : C(t1 , t2 ) = R(t1 , t2 ) − η(t1 )η(t2 ), σx2 (t) = C(t, t) = R(t, t) − η 2 (t), et l’autocorrélation égale l’autocovariance pour un p.s. à moyenne nulle. L’autocovariance est « centrée », alors que l’autocorrélation ne l’est pas. Processus stationnaires Un cas particulièrement simple et d’application fréquente en physique concerne les p.s. où une translation dans le temps ne change pas les différents moments de la v.a x(t). L’origine du temps est alors arbitraire et, bien que dépendant du temps, le processus se « conserve » dans le temps, au sens probabiliste du terme. Un p.s. x(t) est dit stationnaire lorsque les p.s. : x(t)
et
x(t + ε),
ont la même statistique, quel que soit ε. Une définition plus faible, mais le plus souvent suffisante, énonce que la moyenne du p.s. est indépendante du temps et que son autocorrélation ne dépend que de l’intervalle τ = t2 – t1 et non t2 : E {x(t)} = η = Cte E {x(t + τ )x(t)} = R(τ ).
II. Les variables et processus aléatoires
663
Densité spectrale On appellera densité spectrale du p.s. stationnaire x(t) la transformée de Fourier S(f ), si elle existe, de la fonction d’autocorrélation R(τ ) de ce processus. Exemples de processus stochastiques (p.s.) En vue des applications les plus courantes, nous examinons ici deux processus aléatoires qui prolongent deux lois de probabilité étudiées précédemment : la loi normale et la loi de Poisson. Processus normal. Un processus x(t) est dit normal si les v.a. x(t1 ), ..., x(tn ) ont une fonction de répartition conjointe normale quels que soient n, t1 , t2 ..., tn . La statistique d’un p.s. normal est complètement déterminée par sa moyenne η(t) et par son autocovariance C(t1 , t2 ). Puisque : E {x(t)} = η(t)
2 = C(t, t), σx(t)
la densité du premier ordre du p.s. est donnée par : + C 2 [x − η (t)] 1 . exp − f (x, t) = 2 C (t, t) [2πC (t, t)]1/2 S’il y a stationnarité du p.s., on a : E {x(t)} = η, σx2 = C(0). Les fonctions R(τ ) et C(τ ), respectivement autocorrélation et autocovariance du p.s., ne sont pas déterminées a priori : il existe une infinité de p.s. normaux, ayant même moyenne η et variance C(0), qui se distinguent par la fonction C(τ ) pour τ = 0. La densité spectrale de ces processus est la transformée de Fourier de la fonction d’autocorrélation, si elle existe (théorème de Wiener-Khintchine) : S(f ) = T F [R(τ )] . Processus de Poisson. Soit un intervalle de temps [0, T ], sur lequel nous disposons au hasard n points. La probabilité de trouver k points sur le sousintervalle [t1 , t2 ] de [0, T ] est donnée par : n−k
P {k sur (t1 , t2 )} = Cnk pk (1 − p) avec : p=
=
t 2 − t1 · T
n! n−k pk (1 − p) , k! (n − k)!
664
L’observation en astrophysique
Supposons que les conditions : n 1 et
n t 2 − t1 1, n → ∞, T → ∞, = Cte, T T
soient réalisées et posons n/T = λ. Alors, la probabilité de trouver k points dans l’intervalle de longueur t2 − t1 , situé de façon quelconque sur l’axe du temps t, s’exprime ainsi : P {k sur (t2 − t1 )} = e−λ(t2 −t1 )
[λ (t2 − t1 )]k · k!
On a ainsi réalisé une distribution aléatoire d’événements ponctuels dans le temps, les probabilités associées à chaque intervalle étant indépendantes si les intervalles ne se recouvrent pas. Le processus de Poisson x(t) est maintenant défini de la façon suivante : nous posons x(0) = 0 et x(t1 ) − x(t2 ) égal au nombre de points dans l’intervalle (t2 , t1 ). La famille de fonctions résultant de cette définition est appelée processus de Poisson (Fig. II.4). À un instant t donné, les réalisations x(t) forment une v.a., de distribution poissonnienne et de paramètre λt.
Fig. II.4 – x(t) est une réalisation d’un processus de Poisson ; y(t) est une réalisation du processus « impulsions de Poisson ».
On montre sans difficulté que : E {x(ta ) − x(tb )} = λ(ta − tb ), ! E [x(ta ) − x(tb )]2 = λ2 (ta − tb )2 + λ(ta − tb ).
II. Les variables et processus aléatoires
665
Voici un exemple simple d’un processus de Poisson : Une étoile lointaine émet des photons, reçus par un télescope. Un récepteur photoélectrique (cf. Chap. 7) délivre une impulsion à chaque arrivée de photons. Ces impulsions sont cumulées par un compteur et l’indication du compteur est un processus poissonnien x(t). Impulsions de Poisson. Soit le processus y(t), déduit du précédent, y(t) = δ (t − ti ), i
formé d’une série de distributions de Dirac aux instants ti . Ce processus peut encore être considéré comme la limite du p.s., lorsque ε tend vers zéro, z(t) =
x(t + ε) − x(t) , ε
où x(t) est le p.s. de Poisson, donc sa dérivée au sens des distributions. On a alors : dx(t) = lim z(t), y(t) = ε→0 dt et, s’il y a stationnarité, E {y(t)} = λ R(τ ) = λ2 + λδ(τ )
C(τ ) = λδ(τ ).
La densité spectrale S(f ) du processus y(t) est la transformée de Fourier de R(τ ) : S(f ) = λ2 δ(f ) + λ. Outre une impulsion à l’origine, cette densité spectrale comprend un terme indépendant de la fréquence : on la qualifie de densité spectrale blanche. Transformation d’un processus Soit un processus x(t) et une règle associant à chaque fonction x(t) une nouvelle fonction y(t). La statistique de y(t) peut, en général, se déduire de la statistique de x(t). Les applications sont nombreuses, si l’on veut bien se représenter que x(t) peut être considéré comme l’« entrée » d’un certain système S et y(t) comme la « sortie » (Fig. II.5). Le p.s. de sortie dépend alors, d’une part, du p.s. d’entrée et, d’autre part, des propriétés du système. Les applications importantes se trouvent dans les opérations de filtrage (cf. § 6.1.3). Exemple : Considérons un p.s. stationnaire, suivant une loi normale et centrée, et la transformation : y(t) = x2 (t). La densité de x(t) est donnée par : 2 2 1 fx (x) = √ e−x /2σ , σ 2π
666
L’observation en astrophysique
Fig. II.5 – Transformation d’un processus par un système S. et on montre que la densité du p.s. y(t), qui n’est pas un p.s. normal, s’écrit : # " 1 y H(y), exp − fy (y) = 2R(0) 2π R(0) y où R(τ ) est l’autocorrélation de x(t) et H(y) l’échelon unité (échelon de Heaviside). L’autocorrélation du p.s. y(t) se déduit de la relation : = > = > = > E x2 (t + τ )x2 (t) = E x2 (t + τ ) E x2 (t) + 2 E 2 {x(t + τ )x(t)} , et s’écrit : Ry (τ ) = R2 (0) + 2 R2 (τ ). La variance de y(t) est alors : = > σy2 = E y2 (t) − E 2 {y(t)} = 2 R2 (0). Ergodisme d’un processus stochastique L’ergodisme (on dit aussi ergodicité) d’un p.s. a rapport à la question suivante : peut-on, à partir d’une issue unique x(t, ζ) d’une expérience, déterminer les propriétés statistiques du p.s. x(t) ? Autrement dit, les résultats des opérations de moyenne, de variance, d’autocorrélation... du processus, faits sur une réalisation x(t), sont-ils identiques aux moyennes faites sur l’ensemble des réalisations, telles qu’elles ont été définies ci-dessus ? Il est intuitivement clair qu’une telle éventualité ne sera réalisée que si le processus est stationnaire et si x(t) prend au cours du temps toutes les valeurs possibles. Tous les p.s. ne satisfont pas à cette condition : dans l’exemple des oscillateurs donné plus haut, il est clair que la variance du p.s. pas égale à la variance de la tension mesurée sur une issue particulière. Dans un processus physique, on a facilement accès, par un dispositif de mesure, à l’évolution temporelle de la variable. En revanche, il est en général difficile de mesurer un grand nombre de réalisations indépendantes du p.s. au même instant t0 . Aussi l’ergodisme du système est-il une propriété qui en facilitera l’analyse statistique. (Le mouvement brownien est un processus ergodique : il est équivalent de prendre la moyenne temporelle sur la vitesse d’une molécule ou de prendre la moyenne sur l’ensemble des molécules. En effet, une molécule verra sa vitesse prendre toutes les valeurs possibles au cours du temps.)
II. Les variables et processus aléatoires
667
On énoncera : Un processus stochastique x(t) est ergodique lorsque les moyennes prises sur le temps sont égales aux moyennes d’ensemble, c’est-àdire aux espérances mathématiques. Quels sont les critères de l’ergodicité d’un p.s. stationnaire ? Il nous faut préciser ici la notion de « moyenne prise sur le temps » ou « moyenne temporelle ». Soient les quantités : 1 T
xT =
ˆ T (τ ) = 1 R T
T
x(t) dt, 0
T
x(t) x(t + τ ) dt. 0
ˆ T (τ ) sont respectivement une v.a. et un p.s., dont les valeurs sont xT et R déterminées pour chaque issue ζ. À quelles conditions satisfait-on aux limites suivantes ? lim xT = η = E {x(t)}
T →∞
ˆ T (τ ) = R(τ ) = E {x(t) x(t + τ )} . lim R
T →∞
Cette question est bien sûr étroitement liée à la suivante : à partir d’une mesure physique, faite pendant un temps fini T et fournissant la valeur d’une réalisation x(t) du p.s., peut-on obtenir une information significative sur les espérances mathématiques caractérisant le p.s., telles que moyenne, variance, autocorrélation, etc. ? La convergence des expressions xT et RT (τ ) vers les espérances mathématiques n’est pas toujours réalisée. Nous discuterons ce point plus en détail ci-dessous (cf. § II.3), à propos de la mesure physique d’une grandeur à caractère aléatoire. Filtrage d’un processus Filtrage fréquentiel. Soit, appliquée au processus stationnaire x(t), l’opération linéaire :
+∞
y(t) = −∞
x(t − θ) h(θ) dθ,
où h(θ) est une fonction donnée. Cette opération de convolution est appelée filtrage du processus x(t) par le filtre h : y(t) = x(t)h(t). On sait que : ˜ y˜(s) = x ˜(s) h(s),
668
L’observation en astrophysique
avec :
+∞
˜ h(s) =
h(t) e2jπst dt, −∞
˜ étant la fonction de transfert, en général complexe, du filtre. Si l’on fait h x(t) = δ(t), il vient : y(t) = h(t). La fonction h(t) est donc la réponse du filtre à un signal d’entrée impulsionnel. Elle est encore appelée réponse impulsionnelle du filtre.
2
La fonction ˜ h(s) est la fonction de transfert en puissance spectrale, ou en puissance, du filtre. Elle est réelle positive, mais ne donne que l’information sur la façon dont le filtre modifie le spectre d’amplitude du processus ; la modification de la phase ne peut en être déduite. temporel. Lorsqu’un processus x(t) est mesuré sur un intervalle TFiltrage − 2 , T2 et supposé nul à l’extérieur de cet intervalle, cette hypothèse revient à considérer un second processus y(t) tel que : t x(t). y(t) = Π T Une telle situation est évidemment bien représentative des mesures physiques, où un appareil de mesure donne accès au signal pendant un temps fini T . La transformée de Fourier de l’expression ci-dessus s’écrit : y˜(s) = x˜(s) sinc(T s), et la porte temporelle se traduit par une convolution dans l’espace des fréquences. Cette convolution peut être interprétée comme un « flou » créé sur le spectre du processus original par le fait que l’on n’a accès à x(t) que sur une durée finie T . En particulier, on note que l’information sur les très basses fréquences, inférieures à 1/T , n’est pas accessible.
II.3
Mesures physiques et estimations
Nous abordons ici les problèmes physiques, pour l’étude desquels a été développé le formalisme mathématique rigoureux des probabilités. Dans la réalité physique, une quantité continue ou discrète n’est jamais mesurée qu’en un nombre fini de valeurs, sur un intervalle de temps fini, etc. Il paraît dans la nature des choses que les résultats d’une même expérience répétée diffèrent et soient de caractère aléatoire. Nous avons vu (cf. § 7.2) le caractère apparemment inévitable de ces fluctuations ou bruits qui affectent toutes mesures physiques.
II. Les variables et processus aléatoires
669
Le physicien qui étudie un phénomène physique, par exemple une grandeur x dépendant du temps, y a accès pendant un temps fini T. Sur les mesures obtenues, discrètes ou continues, il peut faire des opérations de moyenne, calculer des variances, etc. Il en serait de même s’il mesurait une quantité y (par exemple une pression) un certain nombre de fois : toutes les mesures seraient différentes et, à nouveau, des opérations de moyenne et variance seraient possibles. On dira alors que l’on étudie la statistique du phénomène x(t) ou de la grandeur y. Ce changement de langage, passant des probabilités aux statistiques, nous indique qu’a priori nous ne savons pas si x(t) ou y ont les propriétés d’un processus ou d’une variable aléatoire. Les mesures fournissent une réalisation ou une observation du phénomène sous-jacent. Les calculs statistiques (moyenne, variance) effectués sur les valeurs ainsi obtenues fournissent des estimateurs de la moyenne, de la variance du processus x(t) ou de la variable aléatoire y sous-jacente, pour autant qu’en supposer l’existence soit une représentation correcte du phénomène physique. Les estimateurs ainsi obtenus sont eux-mêmes des quantités fluctuantes : un second jeu de mesure conduira à une nouvelle valeur des estimateurs. Le problème posé au physicien devenu statisticien est d’évaluer la validité de ces estimateurs lorsqu’il s’agit de décrire la réalité sous-jacente. Les mesures physiques conduisant toujours à des estimations, c’est un abus de langage que de parler de la « mesure » des moments d’une variable ou d’un processus aléatoire. Cet abus est si courant que nous le commettrons aussi, mais il importait de le signaler.
II.3.1
Un exemple d’estimation : la loi des grands nombres
Soit une v.a. x de moyenne η et de variance σ 2 . Soit une expérience En formée de la répétition de n expériences identiques mais non corrélées, conduisant aux variables x1 , x2 , ...xn , à partir desquelles est formée la variable « moyenne d’échantillon » : 1 ¯ = (x1 + x2 + ... + xn ). x n On sait que : σ2 , E(¯ x) = η Var(¯ x) = n et on montre que : ¯ < η + ε} ≥ 1 − P {η − ε < x
σ2 · nε2
L’expérience est maintenant faite une seule fois, fournissant un jeu de valeurs x1 , x2 , ...xn . La quantité : x=
1 (x1 + x2 + ... + xn ), n
670
L’observation en astrophysique
est considérée comme un estimateur fiable de la moyenne η, c’est-à-dire que l’on est pratiquement certain que l’inégalité : η − ε < x < η + ε, est valide. Autrement dit, si l’on répétait un très grand nombre de fois l’expérience, la quantité x satisferait à cet encadrement dans 99 % des cas si : 1−
σ2 = 0.99. nε2
On voit donc que, par rapport aux énoncés rigoureux du calcul des probabilités, les énoncés de caractère statistique souffrent d’un certain flou (statistique !) quant à la certitude d’une conclusion.
II.3.2
Estimation des moments d’un processus
Soit un processus stationnaire, ergodique x(t), de moyenne η et d’autocorrélation Rx (t). La mesure physique ne fournit l’information que sur une seule réalisation de ce processus, et uniquement pendant l’intervalle de temps [0, T ]. Elle permet donc de calculer les quantités : T 1 xT = x(t) dt, T 0 T 1 ˆ x(t) x(t + τ ) dt. RT (τ ) = T 0 A priori, ces quantités ne sont pas égales à η et à Rx (τ ). Elles peuvent être considérées comme, respectivement, une v.a. et un processus stochastique déduits par transformation du p.s. x(t) : en effet, pour chaque issue ζ, ces quantités sont définies. La mesure physique en fournit une seule valeur : ces valeurs sont appelées estimateurs de η et de Rx (τ ). Un estimateur est dit sans biais (non biaisé), si : ! ˆ T (τ ) = Rx (τ ). E {xT } = η E R On peut montrer que, sous certaines conditions restrictives de convergence, ˆ T (τ ) tendent respectivement vers η et R ˆ x (τ ) lorsque T les grandeurs xT et R tend vers l’infini (cf. Chap. 9). Moyenne On montre que la variance de l’estimation xT est donnée en fonction de T par l’expression : +∞ $ τ % $τ % 1 σx2T = Π dτ . Rx (τ ) − η 2 Π T −∞ T T
II. Les variables et processus aléatoires
671
Application Soit x(t) un p.s. stationnaire de valeur moyenne nulle (η = 0), de densité spectrale constante, dite aussi blanche : Sx (f ) = S(0) = Cte, filtré par un filtre passe-bas : h(f ) = Π
f 2fc
.
Le processus y(t) après filtrage a pour variance : σy2 = R(0) − η 2 = R(0) =
+∞ -∞
Sy (f ) df = 2fc S(0).
Calculons la variance de l’estimation yT faite sur l’intervalle [0, T ] : yT =
1 T
T
y(t) dt, 0
$ τ % $τ % Π Ry (τ ) Π T T −∞
1 × dτ = TF [Ry (τ )] T (sinc T f )2 f =0 T +∞ 1 2 = S(f ) | sinc (T f ) | T df, T −∞
σy2T =
1 T
+∞
en notant que : Π
$τ % T
Π
$τ % T
=Λ
$τ % T
et
TF [Ry (τ )] = S(f ).
Si T 1/fc, condition facilement réalisée, σy2T peut être approchée par : σy2T
1 Sy (0), T
σy2T
σy2 · 2 fc T
et l’on a :
L’estimation y T de la moyenne du p.s. a une variance qui tend bien vers zéro lorsque T augmente.
672
L’observation en astrophysique
Autocorrélation On adopte, de même, comme estimateur de la fonction d’autocorrélation la quantité : T ˆ (τ ) = 1 x(t) x(t + τ ) dt. R T 0 On peut montrer que cet estimateur est sans biais et que sa variance : "
2 # ! ˆ ) = E
R(τ ˆ ) − Rx (τ )
, Var R(τ tend vers zéro, lorsque T tend vers l’infini. On montre que, pour τ grand, +∞ ! ˆ x (τ ) 1 R2 (τ ) dτ. Var R T −∞ x Dans le cas où le processus est à densité spectrale blanche et limité à un intervalle de fréquence f < fc , on démontre que : ! 2 ˆ (τ ) ≤ Rx (0) · Var R fc T Densité spectrale Est-il possible de considérer la quantité :
2
1
T
−2πjf t x(t) e dt ,
T 0 comme un estimateur sans biais de la densité spectrale Sx (f ) du processus x(t) ? Ceci n’est le cas que si l’on a : 1 lim T →∞ T
2
T
−2πjf t x(t) e dt = Sx (f ),
0
et si, par ailleurs, la variance de cet estimateur tend vers zéro, lorsque T tend vers l’infini. En général, ces conditions ne sont pas réalisées, l’estimateur est biaisé et des précautions sont à prendre pour la validité de la convergence lorsque T augmente indéfiniment. Nous renvoyons aux traités spécialisés pour une discussion approfondie. On peut également considérer que le spectre de puissance est estimé en mesurant la puissance du signal à travers un filtre g˜(f ) de largeur Δf , centré sur la fréquence f0 : T 2 ˆ 0 ) = estimation de Sx (f0 ) = 1 | y(t) | dt avec y˜(f ) = x ˜(f ). S(f T 0
II. Les variables et processus aléatoires On montre alors que :
673
! 2 ˜ 0 ) = Sx (f ) · Var S(f T Δf
Ces considérations sont illustrées par la figure II.6.
Fig. II.6 – Estimation de la moyenne et de la densité spectrale de puissance d’un processus stochastique (p.s.) x(t). (a) Une réalisation x(t, ζ) du p.s. (b) Le p.s. y(t) déduit de x(t) par le filtrage h (f ), de fréquence de coupure fc . Les hautes fréquences ont disparu. (c) La mesure physique de y(t) pendant un temps T . (d) Fonction ˆ y (τ ) de la med’autocorrélation Rx (τ ) du p.s. x(t), fonction d’autocorrélation R sure, encadrement donnant un intervalle de confiance σc . On a également indiqué la moyenne η = 0 du p.s. x(t) ainsi que l’estimation yT de cette moyenne (yT = 0).
This page intentionally left blank
Table des constantes et valeurs utiles On trouvera dans Allen C. W., Astrophysical Quantities, la grande majorité des constantes physiques ou astronomiques nécessaires pour l’usage des notions introduites dans le présent ouvrage. Quelques valeurs fréquemment rencontrées sont données ici. Vitesse de la lumière Constante de Newton Constante de Planck Charge de l’électron Masse de l’électron Constante de Boltzmann Masse du proton Rydberg Déplacement Zeeman Longueur d’onde associée à 1eV Fréquence associée à 1 eV Température associée à 1 eV Unité astronomique Parsec Masse du Soleil Rayon du Soleil Luminosité du Soleil
c G h e me k mp RH Δν/B λ0 v0 u.a. pc M R L
2.99979250 × 108 m s−1 6.670 × 10−11 N m2 kg−2 6.62620 × 10−34 J s 1.602192 × 10−19 C 9.10956 × 10−31 kg 1.38062 × 10−23 J K− 1 1.672661 × 10−27 kg 109 677.576 cm−1 (ou Kayser) 1.39961 × 1010 Hz Tesla−1 1.23985 × 10−6 m 2.417965 × 1014 Hz 11 604.8 K 1.495979 × 1011 m 3.085678 × 1016 m 3.261633 a.l. 1.989 × 1030 kg 6.9599 × 108 m 3.826 × 1026 W
Corps noir Constante de Stefan σ = 5.66956 × 10−8 W m−2 K−4 Loi de Planck Fλ = 2 hc 2 λ−5 /(ehc/kλT − 1) = c1 λ−5 /(ec/λT − 1) c1 = 2 hc 2 = 1.19107 × 10−16 c2 = hc/k = 1.43883 × 10−2 Fv = 2 hν 3 c−2 /(ehν/kT – 1) Nλ = 2 cλ−4 /(ec/λT – 1) Nν = 2 c−2 ν 2 /(ehν/kT – 1)
W m−2 m−1 sr−1 W m2 s−1 [λ en m] mK W m−2 Hz−1 sr−1 photons m−2 m−1 sr−1 photons m− 2 Hz− 1 sr− 1
This page intentionally left blank
Table des missions spatiales Missions spatiales à toutes longueurs d’onde, citées dans l’ouvrage
Mission Apollo axaf (Advanced X-ray Astrophysics Facility) Boomerang Cassini-Huygens chandra (axaf) Clementine corot (COnvection ROtation and planetary Transits) Cos-B (Cosmic ray Satellite) Darwin Einstein fuse (Far Ultraviolet Spectroscopic Explorer) Gaia galex (Galaxy Evolution Explorer) glast (Gamma-ray Large Area Space Telescope) Granat gro (Gamma-Ray Observatory) heao (High Energy Astronomy Observatories) Hipparcos - Tycho hst (Hubble Space Telescope) Integral (International Gamma-Ray Astrophysics Laboratory) iras (Infrared Astronomical Satellite) iso (Infrared Space Observatory) iue (International Ultraviolet Explorer) jwst (James Webb Space Telescope) kao (Kuiper Airborne Observatory) Kepler lisa (Laser Interferometer Space Antenna) maxim (Microarcsecond X-ray Imaging Mission)
Objectif
Année de lancement
Missions lunaires Observatoire X
1963-1972 1999
Ballon pour étudier le fond diffus cosmologique Exploration de Saturne Observatoire X Exploration de la Lune Recherche d’exoplanètes et astérosismologie Observatoire γ Recherche d’exo-Terres Observatoire X Observatoire UV
1998
Astrométrie Observatoire UV Observatoire γ
2010 2003 2008
Observatoire Observatoire Observatoire énergies Astrométrie Observatoire Observatoire
1989-1998 1991-2000 1979-1981
X γ hautes
visible-IR X-γ
Observatoire IR Observatoire IR Observatoire UV Observatoire visible-IR Observatoire visible-IR Recherche d’exo-Terres Détection d’ondes gravitationnelles Observatoire X
1997 1999 1994-1994 2006
1975-1982 2010 1979 1999
1989-1993 1990 2002 1983 1995-1998 1978-1996 2013 1993 2009 2018 2020
678
oao (Orbiting Astronomical Observatories) odin Opportunity oso8 (Orbiting Solar Observatory) Planck pronaos (Projet National d’AstronOmie Submillimétrique) Rosat (ROentgen SATellite X-ray observatory) rosetta rosita sas2 (Small Astronomy Satellite) Sigma sim (Space Interferometry Mission) Skylab sofia (Stratospheric Observatory For Infrared Astronomy) Spitzer stars suzaku tpf (Terrestrial Planet Finder) uhuru (SAS-1) Ulysses Viking Voyager wmap (Wilkinson Microwave Anisotropy Probe) xeus (X-Ray Evolving Universe Spectroscopy Mission) xmm-Newton (X-ray Multi-Mirror Mission)
L’observation en astrophysique
Observatoire UV
1976
Observatoire submillimétrique Exploration de Mars Observations du Soleil (rayons γ) Exploration du fond diffus cosmologique Ballon submillimétrique
2001
Observatoire X
1992-1999
Étude d’une comète Observatoire X Observatoire γ Observatoire γ Observatoire X Station spatiale Observatoire IR et submillimétrique Observatoire IR Photométrie stellaire Observatoire X Recherche d’exo-Terres Observatoire X Exploration du Soleil Exploration de Mars Exploration du système solaire Exploration du fond diffus cosmologique Observatoire X
2004 ? 1970 1989 2013 1973-1979 2004
Observatoire X
1999
2003 1975-1978 2007 1994
2003 2002 2005 2020 1970-1973 1990 1975-1976 1977 2001 2010
Webographie1 Principaux télescopes terrestres Radio et submillimétrique Emplacement
Nom
Type et diamètre
Nationalité(s)
Allemagne
Effelsberg Radio radio (100 m) Telescope
Angleterre
Cambridge Ryle Telescope Jodrell Bank Observatory Cosmic Anisotropy Telescope Australia Telescope Compact Array Mopra Antenna
radio (8 × 13 m)
Angleterre
radio (76 m)
Angleterre
mm(3 × 0.7 m)
Angleterre
radio (22 m)
Australie
Parkes Observatory Atacama large millimeter/submillimeter array (ALMA) Five College Radio Astronomy Observatory Green Bank
radio (64 m)
Australie
Angleterre Angleterre Australie
Australie Australie Chili
États-Unis
États-Unis
Allemagne
radio (6 m × 22 m) Australie
Europe, Japon, mm (0.3-9.6) États-Unis, Chili
radio (14 m)
http://donald.phast. umass.edu/~fcrao/
radio (45 et 100 m) États-Unis
http://www.gb.nrao. edu/ http://astron. berkeley.edu/ ~plambeck/technical. html http://www.ovro. caltech.edu/
Hat Creek Radio radio (6 × 6 m) Observatory
États-Unis
Owens Valley radio (6 × 10.4 m) États-Unis Radio Observatory Very Large Array radio (27 × 25 m) États-Unis
1 La
http://www.atnf.csiro. au/ http://www.parkes. atnf.csiro.au/ http://www.alma.nrao. edu/
États-Unis
États-Unis
États-Unis
URL http://www.mpifr-bonn. mpg.de/div/effelsberg/ index\_e.html http://www.mrao.cam. ac.uk/telescopes/ryle/ http://www.jb.man.ac. uk/ http://www.mrao.cam. ac.uk/telescopes/cat/ http://www.narrabri. atnf.csiro.au/
États-Unis
webographie a été compilée par Marc Huertas.
http://www.vla.nrao. edu/
680
L’observation en astrophysique
États-Unis (Hawaii, Mauna Kea) États-Unis (Hawaii, Mauna Kea) France Inde
Japon Mexique Pays-Bas
Puerto Rico Suède
Caltech Submillimeter Observatory James Clerk Maxwell Telescope Nançay Radio Observatory Giant Metrewave Radio Telescope
mm (10.4 m)
États-Unis
http://www.submm. caltech.edu/cso/
mm (15 m)
Canada, Royaume-Uni, Pays-Bas France
http://www.jach. Hawaii.edu/JCMT/
Nobeyama Radio Observatory Large Millimeter Telescope Westerbork Synthesis Radio Telescope Arecibo Observatory Onsala Space Observatory
radio (45 m)
radio (305 m)
États-Unis
http://www.naic.edu/
mm (20 et 25 m)
Suède
http://www.oso. chalmers.se/
South African Astronomical Observatory Cambridge Optical Aperture Synthesis Telescope AngloAustralian Observatory Mount Stromlo et Siding Spring Observatories Gemini Observatory
optique (2 m)
radio (100 m) radio (30 × 45 m)
mm (50 m) radio (14 × 25 m)
http://www.obs-nancay. fr/ Inde http://www.ncra.tifr. res.in/ncra\_hpage/ gmrt/gmrt.html Japon http://www.nro.nao.ac. jp/index-e.html Mexique, États- http://www.lmtgtm.org/ Unis Pays-Bas http://www.astron.nl/ p/observing.htm
Optique et infrarouge Afrique Sud
du
Angleterre
Australie
Australie
Chili (Cerro Panchón) et États-Unis (Hawaii) Chili (Cerro Tololo) Chili (La Silla) Chili (Cerro Paranal) Chili (La Silla) Chili ou Argentine
Afrique du Sud
http://www.saao.ac.za/
optique (4 × 0.4 m) Angleterre
http://www.mrao.cam. ac.uk/telescopes/ coast/
optique (3.9 m)
http://www.aao.gov.au/
optique 2.3 m)
(1.85
Australie, Royaume-Uni et Australie
optique IR (8 m)
http://msowww.anu.edu. au/observing/
États-Unis, http://www.gemini.edu/ Royaume-Uni, Canada, Chili, Argentine, Brésil Cerro Tololo In- optique (1, 1.5 et États-Unis http://www.ctio.noao. teramerican Ob- 4 m) edu/ctio.html servatory La Silla - eso Fa- optique (1.5, 2.2, Europe http://www.ls.eso.org/ cilities 3.5 et 3.6 m) Very Large Teles- optique (4 × 8 m) Europe http://www.eso.org/ cope vlt/ Swedish-eso optique (3.5 m) Suède http://www.LS.eso.org/ SUbmillimetre lasilla/Telescopes/ Telescope SEST/SEST.html European ExtreEurope http://www.eso.org/ mely Large Teprojects/e-elt/ lescope (e-elt)
Webographie
Espagne (Calar Alto) Espagne (Iles Canaries) Espagne (Iles Canaries)
Espagne (Iles Canaries) Espagne (Iles Canaries) Espagne (Iles Canaries) États-Unis (Hawaii, Mauna Kea) États-Unis États-Unis États-Unis États-Unis (Hawaii, Mauna Kea) États-Unis États-Unis
681
Calar Alto Ob- optique (3.5 m) servatory Telescopio Na- optique (3.5 m) zionale Galileo
Allemagne, Es- http://www.mpia-hd. pagne mpg.de/Public/CAHA/ Italie http://www.tng.iac.es/
themis He- optique (2 m) liographic Telescope for the Study of the Magnetism and Instabilities on the Sun Gran Telescopio optique (10 m) de Canarias (grantecan) Nordic Optical optique (2.6 m) Telescope
France, Italie
http://www.themis.iac. es/
Espagne
http://www.gtc.iac.es/
Danemark
http://www.not.iac.es/
Isaac Group
Newton optique (4.2, 2.5 et Royaume-Uni, 1 m) Pays-Bas
Infra-Red Teles- IR (3 m) cope Facility
États-Unis
http://irtfweb.ifa. hawaii.edu
Giant Magellan Telescope (gmt) Thirty Meter Telescope (tmt) UK Infra-Red Telescope Air Force Maui Optical Station
optique (24.5 m)
États-Unis
http://www.gmto.org/
optique (30 m)
États-Unis
http://www.tmt.org/
IR (3.8 m)
Royaume-Uni
optique (3.7 m)
États-Unis
http://www.jach. hawaii.edu/ukIRT http://www.maui.afmc. af.mil/
Apache Point optique (3.5 m) États-Unis Observatory Palomar Obser- optique (1.2, 1.5 et États-Unis vatory 5 m)
États-Unis (Hawaii, Mauna Kea) États-Unis
subaru cope
Lick Observatory optique (3 m)
États-Unis
États-Unis (Hawaii, Mauna Kea) États-Unis
University of Ha- optique (2.2 m) waii Telescope
États-Unis
Hobby Eberly optique (9 m) Telescope Canada France optique (3.6 m) Hawaii Telescope
États-Unis, Allemagne Canada, France, États-Unis
États-Unis (Hawaii, Mauna Kea) États-Unis (Hawaii, Mauna Kea)
http://www.ing.iac.es/
Keck tory
Teles- optique (8.3 m)
Japon
Observa- optique (2 × 10 m) États-Unis
http://www.apo.nmsu. edu/ http://astro.caltech. edu/observatories/ palomar/ http:// subarutelescope.org/ http://www.ucolick. org/ http://www.ifa.hawaii. edu/88inch/88inch.html http://www.astro.psu. edu/het/ http://www.cfht. hawaii.edu/ http://www2.keck. hawaii.edu/
682
États-Unis États-Unis
États-Unis États-Unis
France France Italie Mexique
Antartique
Canada
États-Unis
Italie
L’observation en astrophysique
Kitt Peak Natio- optique (0.9, 2.1 et nal Observatory 4 m) Large Binocular optique (2 × 8.4 m) Telescope Observatory Mount Wilson optique (1.5, Observatory 2.5 m) Multiple Mirror optique (6 × 1.8 m) Telescope Observatory Observatoire de optique (1.2, 1.5 et Haute-Provence 1.93 m) Observatoire optique (1 et 2 m) Midi-Pyrenees Loiano Teles- optique (0.6, copes 1.5 m) Guillermo Haro optique (2.1 m) Observatory Ondes gravitationnelles Antarctic Muon and Neutrino Detector Array Sudbury Neutrino Observatory Laser Interferometer GravitationalWave Observatory Virgo Interferometer
États-Unis
http://www.noao.edu/ kpno/ États-Unis, Ita- http://lbto.org/ lie
États-Unis États-Unis
France France Italie Mexique
http://www.mtwilson. edu/ http://cfa-www. harvard.edu/mmt/, http://www.mmto.org/ http://www.obs-hp.fr/ http://www.obs-mip.fr/ omp/ http://www.bo.astro. it/loiano/ http://www.inaoep.mx/ ~astrofi/cananea/
et neutrinos
mm (13 m × 0.2 m) États-Unis
http://ameta.berkeley. edu/
neutrinos
Canada, Royaume-Uni, États-Unis ondes gravitation- États-Unis nelles
http://www.sno.phy. queensu.ca/
ondes gravitation- France, Italie nelles
http://www.virgo.infn. it
http://www.ligo. caltech.edu/
Webographie
683
Principales missions spatiales récentes Nom akari
Période d’activité 2006-2007
Cassini-Huygens Mis- 1997sion to Saturn & Titan aujourd’hui Chandra X-ray Observa- 1999tory aujourd’hui
COnvection ROtation 2006-2008 et planetary Transits Asteroseismology and Search for Exoplanets (corot) COsmic Background Ex- 1989plorer (cobe) aujourd’hui euso - Extreme Universe 2010-2013 Space Observatory Far Ultraviolet Spectro- 1999scopic Explorer (fuse) aujourd’hui
GALaxy Evolution EX- 2003plorer (galex) aujourd’hui Global Astrometric In- ∼ 2010 terferometer for Astrophysics (gaia) High Energy Transient 2002Explorer aujourd’hui
Hubble Space Telescope (hst) INTErnational GammaRay Astrophysics Laboratory (integral)
1990aujourd’hui 2002aujourd’hui
Infra-Red Space Interfe- ∼ 2010 rometer darwin
Infrared Space Observa- 1995-1998 tory
Propriétaires
Objectif scientifique principal et URL
Japon, Europe Observations photométriques et spectroscopiques dans le domaine 2-180 μm en 13 bandes photométriques. http: //www.astro-f.esac.esa.int/ Europe Étude de Saturne et Titan du visible à l’infrarouge. http://saturn.jpl.nasa. gov/home/ États-Unis Observations des émissions X provenant de phénomènes énergétiques comme les explosions d’étoiles en supernovae. http://chandra.harvard. edu/ France Recherche d’exoplanètes et astérosismologie. http://www.lam.oamp.fr/ projets/corot/
États-Unis
Mesure du fond diffus cosmologique en IR et micro-ondes. http://lambda. gsfc.nasa.gov/product/cobe/ Europe Détection de rayons cosmiques et de neutrinos. http://www.euso-mission. org/ États-Unis, Exploration de l’Univers avec de la France, Ca- spectroscopie haute-résolution dans nada l’UV lointain. http://fuse.pha.jhu. edu/ États-Unis, Observations de galaxies proches et Corée, France lointaines en UV. http://www.galex. caltech.edu/ Europe Astrométrie d’environ un milliard d’étoiles dans notre Galaxie. http:// www.rssd.esa.int/gaia/ États-Unis, Détection et localisation de gammaJapon, France, bursts. http://space.mit.edu/HETE/ Brésil, Italie, Inde États-Unis Observatoire de l’UV à l’IR. http:// www.stsci.edu/hst/ Europe Détection des phénomènes plus énergétiques de l’Univers. http://sci.esa.int/science-e/www/ area/index.cfm?fareaid=21 Europe Recherche des signatures de vie dans des exo-terres. http: //sci.esa.int/science-e/www/area/ index.cfm?fareaid=28 Europe Exploration de l’Univers en IR http: //www.iso.vilspa.esa.es/
684
L’observation en astrophysique
James Webb Space Te- ∼ 2013 lescope (jwst) planck ∼ 2007
rosat
1990-1999
rosetta
2004aujourd’hui
SOlar and Heliospheric 1995Observatory (soho) aujourd’hui Solar TErrestrial RE- 2006lations Observatory aujourd’hui (stereo) Spitzer Space Telescope
Stardust Wilkinson Anisotropy (wmap) xmm-Newton
2003aujourd’hui
1999aujourd’hui Microwave 2001Probe aujourd’hui
1999aujourd’hui
États-Unis
Observatoire optique-IR (successeur de hst) http://www.jwst.nasa.gov/ Europe Sondage des anisotropies du fond diffus cosmologique http://www.rssd. esa.int/index.php?project=PLANCK Allemagne, Exploration globale de l’Univers en Royaume-Uni, UV. http://wave.xray.mpe.mpg.de/ États-Unis rosat/ Europe Étude de la comète 67P/ChuryumovGerasimenko. http://www.esa.int/ esaSC/120389\_index\_0\_m.html Europe, États- Étude de la structure interne et de l’atUnis mosphère du Soleil. http://sohowww. nascom.nasa.gov/ États-Unis Étude des éjections coronales du Soleil grâce à des données 3-D. http://stp.gsfc.nasa.gov/missions/ stereo/stereo.htm États-Unis Imagerie et spectroscopie entre 3 et 180 microns. http://www.spitzer. caltech.edu/ États-Unis Exploration d’une comète. http:// stardust.jpl.nasa.gov/ États-Unis Cartographie du fond diffus cosmologique afin de mieux comprendre la formation des toutes premières galaxies. http://map.gsfc.nasa.gov/ Europe Étude de « l’Univers violent », des alentours des trous noirs jusqu’à la formation des premières galaxies. http:// www.esa.int/science/xmmnewton, http: //xmm.vilspa.esa.es/
Webographie
685
Bases de données Nom Aladin Sky Atlas
Astronomical Data Center
Description
URL
Carte du ciel interactive permet- http://aladin.u-strasbg.fr/ tant entre autres d’observer des images numériques de n’importe quelle partie du ciel Plus de 670 catalogues d’astro- http://adc.gsfc.nasa.gov/ métrie, photométrie, spectroscopie de sources stellaires et nonstellaires Plusieurs catalogues astrophy- http://cats.sao.ru/ siques en particulier dans le domaine radio
Astrophysical CATalogs support System (cats) of the Special Astrophysical Observatory Astrophysics Multi- Catalogue commun à plusieurs http://adc.gsfc.nasa.gov/ spectral Archive Search missions spatiales de la nasa amase/ Engine Astrovirtel Télescope virtuel http://www.stecf.org/ astrovirtel/ Atomic Data for Astro- Données sur photoionisation et http://www.pa.uky.edu/ physics ionisation collisionnelle, recombi- ~verner/atom.html naison, opacités, etc Besançon Double and Données photométriques et spec- http://bdb.obs-besancon.fr/ Multiple Star Database troscopiques sur des systèmes d’étoiles binaires et multiples clementine images Images de la misson Clementine http://clementine.cnes.fr/ index.en.html Canadian Astronomy Centre de stockage des données http://cadcwww.dao.nrc.ca/ Data Centre (cadc) hst et cfht Cassini-Huygens Mis- Données sur la mission Cassini- http://saturn.jpl.nasa.gov/ sion to Saturn & Titan Huygens home/ Catalog of Infrared Ob- Accès à des données déjà publiées http://ircatalog.gsfc.nasa. servations sur plus de 10 000 sources obser- gov vés en infrarouge Catalogue of Galactic Catalogue de restes de Supenovae http://www.mrao.cam.ac.uk/ Supernova Remnants dans la Galaxie surveys/snrs/ Center for Earth et Pla- Plusieurs milliers d’images du http://www.nasm.si.edu/ceps/ netary Studies (ceps) système solaire Centre de Donnees de la Données sur la physique des plas- http://cdpp.cesr.fr/english/ Physiq e des Plasmas mas index.html Centre de Données As- Plusieurs milliers de catalogues http://cdsweb.u-strasbg.fr/ tronomiques de Stras- astronomiques CDS.html bourg DEep Near Infrared Sur- Base de données de la mission de- http://www-denis.iap.fr/ vey of the Southern Sky nis denis.html (denis) Digital Sky Project Données numériques de champs http://www.cacr.caltech.edu/ en plusieurs longueurs d’onde SDA/digital\_sky.html Digitized Sky Survey at Accès à des données numérisées http://ledas-www.star.le.ac. ledas des STScI Digitised Sky Surveys uk/DSSimage dss et dss-ii
686
L’observation en astrophysique
elodie archive
Plus de 16 000 spectrogrammes à http://atlas.obs-hp.fr/ échelle obtenus avec l’instrument elodie/ elodie à l’Observatoire de Haute Provence ESO Science Archive Fa- Archives de toutes les données ob- http://archive.eso.org/ cility tenues avec les télescopes de l’eso European Asteroidal Oc- Observations d’occultations stelcultation Results laires par astéroïdes en Europe depuis 1997 European Pulsar Net- Mesures de profile de pulsars work Data Archive Extrasolar Planets En- Catalogue de toutes les planètes cyclopedia extrasolaires découvertes jusqu’à présent Extreme UltraViolet Ex- Archives de la mission euve plorer (euve) Archive French ground based so- Observations du Soleil réalisées à lar database Meudon, Nançay
http://www.euraster.net/
Galactic Classical pheid Database
Ce- Liste de toutes les céphéides de population I connues dans notre Galaxie High Energy Astrophy- Archives de plusieurs missions sics Science Archive Re- spatiales en hautes énergies search Center Hubble Space Telescope Données hst Data Archive Hypercat Interface d’accès à plusieurs bases de données extragalactiques INTErnational Real- Données et informations relatives time MAGnetic Obser- aux observatoires magnétiques vatory NETwork InfraRed Science Ar- Données des missions infrarouges chive et millimétriques de la nasa
http://www.astro.utoronto.ca/ DDO/research/cepheids/
Italian Database of As- Environ 280 catalogues déveloptronomical Catalogues pés depuis 1984 par le groupe Astronet en Italie Japan N A O - Astro- Accès à une multitude de données nomical Data Analysis astronomiques Center LEicester Database and Accès à des données de misArchive Service sions spatiales de hautes énergies comme exosat et rosat Lausanne - General Ca- Données photométriques de 200 talogue of Photometric 000 étoiles tirées de 3 300 publiData cations Libraries of stellar spec- Librairie de spectres stellaires tra
http://db.ira.cnr.it/dira2/
http://www.mpifr-bonn.mpg. de/div/pulsar/data/ http://www.obspm.fr/encycl/ encycl.html http://euve.gsfc.nasa.gov/ http://bass2000.bagn. obs-mip.fr/pageac\_ang.htm
http://heasarc.gsfc.nasa.gov/
http://archive.stsci.edu/ http://www-obs.univ-lyon1. fr/hypercat/ http://www.intermagnet.org/
http://irsa.ipac.caltech.edu/
http://dbc.nao.ac.jp/index. html.en http://ledas-www.star.le.ac. uk/ http://obswww.unige.ch/gcpd/ gcpd.html
http://www.ucm.es/info/ Astrof/invest/actividad/ spectra.html Lyon-Meudon Extraga- Base de données contenant des http://leda.univ-lyon1.fr/ lactic DAtabase (leda) paramètres physiques de plus de 100 000 galaxies
Webographie
687
Magellan Mission to Ve- Accès à l’intégrité des images de http://pds-imaging.jpl.nasa. nus – Image Browser la mission Magellan gov/PDS/public/magellan/ midrcd\_query.html McMaster Cepheid Pho- Données de photométrie et de vi- http://www.physics.mcmaster. tometry and Radial Ve- tesses radiales de céphéides galac- ca/Cepheid/ locity Archive tiques et extragalactiques Minor Planet Center Données astrométriques et orbites http://cfa-www.harvard.edu/ de comètes et de petits corps cfa/ps/mpc.html Multimission Archive at Grande variété d’archives astro- http://archive.stsci.edu/ STScI physiques principalement dans mast.html les bandes optiques, infrarouges proches et ultra violettes nasa National Space 36 TB de données numériques de http://nssdc.gsfc.nasa.gov/ Science Data Center 440 missions spatiales de la nasa nasa/ipac Extragalactic Accès à un grand nombre de http://nedwww.ipac.caltech. Database données extragalactiques déjà pu- edu/ bliées NCSA Astronomy Digi- Collection d’images astrono- http://imagelib.ncsa.uiuc. tal Image Library miques sous format fits edu/imagelib.html Open Cluster Database Information sur plus de 100 000 http://www.univie.ac.at/ étoiles appartenant à environ 500 webda/ amas ouverts pollux database of stel- Spectres stellaires optiques à http://www.isteem. lar spectra haute-résolution univ-montp2.fr/pollux/ SkyCat
Outil développé à l’eso permet- http://archive.eso.org/ tant la visualisation d’images et skycat/ l’accès à des catalogues astronomiques Space Telescope – Euro- Archive de toutes les observations http://www.stecf.org/ pean Coordinating Faci- scientifiques du hst lity TOPbase at CDS : The Niveaux d’énergie des éléments http://vizier.u-strasbg.fr/ Opacity Project les plus abondants en astrophy- OP.html sique UK Astronomy Data Sélection de données obtenues http://archive.ast.cam.ac.uk/ Centre avec des télescopes terrestres au Royaume-Uni VizieR Catalogue Ser- Accès à une libraire complète des http://vizier.u-strasbg.fr/ vice catalogues astronomiques publiés Washington Double Star Principale base de données astro- http://ad.usno.navy.mil/wds/ Catalog métriques de systèmes d’étoiles wds.html doubles et multiples Wide Field Plate Data- Information descriptive de don- http://www.skyarchive.org/ base nées photographiques grand champ stockées dans plusieurs endroits autour du monde X-Ray Astronomy Data Données de la mission rosat http://wave.xray.mpe.mpg.de/ Center at the Maxdata\_center Planck-Institute for Extraterrestrial Physics X-Ray WWW Server Accès à des bases de données http://xray.uu.se/ spectroscopiques en rayons X
688
L’observation en astrophysique
XMM-Newton catalogue Interface publique donnant accès http://xcatdb.u-strasbg.fr/ interface au catalogue des sources observées par XMM-Newton
Webographie
689
Journaux Nom Acta Astronomica
URL
http://www.astrouw.edu.pl/~udalski/acta. html Annual Reviews of Astronomy and Astrophy- http://astro.AnnualReviews.org/ sics ASP Conference Series http://www.astrosociety.org/pubs/cs/ confseries.html Astronomical Journal http://www.astro.washington.edu/astroj/ Astronomy & Geophysics http://www.blackwellpublishing.com/ journals/AAG/ Astronomy and Astrophysics http://www.edpsciences.org/journal/index. cfm?edpsname=aa Astronomy and Astrophysics Supplement Se- http://www.edpsciences.org/aas ries Astrophysical Journal http://www.noao.edu/apj/apj.html Astrophysical Journal Supplement http://www.noao.edu/apjsup/apjsup.html Astrophysics and Space Science http://www.wkap.nl/journalhome.htm/ 0004-640X Cambridge University Press http://www.cup.cam.ac.uk Classical and Quantum Gravity http://www.iop.org/Journals/cq/ ESO Publications http://www.eso.org/gen-fac/pubs/ IAU publications http://www.iau.org/IAU/Activities/ publications/ Icarus http://icarus.cornell.edu Journal of Astronomical Data http://www.vub.ac.be/STER/JAD/jad.htm Journal of Cosmology and Astroparticle Phy- http://www.iop.org/EJ/journal/JCAP/ sics Journal of Optics A : Pure and Applied Optics http://www.iop.org/Journals/oa Journal of the British Astronomical Associa- http://www.britastro.org/journal/ tion Journal of the Optical Society of America A http://ojps.aip.org/joao/ Journal of the Optical Society of America B http://ojps.aip.org/jobo/ Monthly Notices of the Royal Astronomical So- http://www.blackwellpublishing.com/ ciety journal.asp?ref=0035-8711 Nature http://www.nature.com/ New Astronomy http://www1.elsevier.com/gej-ng/10/33/29/ show/ New Scientist http://www.newscientist.com/ Observatory Magazine http://www.ulo.ucl.ac.uk/obsmag/ Optics Express http://www.opticsexpress.org/ Physical Review Letters http://ojps.aip.org/prlo/ Publications of the Astronomical Society of http://www.publish.csiro.au/nid/138.htm Australia Publications of the Astronomical Society of Ja- http://pasj.asj.or.jp/ pan Publications of the Astronomical Society of the http://www.journals.uchicago.edu/PASP/ Pacific - Electronic Edition journal/ Publications of the Astronomical Society of the http://pasp.phys.uvic.ca/ Pacific Science http://www.sciencemag.org/
690
L’observation en astrophysique
Recherche bibliographique Nom
URL
Astrophysics Data System e-print archive in Astrophysics (astro-ph, arXiv)
http://adswww.harvard.edu/ http://arxiv.org/archive/astro-ph/
Sources d’images Nom apm Galaxy Survey
Astronomy Picture of the Day
Big Bear Solar Observatory
CCD Images of Messier Objects Center for Earth et Planetary Studies Color Stereo Photos of Mars from the 2004 Rovers Comet Home Page Digital Archive of Historical Astronomy Pictures eso Photo Gallery - Astronomical Images Galaxy Zoo
Hubble Heritage Project
Hubble Space Telescope picture gallery Infrared Space Observatory Science Gallery ipac Image Gallery
jpl Planetary Photojournal Magellan Mission to Venus – Image Browser
Description Environ 2 millions de galaxies
URL
http://www-astro.physics. ox.ac.uk/~wjs/apm\_survey. html Une image d’astronomie diffé- http://antwrp.gsfc.nasa. rente pour chaque jour de la se- gov/apod/astropix.html maine Images du Soleil à plusieurs http://www.bbso.njit.edu/ longueurs d’onde actualisées tous les jours Images d’objets Messier obte- http://zebu.uoregon.edu/ nues avec plusieurs instruments messier.html Grand nombre d’images des http://www.nasm.si.edu/ planètes du système solaire ceps/ Images de la surface de Mars http://astro.uchicago. edu/cosmus/projects/ marsstereo/ Diverses informations sur les http://www.ifa.hawaii.edu/ comètes faculty/jewitt/comet.html Collection d’images historiques http://www42.pair.com/ infolund/bolaget/DAHAP/ Images obtenues avec des téles- http://www.eso.org/ copes de l’eso outreach/gallery/astro/ Projet visant à classer un grand http://www.galaxyzoo.org/ nombre de galaxies proches à l’œil Grand nombre d’images obte- http://heritage.stsci.edu/ nues avec le télescope spatial Hubble Images du télescope spatial http://www.ast.cam.ac.uk/ Hubble OpenDay/HST/ Images du satellite iso http://www.iso.vilspa.esa. es/science/ Images de plusieurs missions http://coolcosmos.ipac. spatiales en infrarouge caltech.edu/image\ _galleries/missions\ _gallery.html Images du système solaire http://photojournal.jpl. nasa.gov/ Images de la mission Magellan http://pds-imaging.jpl. nasa.gov/PDS/public/ magellan/midrcd\_query. html
Webographie
691
Messier Pages at seds
Images du catalogue Messier
Multiwavelength Atlas of Ga- Images de quelques galaxies laxies proches à plusieurs longueurs d’onde Multiwavelength Milky Way Images de la Voie Lactée à plusieurs longueurs d’onde nasa jsc Digital Image Collec- Images de quelques missions de tion la nasa noao Image Gallery Images obtenues avec le télescope du noao nssdc Photo Gallery Collection d’images classées par type d’objet astrophysique Radio Galaxy Images
and
http://www.seds.org/ messier/ http://astronomy.swin.edu. au/staff/gmackie/atlas/ atlas\_edu.html http://adc.gsfc.nasa.gov/ mw/milkyway.html http://images.jsc.nasa. gov/ http://www.noao.edu/image\ _gallery/ http://nssdc.gsfc.nasa. gov/photo\_gallery/ photogallery.html http://www.cv.nrao.edu/ ~abridle/images.htm
Quasar Images de sources radio extra galactiques obtenues avec le vla Two Micron All Sky Survey Image du survey 2mass http://www.ipac.caltech. (2mass) Image Gallery edu/2mass/gallery/
692
L’observation en astrophysique
Éducation Associations et organismes Nom
Description
Astronomical Society of the Éducation en astronomie Pacific European Association for As- Association ayant pour but de tronomy Education développer et propager l’enseignement de l’astronomie La main à la pâte Aide aux enseignants pour mettre en place un enseignement scientifique de qualité Hands On Universe Programme éducatif visant à faire découvrir l’Univers aux étudiants Palais de la Découverte Activités du Palais de la Découverte à Paris
URL http://www.astrosociety. org/ http://www.algonet.se/ ~sirius/eaae.htm http://www.inrp.fr/lamap/
http://www.hetsonuniverse. org/ http://www. palais-decouverte.fr/ discip/astro/astro.htm
Sites éducatifs A website for popularization of Astrophysics and Astronomy A knowledge for extragalactic astronomy and cosmology Astrocentral
Quelques leçons d’astronomie de base Documents autour de l’astronomie extragalactique Vulgarisation
Astronomy In Your Hets
Proposition d’activités d’enseignement Atlas of the Universe Vision d’ensemble des différentes échelles de l’Univers Constellations and Their Stars Une page pour chaque constellation Curious About Astronomy ? Permet de poser des questions Ask an Astronomer à des astronomes professionnels Everyday Physics Questions-Réponses
Falling into a Black Hole Imagine the Universe
Quelques renseignements sur la physique autour d’un trou noir Site d’astronomie pour enfants
Infrared Astronomy Tutorial
Autour de l’astronomie infrarouge Introduction à l’Astronomie Introduction aux différents domaines de l’astronomie Kepler’s Laws with Animation Introduction aux lois de Kepler avec quelques précisions historiques map Introduction to Cosmology Une introduction à la cosmoloPage gie nasa Spacelink Site éducatif de la nasa Ned Wright’s Cosmology Tuto- Cours de cosmologie rial
http://www.astrophysical. org/ http://nedwww.ipac. caltech.edu/level5/ http://www.astrocentral. co.uk http:// astronomyinyourhets.com/ http://anzwers.org/free/ universe/ http://www.astro.wisc.edu/ ~dolan/constellations/ http://curious.astro. cornell.edu/ http://www.physics.uwo.ca/ everyday-physics/index. html http://casa.colorado.edu/ ~ajsh/schw.shtml http://imagine.gsfc.nasa. gov/ http://coolcosmos.ipac. caltech.edu/ http://www.astronomes.com/ http://www.cvc.org/ science/kepler.htm http://map.gsfc.nasa.gov/ m\_uni.html http://spacelink.msfc. nasa.gov/ http://www-cosmosaf.iap. fr/Wright.htm
Webographie
693
sci.astro Frequently Asked Quelques réponses à des quesQuestions tions fréquemment posées Science Fiction Stories Using Apprentissage de l’astrophyGood Astronomy sique à travers la science fiction Space Time Travel
StarChild Windows to the Universe
Astronomiae Historia Galileo Project
http://sciastro.astronomy. net/ http://www.astrosociety. org/education/resources/ scifi.html Illustrations par des simula- http://www. tions de quelques prédictions spacetimetravel.org de la relativité générale Leçons de base pour enfants http://starchild.gsfc. nasa.gov/ Site général d’astronomie http://www.windows.ucar. edu/ Histoire de l’Astronomie Histoire générale de l’astronomie Autour du personnage de Galilée
http://www.astro.uni-bonn. de/~pbrosche/astoria.html http://www.rice.edu/ Galileo/
694
L’observation en astrophysique
Informatique et astronomie Description
URL
Environnement de travail Commandes de base unix http://mally.stanford.edu/~sr/computing/ basic-unix.html Traitement de texte Latex http://www.latex-project.org/ Une introduction à Latex http://www.maths.tcd.ie/~dwilkins/ LaTeXPrimer/ Symboles mathématiques latex http://web.ift.uib.no/Fysisk/Teori/KURS/WRK/ TeX/symALL.html Éditeurs de texte (programmation) Emacs http://www.gnu.org/software/emacs/ Une introduction à Emacs http://www2.lib.uchicago.edu/~keith/ /tcl-course/emacs-tutorial.html idl sous Emacs http://idlwave.org/ Logiciels de traitement de données Matlab Octave (Version gratuite de Matlab) IDL Une introduction à IDL
http://mathworks.com http://www.gnu.org/software/octave/ http://www.ittvis.com/index.asp http://nstx.pppl.gov/nstx/Software/IDL/idl\ _intro.html Libraire de routines IDL utiles en astronomie http://idlastro.gsfc.nasa.gov/contents.html GDL (Version gratuite de IDL) http://gnudatalanguage.sourceforge.net/ IRAF http://iraf.noao.edu/ Python http://www.python.org/ Représentations graphiques Gnuplot http://www.gnuplot.info/ SuperMongo http://www.astro.princeton.edu/~rhl/sm/
Webographie
695
Ressources Nom Astronomical Internet Resources Astronomy resources on the Internet AstroWeb at CDS : yellow-page Services WebStars
URL http://www.stsci.edu/resources/ http://www.cv.nrao.edu/fits/www/astronomy.html http://cdsweb.u-strasbg.fr/astroweb.html http://heasarc.gsfc.nasa.gov/docs/www\_info/ webstars.html
This page intentionally left blank
Sigles et acronymes Pour plus de lisibilité, la plupart des acronymes sont donnés en lettres capitales. AAT ACS AIPS ALMA am AMANDA AMBER ANTARES ASE ASIC AVO AXAF BAT BATSE BDL BIB BIH BIMA BIPM CAO CARMA CAT CCD CDA CEA CID CFRS CFHT CHARA CIA CIAXE
Anglo-Australian Telescope Advanced Camera for Surveys Astronomical Image Processing System Atacama Large Millimeter Array ante meridiem Antartic Muon And Neutrino Detector Array Astronomical Multi-Beam Combiner Astronomy with a Neutrino Telescope and Abyss environmental Research Agence Spatiale Européenne (cf. ESA) Application Specific Integrated Circuit Astronomical Virtual Observatory Advanced X-ray Astronomical Facility Burst Alert Telescope Burst And Transient Source Experiment Bureau des Longitudes Blocked Impurity Band (Bande d’impuretés bloquée) Bureau International de l’Heure Berkeley Illinois Maryland Array Bureau International des Poids et Mesures Conception Assistée par Ordinateur Combined Array for Research in Millimeter-wave Astronomy Cerenkov Array at Themis Charge Coupled Device (Dispositif à Transfert de Charges) Centre de Données Astronomiques (Strasbourg) Commissariat à l’Énergie Atomique Charge Injection Device (Dispositif à injection de charges) Canada-France Redshift Survey Canada France Hawaii Telescope Center for High Angular Resolution Astronomy Coronographe Interférométrique Achromatique Coronographe Interférométrique Achromatique Axé
698 CIB CINECA CLV CMA CMB CMOS CNES CNOC CNRS COAST COB COBE COMBO COROT CRIRES CSO DAO DARA DAT ddp DENIS DEIMOS DIMM DIVA DLR DORIS DQE DRO DSB DSP DTC DUMAND DVR EBCCD EBS ECU EGO EGRET ELT E-ELT
L’observation en astrophysique Cosmic Infrared Background Consorzio Interuniversitario per il Calcolo Automatico dell’Italia Nord Orientale Center-to-Limb Variation Channel Multiplier Array Cosmic Microwave Background Complementary Metal Oxyde Semiconductor Centre National d’Études Spatiales Canadian Network for Observational Cosmology Centre National de la Recherche Scientifique Cambridge Optical Array Synthesis Telescope Cosmic Optical Background COsmic Background Experiment Classifying Objects by Medium Band Observation Convection, Rotation et Transits planétaires Cryogenic High Resolution Infrared Echelle Spectrograph CalTech Submillimeter Observatory Dessin Assisté par Ordinateur Deutsche Agentur für Raumfahrt Angelegenheiten (Allemagne) Digital Audio Tape différence de potentiel Deep Near Infrared Survey Deep Imaging Multi Object Spectrograph Differential Monitor Deutsches Interferometer für Vielkanalphotometrie und Astrometrie Deutsches Luft- und Raumfahrt Détermination d’Orbite et Radiopositionnement Intégré par Satellite Detective Quantum Efficiency (Efficacité quantique de détection) Direct Read Out Double Side Band Densité Spectrale de Puissance Dispositif à Transfert de Charges Deep Underwater Muons And Neutrinos Detector Direct Voltage Read-out Electron Bombarded Charge Coupled Device Electron Bombarded Silicon European Currency Unit European Gravitation Observatory Energetic Gamma Ray Experiment Telescope Extremely Large Telescope European Extremely Large Telescope
Sigles et acronymes éqm ESA ESO ESRF ETL EUV EVN FAME FEP FET FFT FGRS FI FIRAS FIRST FK FOC FORS FP FT FTM FTS FU FUSE FWHM GAIA GALLEX GFF GHz GI2T GLAO GLAST GLONASS GMRT GNO GPS HALCA HARPS HCRF HDF HEAO
écart quadratique moyen European Space Agency (cf. ASE ) European Southern Observatory (Observatoire européen austral) European Synchrotron Research Facility Équilibre Thermodynamique Local (cf. LTE ) Extreme Ultra Violet European VLBI Network Full Sky Astrometric Mapping Explorer Fonction d’Étalement de Point (cf. PSF ) Field Effect Transistor (cf. TEC ) Fast Fourier Transform (2D) Field Galaxy Redshift Survey Fréquence Intermédiaire Far InfraRed Astronomical Spectrometer Far InfraRed Space Telescope Fundamental Katalog Faint Object Camera (Hubble) Focal Reducer and Spectrograph Fabry Perot Fourier Transform Fonction de Transfert de Modulation (cf. MTF ) Fourier Transform Spectrometer (Spectromètre à Transformée de Fourier) Flux Unit to Ultraviolet Spectroscopic Explorer Full Width at Half Maximum (largeur à mi-hauteur) Global Space Astrometry Gallium Experiment Giga Francs Français ou milliards de francs GigaHertz Grand Interféromètre à deux Télescopes Ground Layer Adaptive Optics Gamma ray Large Area Space Telescope GLObal’naya NAvigatsionnaya Sputnikovaya Sistema Giant Meter Radio Telescope Gallium Neutrino Observatory Global Positioning System Highly Advanced Laboratory for Communications and Astronomy High Accuracy Radial velocity Planet Searcher Hipparcos Celestial Reference Frame Hubble Deep Field High Energy Astronomical Observatory
699
700 HEB HEMT HESS HETG HIPPARCOS HPBW HRS HST HURA IAU IBC IBIS ICRF ICRS IDL IDRIS IF INSU IOTA IPCS IR IRAC IRAF IRAM IRAS ISGRI ISI ISO ISS IUE JCMT JD JSET JWST KAO KI LAMOST LBT LGS LIDAR LIGO LISA LO
L’observation en astrophysique Hot Electron Bolometer High Electron Mobility Transistor High Energy Stereoscopic System High Energy Transmission Spectrometer HIgh Precision PARallax COllecting Satellite Half Power Beam Width High Resolution Spectrograph (Hubble Space Telescope) Hubble Space Telescope Hexagonal Uniform Redundant Array International Astronomical Union (cf. UAI ) Impurity Band Conduction Imager on Board Integral International Celestial Reference Frame International Celestial Reference System Interactive Data Language Institut du Développement et des Ressources en Informatique Scientifique Intermediate Frequency (cf. FI) Institut National des Sciences de l’Univers Infrared Optical Telescope Array Image Photon Counting System InfraRouge Infra Red Camera Image Reduction and Analysis Facility Institut de RadioAstronomie Millimétrique InfraRed Astronomy Satellite Integral Soft Gamma Ray Imager Infrared Spatial Interferometer Infrared Space Observatory International Space Station International Ultraviolet Explorer James Clerk Maxwell Telescope Julian Day (jour julien) Junction Supraconducting Effect Transistor James Webb Space Telescope Kuiper Airborne Observatory Keck Interferometer Large Meter Optical Spectroscopy Telescope Large Binocular Telescope Laser Guide Star LIght Detection And Ranging Laser Interferometer Gravitational wave Observatory Large Interferometric Space Antenna Local Oscillator (cf. OL)
Sigles et acronymes LOFAR LSR LTE MACAO MAMA MAP MAXIM MC MCAO MEM MEMS MFF MHD MIDAS MIDI MIRA MIS MIS MISTRAL
MMT MOS MPG MRO MTF MUC MURA MV NACO NAOS NASA NASDA NBS NEC NEF NEMO NEP NESTOR NGC NGS NICMOS
701
Low Frequency Array Local Standard of Rest Local Thermodynamic Equilibrium (cf. ETL) Multi Application Curvature Adaptive Optics Machine À Mesurer pour l’Astronomie (France) voir WMAP Micro Arcsecond X-ray Imaging Mission Moindres Carrés Multi Conjugate Adaptive Optics Maximum Entropy Method Micro Electro Mechanical System MegaFrancs Français ou Millions de Francs Français MagnetoHydro Dynamique Münich Interactive Data Analysis System Mid-Infrared Interferometric Instrument Mitaka Optical InfraRed Interferometer Milieu InterStellaire Métal Isolant Semiconducteur (Metal Insulator Semiconductor) Myopic Edge-Preserving Image Restoration Method, with Application to Astronomical Adaptive-Optics-Corrected Long-Exposure Images MultiMirror Telescope Métal Oxyde Semiconducteur (Metal Oxyde Semiconductor) Max-Planck Gesellschaft Magdalena Ridge Observatory Modulation Transfer Function (cf. FTM ) Millions d’Unités de Compte (Europe) Modified Uniform Redundant Array Maximum de Vraisemblance Naos-Conica Nasmyth Adaptive Optics System National Aeronautic and Space Administration (États-Unis) National Air and Space Development Agency (Japon) National Bureau of Standards Noise Equivalent Charge Noise Equivalent Flux Neutrino Ettore Majorana Observatory Noise Equivalent Power Neutrino Extended Submarine Telescope with Oceanographic Research New General Catalog Natural Guide Star Near Infrared Camera for MultiObject Spectrograph
702 NOAO NPOI NRAO NSF NSO NTT OAO OCDE OHANA OL OVRO OVLA PACS PAPA PC PhD PIAA PICSIT PM pm PMM POSS POST ppb ppm PSD PSR PSS QSO RADAR RENATER RF RGS RISC rms ROSAT ROSITA RQE SAGE SALT SAO SCIDAR
L’observation en astrophysique National Optical Astronomy Observatory (États-Unis) Navy Prototype Optical Interferometer National RadioAstronomy Observatory (États-Unis) National Science Foundation National Solar Observatory New Technology Telescope Orbiting Astronomical Observatory Organisation de Coopération et de Développement Économique Optical Hawaiian Array for Nanoradian Astronomy Oscillateur Local Owens Valley Radio Observatory Optical Very Large Array Photodetector Array Camera and Spectrometer (mission Herschel) Precision Analog Photon Address Photo Conducteur Philosophical Degree (Doctorat) Phase Induced Amplitude Apodization Pixelated CsI Telescope (mission Integral) Photo Multiplier post meridiem Precision Measuring Machine Palomar Optical Sky Survey POlar Stratospheric Telescope partie par milliard (billion) partie par million Pulse Shape Discrimination pulsar Palomar Sky Survey Quasi Stellar Object (quasar) RAdio Detection and Ranging Réseau National de la Recherche et de la Technologie Radio Fréquence Resolution Grating Spectrometer (mission X) Reduced Instruction Set Computer root mean square (cf. éqm) Roentgen Space Astronomical Telescope Roentgen Survey with an Imaging Telescope on the ISS Rendement Quantique Equivalent Russian American Gallium Experiment South African Large Telescope Smithsonian Astronomical Observatory SCIntillation Detection and Ranging
Sigles et acronymes SDSS SEC SERC SIM SIN SINFONI SIS SIT SKA SMA SNO SNR SNU SODAR SOFIA SOHO SPAN SPI SPIRE SPOT SQUID SSB SSPM STJ STP TAI TCP TDRSS TE TEC TF THz TIMMI TMT TPF TU TV TUC UAI UC UCAC UHF UKIRT
Sloane Digital Sky Survey Secondary Electron Conduction Science and Engineering Research Council (UK) Space Interferometry Mission Superconductor Insulator Normal Spectrograph for Integral Field Observation in the Near Infrared Superconductor Insulator Superconductor Silicon Intensified Target Square Kilometer Array Sub Millimeter Array Sudbury Neutrino Observatory SuperNova Remnant Solar Neutrino Unit Sonic Detection And Ranging Stratospheric Observatory for Far Infrared Astronomy Space HelioSpheric Observatory Space Physics Analysis Network Spectrometer on Integral (γ mission) Spectral and Photometric Imaging Receiver Satellite Probatoire d’Observation de la Terre Superconducting Quantum Interference Device Single Side Band Solid State Photo Multiplier Superconducting Tunnel Junction Standard Temperature Pressure Temps Atomique International Transmission Control Protocol Transmission Data and Relay Satellite System Temps des Éphémérides Transistor à Effet de Champ (cf. FET ) Transformée de Fourier TéraHertz Thermal Infrared Multi Mode Instrument Thirty Meter Telescope Terrestrial Planet Finder Temps Universel Télévision Temps Universel Coordonné (cf. UTC ) Union Astronomique Internationale (cf. UAI ) Unité de Compte (européenne) USNO CCD Astrograph Catalog Ultra High Frequency United Kingdom InfraRed Telescope
703
704 USNO UT UTC UV UVES VESPA VIMOS VISIR VLA VLBI VLT VLTI VSOP VVDS WFPC WMAP XMM ZIMPOL ZOG
L’observation en astrophysique United States Naval Observatory Universal Time Universal Time Coordinated (cf. TUC ) Ultra Violet Ultra Violet Echelle Spectrograph Versatile Spectrometer Assembly Visible Multiple Object Spectrograph VLT Imager and Spectrometer in the InfraRed Very Large Array Very Long Baseline Interferometry Very Large Telescope Very Large Telescope Interferometer VLBI Space Observatory Program Vimos Vlt Deep Survey Wide Field Planetary Camera Wilkinson Microwave Anisotropy Probe X-ray Multimirror Mission Zurich Imaging Polarimeter Zero Order Grating
Petit lexique « anglais »-français Le lecteur aura noté que le texte ne se prive pas de donner les équivalents anglais de certains termes fréquents. De même, la bibliographie en anglais, y compris d’auteurs francophones, est abondante. L’anglais est devenu la langue mondiale de communication scientifique et, ayant pris acte de ce fait, il convient d’utiliser cette langue au mieux. Mais le jargon oral qui mélange le français et l’anglais est désastreux, aussi proposons-nous ici des équivalents corrects à un certain nombre de termes trop fréquemment utilisés (les termes en italique n’existent dans aucune des deux langues). (to) fit, fitter : (to) boost, bouster : (to) scan, scanner : offset, offsetter : glitch : survey : flat field, flatfilder : shear : (to) cut, faire un cut : e-mail, mail : redshift, redshifter :
ajuster, ajustement augmenter, accroître balayer biais de mesure, décaler canular cartographie, carte, relevé champ plat, faire un champ plat cisaillement couper, faire une coupe courrier, message, mot, émail ( ?) décalage, décalage spectral, (décaler) vers le rouge (to) deredden : dérougir feature, fitchure : détail cross-talk : diaphonie, diaphotie raw data : données brutes training : entraînement (to) list, lister : énumérer background : fond de rayonnement bunching : groupement (de photons) free-free : libre-libre (to) smooth, smousser : lisser airglow : fluorescence, luminescence blend, raie blendée : mélange chopping, to chop, chopper : modulation, moduler digitaliser : numériser
706 dark (faire un – !) : aliasing : reddening : seeing : gap : speckle : on-off : remote sensing : (to) plot, plotter : processing, processer : (to) shift, shifter ou chiffter : quick look :
L’observation en astrophysique obscurité (mesurer le courant d’–) repliement de spectre rougissement qualité d’image (seeing) seuil, saut, gap (toléré) tavelure technique de soustraction télédétection tracer traitement, traiter translater, déplacer visualisation en temps réel
Bibliographie Afin de conserver à cet ouvrage son caractère de manuel, le choix est fait de ne signaler, dans le corps du livre, qu’un nombre limité de références – livres ou articles –, explicitement données. La présente bibliographie complète ces références par celles d’ouvrages et d’articles, principalement de revue, considérés comme fondamentaux. Ils sont organisés par thématiques, en rubriques et sous-rubriques, lesquelles ne recouvrent pas nécessairement les titres des chapitres du livre. Nous n’avons pas inclus les atlas, que l’on trouvera en particulier dans la bibliographie cfht ci-dessous. Les sources bibliographiques générales qui suivent peuvent être consultées, avec un accès par mots-clefs, permettant une recherche ciblée extrêmement performante. Ces sources demandant parfois un mot de passe, leur accès doit alors être recherché par le truchement d’une bibliothèque universitaire ou de recherche. – Base enterBooks.com. Recherches bibliographiques d’ouvrages, avec accès en français, anglais ou espagnol. Adresse en ligne : www.enterbooks.com. – Catalogue du système universitaire français de documentationsudoc. Recherches bibliographiques d’ouvrages, en accès libre. Adresse en ligne : www.sudoc.abes.fr. – Bibliothèque de l’Observatoire de Paris. Catalogue très complet et spécialisé en astronomie. Adresse en ligne : www.bibli.obspm.fr. – Bibliothèques de l’Observatoire Européen Austral (eso). Une collection exceptionnelle d’ouvrages et de revues professionnelles. Adresse en ligne : http ://libhost.hq.eso.org :8088/uhtbin/webcat. – Base sao/nasa Astrophysics Data System - Centre de données astronomiques de Strasbourg (cds). Accès professionnel et incontournable à l’ensemble des journaux scientifiques. Adresse en ligne : http ://cdsads.u-strasbg.fr. – Données bibliographiques du Centre national de la recherche scientifique (cnrs) - Institut national des sciences de l’univers
708
L’observation en astrophysique (insu). Accès aux sources, ainsi qu’aux archives ouvertes (hal, ArXiv). Adresse en ligne : http ://biblioplanets.inist.fr.
– Bibliographie de base en astronomie, (Core list of astronomy books). Cette bibliographie de qualité, en anglais, est rassemblée par un consortium, placé sous la responsabilité de Mrs. L. Bryzon, Société du Télescope Canada-France-Hawaii (cfht). Dernière mise à jour en 2003. Adresse en ligne : ads.harvard.edu/books/clab/. Les outils et méthodes de l’observation astronomique évoluant avec une grande rapidité, beaucoup de références utiles ne figurent pas dans des ouvrages didactiques, mais dans des actes de conférences. Ceux-ci, tout en offrant l’actualité d’un sujet et des contributions originales, n’ont pas toujours le degré de synthèse d’un ouvrage, ni la validation d’un article publié dans un journal possédant des relecteurs. Néanmoins, parmi ces séries d’actes, signalons-en quelques unes particulièrement importantes, que nous citons plus bas de façon générique dans les rubriques détaillées par sujets. – Experimental Astronomy, bonne revue à relecteurs, publiée par Springer et rassemblant les publications liées aux aspects expérimentaux de l’observation astronomique. – European Astronomical Society Publication Series (eas). La série débute en 2001 et est accessible en ligne. Adresse : www.eas-journal.org . – Astronomical Society of the Pacific Conference Series (asp). Tous les titres publiés après 2003 sont disponibles en e-books. Adresse : www.aspbooks.org . – spie. Société professionnelle et commerciale (États-Unis), fondée en 1955 sous le nom de Society of Photographic Instrumentation Engineers. Seul l’acronyme est utilisé aujourd’hui. La spie Digital Library contient en particulier un sous-ensemble intitulé Astronomy and astronomical optics, rassemblant un très grand nombre d’actes de conférences, de niveau parfois inégal mais très à jour, qui concernent l’observation astronomique, au sol et dans l’espace,les télescopes, leur instrumentation, etc. Les sous-ensembles Electronic Imaging and Processing et Optics and Electro-optics peuvent également apporter des informations utiles. Adresse en ligne : spiedigitallibrary.aip.org/.
Ouvrages généraux Annual Review of Astronomy and Astrophysics. Annual Reviews Series. Volume annuel, publié depuis 1963, comprenant une dizaine d’articles de revue, en général excellents. Le point sur les techniques et méthodes observationnelles y est régulièrement fait. Cette référence est désignée par
Bibliographie
709
ARAA, (année, volume) dans cet ouvrage et dans les références bibliographiques ci-dessous. The Astronomy & Astrophysics Review, Springer, Berlin. Symétrique européen du précédent, publié depuis 1989, édité par Th. Courvoisier sous forme de plusieurs volumes chaque année. Cette revue contient peu d’articles de revue portant sur les outils de l’observation en astronomie. The Astronomy & Astrophysics Encyclopædia, Maran S.P. Ed., Van Nostrand, New York, 1992. Un excellent ouvrage de synthèse encyclopédique, donnant une présentation approfondie ainsi qu’une bibliographie de tous les thèmes de l’astrophysique et abordant les grands outils d’observation. Encyclopedia of astronomy and astrophysics, Murdin, P. Ed., 4 vol., Institute of physics„ Londres, 2001. Encyclopédie professionnelle de grande qualité, tenue à jour et accessible en ligne : http ://eaa.crcexpress.com . Dictionnaire de l’astronomie, Encyclopedia Universalis & Albin Michel, Paris, 1999. SERRES M. & FAROUKI N. (ÉD.), Le Trésor. Dictionnaire des sciences, Flammarion, 1996. ALLEN C. W., Astrophysical Quantities, Cox, A. (ed.), Springer, 4e éd., 2000. Définition des grandeurs indispensables, valeurs numériques, constantes utiles. Cette référence, fondamentale pour tout astronome, est désignée par AQ dans cet ouvrage. DANJON A., Astronomie Générale, Blanchard, 1985. Beaucoup d’informations et de pédagogie, mais les méthodes numériques sont dans l’ensemble dépassées et inadaptées à la précision et aux moyens de calcul actuels. HARWIT M., Astrophysical Concepts, Springer, 2000. Un excellent ouvrage de référence, présentant les principaux concepts de physique utilisé en astrophysique. HEYVAERTS, J., Astrophysique. Étoiles, univers et relativité, Dunod, Paris, 2003. Excellent manuel de présentation de l’astrophysique, de niveau master et doctorat, accompagné d’exercices. LANG K. R., Astrophysical Formulae, Astronomy & Astrophysics Library, Springer, 3e éd., 1999, 2 volumes, ré-impression en 2006. Un compendium des outils physiques de base, intervenant dans les principaux problèmes de l’astrophysique. Cette référence fondamentale est désignée par AF dans cet ouvrage. PECKER J. C., SCHATZMAN E., Astrophysique générale, Masson, Paris, 1959. Ouvrage de référence, fondamental mais ancien, où la partie consacrée à l’observation est une bonne description de l’astronomie classique des années 1960.
710
L’observation en astrophysique
Ouvrages historiques HAWKING, S., Sur les épaules de géants, Dunod, Paris, 2003, traduit par Lachèze-Rey, M. Les grands textes fondateurs de l’astronomie. HOCKEY, T. et al. The Biographical Encyclopedia of Astronomers, Springer, 2 volumes, 2007. Ce livre présente plus de mille notices biographiques d’astronomes, depuis les temps historiques jusqu’à la période contemporaine. LANG K. R., GINGERICH O., A Source Book in Astronomy and Astrophysics 1900–1975, Harvard University Press, 1979. Collection d’articles princeps majeurs, portant en particulier sur les progrès les plus considérables en méthodes d’observation et sur les découvertes qui y sont associées. VERDET, J.P., Astronomie et astrophysique, Larousse, Paris, 1993. Collection d’articles princeps majeurs, commentés et replacés dans leur contexte historique. WALLERSTEIN G., OKE J.B., The First 50 Years at Palomar, 1949-1999, Another View : Instruments, Spectroscopy and Spectrophotometry in the Infrared, ARAA, 38, 113-141, 2000. La plupart des volumes annuels de ARAA contiennent un article initial, dans lequel un éminent astronome, des États-Unis le plus souvent, propose un récit personnel de son existence de chercheur et de ses contributions. Ces témoignages dessinent ainsi une partie de la féconde histoire de l’astronomie au XXe siècle.
Terminologie et vocabulaire Conseil International de la Langue française, Vocabulaire d’astronomie, Hachette, 1980. Une bonne introduction à la terminologie en langue française. HECK A., Star Briefs 2001 : a dictionnary of abbreviations, acronyms and symbols in astronomy and related space sciences, Kluwer, 2000. HOPKINS J., Glossary of Astronomy and Astrophysics, University of Chicago Press, 2e éd., 1980. Introduction, assez physique, à la terminologie anglosaxonne. LANG K.R., A Companion to Astronomy and Astrophysics : Chronology and Glossary with Data Tables, Springer, 2006. Desktop Publishing in Astronomy et Space Sciences, Heck A. Ed., World Scientific Publishing, Singapour, 1992.
Bibliographie
711
HECK A., HOUZIAUX L. Future professional communication in astronomy, Académie royale de Belgique, 2007. Une analyse détaillée de l’évolution des modes de publication avec l’entrée dans l’ère numérique.
Politiques de recherche en astronomie HECK A. StarGuides2001 : a world-wide directory of organizations in astronomy, related space sciences and other related fields, Kluwer, 2003. Un guide précieux et pratique de l’ensemble des centres de recherche et d’observation, avec leurs références, leurs adresses, etc. Cosmic Vision 2015-2025, Agence spatiale européenne, 2008, www.esa.int/esaCP/index.html. Conclusions d’orientation et de choix, portant sur les missions spatiales astronomiques de l’Agence spatiale européenne pour la décennie citée. Towards a strategic plan for European astronomy, Réseau européen Astronet, 2006. Document disponible sur www.astronet-eu.org. Publié également en ouvrage, cf. la rubrique suivante. Résultat d’une vaste concertation sur les objectifs et les moyens de l’astronomie européenne au sol et dans l’espace. BONNET R. M. & MANNO V., International Cooperation in Space – The Example of esa, Harvard University Press, 1994. Une réflexion sur la politique scientifique spatiale européenne. DE ZEEUW T., A science vision for European astronomy, Astronet, 2007. WOLTJER L., Europe’s quest for the universe, EDP, Paris, 2006. Un panorama très complet de la renaissance de l’astronomie européenne dans la seconde moitié du XXe siècle, tant au sol que dans l’espace. Séminaire de prospective spatiale, Centre national d’études spatiales, Paris, 2005. Rapport final (2004) de la prospective pour la recherche scientifique spatiale avec un chapitre important sur les sciences de la Terre et de l’univers. Colloque de prospective en astronomie, Institut national des sciences de l’univers, Centre national de la recherche scientifique, 2003 & Prospective miparcours, 2006, cnrs, Paris. L’Astronomie, Série : Le Forum Mégascience de l’OCDE, Paris, 1993. Une analyse prospective des grands programmes (sol et espace) de l’astronomie mondiale. Perspectives de l’OCDE de la science, de la technologie et de l’industrie, ocde, Paris, 2006. Tours d’horizon annuels des tendances clés et des politiques publiques des pays membres.
712
L’observation en astrophysique
Rapport mondial sur la science, unesco, Paris, 2005. Une vision globale du développement scientifique dans le monde, et en particulier de l’astronomie. Astronomy and astrophysics in the new millenium, National Academies (États-Unis), National Academic Press, 2001. Rapport d’orientation de l’astronomie (sol et espace) aux États-Unis, préparé tous les dix ans. Towards Creation of Space Age in the New Century. Reports on Japan’s Space Long-term Vision, Space Activities Commission, Tokyo, 1996, www.mext.go.jp/english/kaihatu/aerosp01.htm. Une analyse prospective du programme spatial au Japon.
L’observation en astrophysique Modern Technology and its Influence in Astronomy, Wall J. V. & Boksenberg A. Eds., Cambridge University Press, New York, 1990. Un ouvrage collectif montrant les orientations, notamment en imagerie et détection du rayonnement. Les hautes technologies au service de l’astrophysique, Giard M., Encrenaz P., Capitaine N. Eds. Comptes-rendus Acad. Sc., 1, 1210-1355, 2000. Compendium of practical astronomy, Roth G. D. Ed., Vol. I, II et III, Springer Verlag, New York, 1994. Un ouvrage extrêmement complet formé de contributions individuelles avec de nombreuses références. Le premier volume est plus spécialement dédié à l’observation, ses outils et ses techniques. Star formation & Techniques in Infrared and mm-Wave Astronomy, Ray T. P. & Beckwith S. V. W. Eds., Lecture Notes in Physics, 431, Springer Verlag, New York, 1994. Excellent ouvrage didactique, portant sur les techniques d’observation dans l’infrarouge et le submillimétrique, produit par le Réseau Doctoral Européen en Astrophysique (eadn). Voir notamment les articles de S. Beckwith, J. P. Emerson et C. Leinert traitant des télescopes, détecteurs, effets atmosphériques, interférométrie et optique adaptative. BRADT H., Astronomy Methods, Cambridge University Methods, 2004. HARWIT M., Progrès et découverte en astronomie, Masson, Paris, 1983 (traduit de l’anglais). Excellent ouvrage, situant en particulier comment les capacités observationnelles ont conditionné les découvertes faites en astrophysique. KITCHIN C.R., Astrophysical techniques, Taylor & Francis, 4ème éd., 2003. Exploring the cosmic frontier : astrophysical instruments for the 21st century, Lobanov A.P. et al (Eds.), Springer, 2008.
Bibliographie
713
REBOUL H., Introduction à la théorie de l’observation en astrophysique, Masson, Paris, 1979. Livre relativement élémentaire, formant une bonne introduction aux notions traitées dans cet ouvrage. ROHLFS K., Tools of Radioastronomy, Springer Verlag, New York, 1987. SMITH R.C., Observational astrophysics, Cambridge University Press 1995. Ce livre a « emprunté » le titre de l’ouvrage de LENA, P., édition antérieure du présent ouvrage, publiée chez Springer en 1988. WALKER G., Astronomical Observations – An optical perspective, Cambridge University Press, 1987. spie Digital Library. Instrumentation in Astronomy, CDP27, deux cédéroms présentant un ensemble d’articles marquant sur le sujet, parus dans les volumes spie, 2002.
Photométrie astronomique BESSELL M.S., Standard Photometric Systems, ARAA, 43, 293-336, 2005. BUDDING E. & DEMIRCAN O., Introduction to Astronomical Photometry, Seconde édition, Cambridge University Press, 2007. STERKEN C. & MANFROID J., Astronomical Photometry : a Guide, Kluwer, 1992. Ouvrage de référence clair et complet. TINBERGEN J., Astronomical Polarimetry, Cambridge University Press, 1996.
Atmosphère terrestre Structure et propriétés VALLEY S., Handbook of Geophysics and Space Environnement, McGrawHill, New York, 1965. Cet ouvrage est une bonne référence générale pour toutes les propriétés et valeurs numériques associées à l’atmosphère et à l’environnement spatial de la Terre. HOUGHTON J. T., The Physics of the Atmosphere, Cambridge University Press, 1977. Excellente monographie introductive sur la physique et la dynamique de l’atmosphère. HUMPHREYS W. J., Physics of the Air, Dover Publish. Inc., 1964. Ouvrage ancien (1920), mais de réédition plus récente, qui contient une bonne description élémentaire de nombreux phénomènes météorologiques et atmosphériques.
714
L’observation en astrophysique
SALBY M.L. Fundamentals of Atmospheric Physics, International Geophysics Series, vol. 61, Academic Press, New-York, 1996. Excellent ouvrage didactique portant sur les propriétés fondamentales de l’atmosphère terrestre.
Rayonnements atmosphériques et interplanétaires GOODY R. M., Atmospheric Radiation, Cambridge University Press, 1977. MCCORMAC B. M., The Radiating Atmosphere, Reidel, Dordrecht, 1971. REACH F. E. & GORDON J. L., The Light of the Night Sky, Reidel, Dordrecht, 1973. Optics of cosmic dust, Videen G., Kocifaj M. (Eds.), NATO Workshop, Kluwer, 2002. Interplanetary Dust, Grün E., Gustafson B.A.S., Dermott S. (et al.) (Eds.), Springer, 2001. Scattering in the Atmosphere (Selected Papers on), S.P.I.E., MS 07, 1989. Une collection d’articles fondamentaux sur la diffusion atmosphérique. spie Digital Library. Voir les volumes d’actes de conférences dans la catégorie Atmospheric sciences.
Transmission du rayonnement électromagnétique Les atlas du spectre solaire, obtenus à très haute résolution spectrale, contiennent l’identification des raies telluriques. The Infrared Handbook. US Govt. Print. Off, Washington, 1979. Bien qu’ancien, excellent ouvrage de références théoriques et pratiques pour le domaine 1-1 000 μm. MIGEOTTE M., NEVEN L., SWENSSON J., Le Spectre Solaire de 2.8 à 23.7 μm, Mém. Soc. Roy. Sc. Liège, 2, 1957. DELBOUILLE L., ROLAND G., BRAULT J., TESTERMAN L., Spectre solaire de 1 850 à 10 000 cm −1 , Université de Liège, 1981. WALLACE L., HINKLE K. & LIVINGSTON W., An Atlas of the Photospheric Spectrum (735-1123 nm), National Solar Observatory, Tucson, 1994.
Bibliographie
715
Turbulence atmosphérique Le Journal of Atmospheric Sciences contient l’état de la recherche la plus directement liée aux propriétés atmosphériques. Pour d’autres nombreuses références, voir aussi ci-dessous les rubriques Optique adaptative et Radioastronomie. LESIEUR M., Turbulence in Fluids, 3e édition, Kluwer, 1997. LESIEUR M., La Turbulence, EDP Sciences, Paris & Springer, 1994. LUMLEY J. L. & PANOFSKY H. A., The Structure of Atmospheric Turbulence, Interscience, Paris, 1964.
Sites astronomiques terrestres Astronomical site evaluation in the visible and radio range, Vernin J., Benkhaldoun Z., Muñoz-Tuñon C. Eds. ASP Series vol. 266, 2002. arena - Large astronomical infrastructures at concordia. Prospects and constraints for Antarctic optical & infrared astronomy, Candidi M., Epchtein N. Eds., EAS Series vol. 25, edp, Paris, 2007. Dome C astronomy & astrophysics meeting, Giard M., Casoli F., Paletou F. (Eds.), eas Series, vol.14, edp, 2005. The Potential for Astronomy from the Antarctic Plateau, Proc. Astron. Soc. Australia, 1994. The Protection of Astronomical and Geophysical Sites, Kovalevsky J. Ed., Editions Frontières, Gif-sur-Yvette, 1992. The Vanishing Universe, McNally D. Ed., Cambridge University Press, 1994. Bel ouvrage, clair et illustré, sur la protection des sites astronomiques. ABAHAMID A., VERNIN J., BENKHALDOUN Z., Seeing, outer scale of optical turbulence, and coherence outer scale at different astronomical sites using instruments on meteorological balloons, Astron.Astrophys. 422, 1123, 2004. Un article intéressant de comparaison de sites. GARSTANG R. H., The Status and Prospects for Ground-based Observatory Sites, ARAA, 27, 19-40, 1989.
716
L’observation en astrophysique
Observation dans l’espace Missions spatiales Il est impossible de donner ici une bibliographie substantielle de l’observation spatiale en astronomie. Le lecteur peut consulter les rapports de phase A et les études de faisabilité, diffusés par l’Agence Spatiale Européenne ou les autres grandes agences spatiales (États-Unis, Japon, Chine, Russie, etc.) à l’occasion de chaque étude de mission nouvelle ou de chaque cycle de prospective. Cf. la webographie en fin d’ouvrage. spie Digital Library. Voir les volumes d’actes de conférences dans les catégories Astronomy, Astronomical instrumentation, Space technologies. Le Grand Atlas de l’Espace, Encyclopædia Universalis, Paris, 1989. Une revue encyclopédique précieuse et illustrée richement, pour tout ce qui touche à l’histoire, aux outils et aux résultats, notamment astronomiques, de l’exploration spatiale dans la seconde moitié du xxe siècle. Observer depuis la Lune Towards a World Strategy for the Exploration and Utilization of our Natural Satellite, Agence Spatiale Européenne, SP-1170, 1994. Astrophysics from the Moon, Mumma M. J. & Smith H. J. Eds., AIP Proceedings, 207, Amer. Inst. Phys., 1990.
Systèmes de référence (temps et espace) AUDOIN C., GUINOT B., Les fondements de la mesure du temps, Masson, 1998. Ouvrage traitant des concepts et des techniques de la mesure du temps et la réalisation des échelles de temps. L’édition anglaise plus récente (2002) a été mise à jour. DELCOURT J. J., Astronomie et mesure du temps, Masson, Paris, 1982. Ouvrage général sur la question du temps en astronomie, incluant la rotation de la Terre. GREEN R. M., Spherical astronomy, Cambridge University Press, 1985. Très bon ouvrage élémentaire, bien à jour avec les formulations vectorielles et la prise en compte des effets relativistes. KOVALEVSKY J., Modern Astrometry, 2nd edit., Astronomy and Astrophysics Library, Springer Verlag, 2002. Ouvrage récent et généraliste couvrant en détail de nombreux aspects de l’astrométrie tels que la formation des images, les instruments de l’astrométrie et la réduction des données.
Bibliographie
717
KOVALEVSKY J. & SEIDELMAN P.K., Fundamentals of Astrometry, Cambridge University Press, 2004. Pour étudiants avancés. L’ouvrage le plus récent sur l’astrométrie actuelle incorporant les conventions les plus récentes de l’Union Astronomique Internationale. MIGNARD F. Les échelles de temps, Introduction aux Ephémérides Astronomiques, Connaissance des temps, chap. 2, EDP Sciences. Chapitre annuel mis à jour dans la Connaissance des temps. MURRAY C. A., Vectorial astrometry, Adam Hilger, Bristol, 1983. Ce livre traite avant tout des concepts dans un cadre relativiste avec des notations très générales et peu répandues qui en rendent la lecture difficile. Cependant on est récompensé de ses efforts par la qualité du contenu. VANIER J. ET AUDOIN C., The Quantum Physics of Atomic Frequency Standards, Adam Hilger, Bristol, 1989. L’ouvrage le plus complet sur la physique des étalons de fréquence. Niveau élevé. WALTER H.G., SOVERS O.J., Astrometry of Fundamental Catalogues, Springer, 2000. Monographie traitant des concepts et de la réalisation des catalogues fondamentaux avec une présentation détaillée du FK5, du Catalogue Hipparcos et de l’ICRF avec la technique VLBI. The Hipparcos Mission, SP-1111, Agence Spatiale Européenne, 1989. Trois volumes préparés avant le lancement d’Hipparcos décrivant l’instrument, la préparation et le contenu du catalogue d’entrée et les méthodes de réduction. The Hipparcos Catalogue, SP-1200, Agence Spatiale Européenne, 1997. Publication finale du Catalogue Hipparcos. Le volume 1 donne les propriétés du Catalogue et le volume 3 présente l’ensemble des techniques du traitement des données. Reference Frames in Astronomy and Geophysics, Kovalevsky J., Mueller I. I. & Kolaczek B. Eds., Kluwer Academic Publishers, 1989. Une vingtaine d’articles de synthèse écrit par les meilleurs spécialistes avec un réel effort pédagogique. L’ouvrage couvre les systèmes de référence célestes et terrestres, les relations entre ces systèmes ainsi que les références temporelles. High-Accuracy Timing and Positional Astronomy, van Paradijs J. & Maitzen H. M. Eds. Lecture notes in physics 418, Springer Verlag, New York, 1993. Excellent ouvrage didactique issu du Réseau Doctoral Européen en Astrophysique (EADN). GAIA : A European Space Project, ESA Publication Series 2, O. Bienaymé & C. Turon Eds., EDP 2002. Compte rendu d’une école des Houches sur la mission Gaia et ses objectifs scientifiques.
718
L’observation en astrophysique
GAIA : Composition, Formation and Evolution of the Galaxy, ESASCI(2000)4, 2000. Le document officiel de la proposition scientifique de la mission Gaia. Nombreux renseignements sur la situation actuelle et les grands enjeux en physique stellaire et galactique.
Télescopes Telescopes for the 1980’s, Burbidge G. & Hewitt A. Eds., Ann. Rev. Monographs, 1981. Ouvrage de référence, d’intérêt historique, pour une série de grands instruments (VLA, HST, MMT...). Methods of Experimental Physics, Carleton N. Ed., Academic Press : Vol. 12 A, Astrophysics : Optical and Infrared, 1974. Vol. 12 B, Astrophysics : Radiotelescopes, 1976. Vol. 12 C, Astrophysics : Radio Observations, 1976. Ces trois volumes traitent en détail des télescopes, respectivement pour les domaines visible, infrarouge et radio. Outre les grands principes, ils donnent l’état de l’art dans la décennie 1970. BAARS J.W.M., The Paraboloidal Reflector Antenna in Radio Astronomy and Communication. Theory and Practice, Springer, 2007. BELY P., The Design and Construction of Large Optical Telescopes, Springer, 2003. Excellent ouvrage d’introduction aux nouveaux télescopes du XXIe siècle. DANJON A. & COUDER A., Lunettes et Télescopes, Blanchard, Paris, 1983. Réédition d’un ouvrage classique excellent, limité au visible. KING H. C., The History of the Telescope, Dover Publish. Inc., New York, 2e éd. 1977. Une excellente introduction historique. KITCHIN C., Solar Observing Techniques, Springer, 2002. Les télescopes et instruments dédiés à l’observation du Soleil. LEMAITRE G., Astronomical Optics and elasticity theory. Active optics., sous presse, Springer, 2008. Astronomical Optics (selected papers on), Schroeder D. Ed., MS 73, 1993. Une collection d’articles historiques fondamentaux, de 1920 à nos jours, portant sur l’optique astronomique (télescopes, interféromètres, turbulence, etc.). ROHLFS K. & WILSON T.L., Tools of Radio Astronomy, Springer, 2004. Les télescopes et l’instrumentation radioastronomiques. SCHROEDER D. J., Astronomical Optics, Academic Press, New York, 1987. Excellent ouvrage.
Bibliographie
719
WILSON R.W. Reflecting Telescope Optics I. Basic Design, Theory and its historical Developments, Seconde édition corrigée, Springer, 2007. WILSON R.W. Reflecting Telescope Optics II. Manufacture, Testing, Alignement, Modern techniques, Springer, 2001. Deux ouvrages fondamentaux, traitant de la conception et de la construction des télescopes optiques. spie Digital Library. Voir les volumes d’actes de conférences dans les catégories Astronomical Instrumentation, Astronomy.
Optique et formation des images BORN M. & WOLF E., Principles of Optics, Pergamon Press, Oxford, 6e éd., 1980. Ouvrage fondamental de référence, notamment pour le formalisme de l’optique géométrique ou ondulatoire, la théorie complète de la diffraction, etc. On y trouvera les principes généraux des interféromètres : Michelson, Pérot-Fabry... particulièrement utiles pour les domaines ultraviolet, visible, infrarouge, submillimétrique. BRUHAT G. & KASTLER A., Optique, Masson, Paris, 1954, 6e édition datée de 1965. Un ouvrage de base, même si certaines parties sont désormais dépassées. FRANÇON M., Optique. Formation et traitement des images, Masson, Paris, 1972. GOODMAN J.W., Introduction to Fourier optics, 3ème éd, Roberts & Co., 2005. Excellent ouvrage de référence. HARBURN G., TAYLOR C. A. & WELBERRY T. R., Atlas of Optical Transforms, Bell, 1975. Planches intéressantes pour visualiser les transformées de Fourier. HARVEY A. F., Coherent Light, Wiley, New York, 1970. Un exposé particulièrement solide des questions liées à la cohérence du rayonnement. HECHT E., Optique, Eyrolles, Paris, 2005, traduit de l’anglais. Excellent ouvrage, proposant une introduction très complète et didactique à l’optique. MERTZ L., Transformations in Optics, Wiley, New York, 1965. Ouvrage original, souvent lié directement à l’astronomie. SCHNEIDER P., EHLERS J. & FALCO E. E., Gravitational Lenses, Springer, 1992, réimpression 1999. Handbook of optics, vol. I et II, Bass M. Ed., McGraw-Hill, 2001. Ouvrage de référence comprenant tous les aspects de formation d’images, de sources et de détecteurs de lumière utilisés en astronomie.
720
L’observation en astrophysique
Optique guidée AGRAWAL G., Nonlinear Fiber Optics, 3e édition, Academic Press, 2006. BUCK J.A., Fundamentals of optical fibers, Wiley, New York, 1995. Un ouvrage de référence sur toutes les propriétés des fibres optiques. HEACOX W. D. & CONNES P., Astronomy & Astrophysics Review, 3, 169, 1992. YOUNG M., Optics and lasers, fibers and optical wave guides, Springer, 2000. Formation des images en milieu turbulent GOODMAN J. W., Statistical Optics, Wiley, New York, 1985. Le livre de référence pour l’imagerie en milieu aléatoire et les propriétés de cohérence partielle du rayonnement. RODDIER F., The Effects of Atmospheric Turbulence in Optical Astronomy, Progress in Optics, XIX, 281, 1981. Article ancien, mais fondamental, qui donne de façon claire le formalisme et les principaux résultats utiles pour comprendre les effets de l’atmosphère sur la propagation de la lumière. TATARSKI V. I, Wave Propagation in Turbulent Media, Dover Publ. Inc., New York, 1961. Ouvrage de référence sur la physique de la propagation en milieu aléatoire. WOOLF N. J., High Resolution Imaging from the Ground, ARAA, 20, 367, 1982. Des motifs et techniques qui conduisirent, dans les années 1980, à la construction de de très grands télescopes au sol. Optique adaptative Adaptive Optics for Astronomy, Alloin D. M. & Mariotti J.-M. Eds., NATOASI Series, 423, 1994. Adaptive Optics in Astronomy, Roddier F. Ed., Cambridge University Press, 1999. Ouvrage de base pour l’étude de l’optique adaptative. BECKERS J., Adaptive Optics for Astronomy : Principles, Performances and Applications, ARAA, 31, 13-62, 1993. Une revue faite aux débuts de l’optique adaptative. TYSON R. K., Principles of Adaptive Optics, Academic Press, 1991. spie Digital Library. Voir les volumes d’actes de conférences dans la catégorie Adaptive Optics.
Bibliographie
721
Imagerie à haute dynamique Optical techniques for direct imaging of exoplanets, C.R.Acad.Sc., 8, 273-380, Aime C. éd., 2007. Astronomy with high contrast imaging II, Aime C. éd., European Astronomical Society Publ., vol 12, 2004. BRACEWELL R.N., Detecting non solar planets by spinning infrared interferometer, Nature, 274, 780, 1978. L’idée initiale de la frange noire. JACQUINOT P., ROIZEN-DOSSIER B., Prog.Opt.3, 31, 1964. Article historique fondamental. LYOT B., Zeit.f.Astrophys., 5, 73, 1932. Un article historique de référence.
Interférométrie Radio-interférométrie CORNWELL T. J. & PERLEY R. A., Radio-Interferometry : Theory, Techniques, Applications, American Society of the Pacific Conference Series, 19, 1991. KELLERMANN K.I., MORAN J.M, The Development of High-Resolution Imaging in Radio-Astronomy, ARAA, 39, 457-509, 2001. THOMSON A. R., MORAN J. M. & SWENSON G. W., Interferometry and Synthesis in Radioastronomy, Wiley, New York, 1986. Ouvrage de base pour l’étude de l’imagerie en radioastronomie. WILSON T.L. & HÜTTEMEISTER S., Tools of Radio Astronomy. Problems and Solutions, Springer, 2005. Subarcsecond radio-astronomy, Davis R. J. & Booth R. S. Eds., Cambridge University Press, 1993. Interférométrie optique ALLOIN D. M. & MARIOTTI J. M., Diffraction-Limited Imaging with Large Telescopes, NATO ASI Series 274, Kluwer Academic Publishers, Dordrecht, 1989. Ensemble de cours d’une École, formant une introduction didactique (optique adaptative, interférométrie). FELLI M. & SPENCER R. E., Very Long Baseline Interferometry : Techniques and Applications, Reidel, Dordrecht, 1989. HANBURY-BROWN R., Photons, Galaxies and Stars (selected papers on), Indian Academy of Science, Bangalore, 1985. Une collection d’articles originaux portant sur l’interférométrie optique par corrélation de photons.
722
L’observation en astrophysique
LABEYRIE A., LIPSON S.G., NISENSON P., An Introduction to Optical Stellar Interferometry, Cambridge University Press, 2006. QUIRRENBACH A., Optical Interferometry, ARAA, 39, 353-401, 2001. SHAO M. & COLAVITA M. M., Long Baseline Optical and Infrared Stellar Interferometry, ARAA, 30, 457-498, 1992. The power of optical & infrared interferometry : recent scientific results, Paresce F., Richichi A., Delplancke F. & Chelli A. (Eds.), Springer, 2008. spie Digital Library. Voir les volumes d’actes de conférences dans la catégorie Astronomical Instrumentation.
Détecteurs et récepteurs Généralités BUSER P. & IMBERT M., Vision, Hermann, Paris, 1987. Ouvrage de base sur l’œil et ses propriétés. COHEN-TANNOUDJI C., DUPONT-ROC J., GRYNBERG G., Photons et atomes. Introduction à l’électrodynamique quantique, EDP, Paris, 1987. COHEN-TANNOUDJI C., DUPONT-ROC J., GRYNBERG G., Processus d’interaction entre photons et atomes, EDP, Paris, 1996. HARRIS A. I., Coherent Detection at Millimetric Waves and their Application, Nova Science Publ., Conmack, 1991. KITTEL C., Physique de l’état solide, Dunod, Paris, 5e édition, 1983. Référence indispensable pour les éléments de physique du solide communs à la plupart des récepteurs de rayonnement, quel qu’en soit le domaine d’énergie. LAMARRE J. M., Photon Noise in Photometric Instruments at Far Infrared and Submillimeter Wavelengths, Appl. Opt., 25, 870-876, 1986. LANDAU L. ET LIFCHITZ E., Physique statistique, Éditions de Moscou, 1967. LONGAIR M., High Energy Astrophysics,vol. I, Particles, Photons & their Detection, Cambridge University Press, 1992. Ouvrage très complet, comprenant une partie dédiée aux domaines de longueurs d’ondes de l’ultraviolet aux radiofréquences, et aux techniques associées. Bonne bibliographie. MAC KAY C. D., Charge coupled devices in astronomy, ARAA, 24, 255-283, 1986. MATHER J., Bolometer Noise : Non Equilibrium Theory, Appl. Opt., 21, 1125, 1982. Une analyse approfondie du bruit thermique.
Bibliographie
723
OLIVIER B. M., Thermal and Quantum Noise, Proc. IEEE, 53, 436, 1965. RIEKE G. H., Detection of Light from the Ultraviolet to the Submillimeter Cambridge University Press, 1994. Une vue synthétique de la détection de la lumière, écrite par un astronome à l’usage des étudiants et chercheurs. SZE S. M., Physics of Semi-conductor Devices, Wiley, New York, 1981. Cet ouvrage peut être considéré comme une référence de base pour tout ce qui touche à la physique des semi-conducteurs. VAVAILLÉ E.A. & CASTAGNÉ R., Dispositifs et circuits intégrés semiconducteurs, Dunod, Paris, 1990.
Radiofréquences PHILIPS T. G. & WOODY D. P., Millimeter and Submillimeter Wave Receivers, ARAA, 20, 285, 1982. ROBINSON B., Frequency Allocation : the First Fourty Years, ARAA, 37, 65-96, 1999.
Infrarouge et submillimétrique Millimetric Astronomy, École des Houches, Winter Workshop, Mars 1990, Nova science Publ., New York, 1991. Récepteurs millimétriques et submillimétriques. The Infrared & Electro-optical Systems Handbook, Accetta & Shumaker Executive Eds., copubl. erim & spie, 1993. Ouvrage en huit volumes. The Infrared Handbook. US Govt. Print. Off, Washington, 1985. Bien qu’ancien, excellent ouvrage de références théoriques et pratiques pour le domaine 1-1000 μm. Infrared Detectors et Instrumentation, Fowler A. Ed., S.P.I.E., 1946, 1994. LOW F.J., RIEKE G., GEHRZ R.D., The Beginning of Modern Infrared Astronomy, ARAA, 45, 43-65, 2007. Une présentation à jour, par les pionniers du domaine. RIEKE G., Infrared Dectector Arrays for Astronomy, ARAA, 45, 77-115, 2007. WOLSTENCROFT R. D. & BURTON W. B., Millimeter & submillimeter astronomy, Kluwer Academic Publishers, New York, 1988.
724
L’observation en astrophysique
Visible et détecteurs CCD Astronomy with Schmidt-Type Telescopes, Capaccioli M. Ed., Reidel, Dordrecht, 1984. Ouvrage de revue des utilisations de plaques photographiques et de photographie d’objets faibles. DERENIAK E. L. & CROWE D. G., Optical Radiation Detectors, Wiley, New York, 1984. DESVIGNES F., Détection et détecteurs de rayonnements optiques, Masson, Paris, 1987. HOWELL S.B., Handbook of ccd Astronomy, Cambridge University Press, 2006. JANESICK J.R., Scientific Charge-Coupled Devices, spie, Bellingham, 2001. MARTINEZ P. ET KLOTZ A., Le Guide pratique de l’astronomie ccd, Adagio, Toulouse, 1994. Ouvrage destiné plutôt aux amateurs, mais d’excellente qualité. MCLEAN I. S., Modern Instrumentation in Astronomy, Springer Verlag, New York, 1989. Ouvrage de qualité sur les CCD.
Ultraviolet BOWYER S., DRAKE J.J., VENNES S., Extreme Ultraviolet Astronomy, ARAA, 38, 231-288, 2000.
Astronomie X BEIERSDORFER P., Laboratory X-Ray Astrophysics, ARAA, 41, 343-390, 2003. BRANDT H. V. D., OHASHI T. & POUNDS K. A., X-Ray Astronomy Missions, ARAA, 30, 391-427, 1992. GIACCONI R. & GURSKY H., X-Ray Astronomy, Reidel, Dordrecht, 1974. PAERELS F.B.S., KAHN S.M., High Resolution X-Ray Spectroscopy with Chandra and XMM-Newton, ARAA, 41, 291-342, 2003. TRÜMPER J., Rosat, Physica Scripta, T7, 209-215, 1984. Une description détaillée de la mission Rosat d’astronomie X (Röentgen Satellite).
Bibliographie
725
Astronomie γ DEBERTIN K. & HELMER R. G., Gamma-ray and X-ray Spectrometry with Semi-conductor Detectors, Elsevier Science Publishers, North-Holland, 1988. HILLIER R., Gamma Ray Astronomy, Clarendon Press, 1984. Towards a Major Atmospheric Čerenkov Detector for TeV Astro/particle Physics, Fleury P. & Vacanti G. Eds., Éditions Frontières, Gif-sur Yvette, 1992.
Rayonnement cosmique SCHLICKEISER R., Cosmic Rays Astrophysics, Springer, 2002.
Astronomie des neutrinos ANSELMANT P. ET AL., Phys. Lett., B 285, 1992. Une discussion des neutrinos solaires et de leur détection. BAHCALL J. N., Highlights in Astrophysics : Concepts and Controversies, Shapiro S. & Tevkolsky S. Eds., Wiley, New York, 1985. BAHCALL J. N. & DAVIS R., Essays in Nuclear Astrophysics, Cambridge University Press, 1982. VALENTIN L., Noyaux et particules : modèles et symétries, Hermann, Paris, 1989.
Astronomie gravitationnelle BRILLET A., DAMOUR T. & TOURRENC P., Introduction to Gravitational Wave Research, Annales de Physique, 10, 201, 1985. Les débuts de l’astronomie gravitationnelle. Gravitational Radiation, Deruelle N. & Piran T. Eds., Cours de l’École de Physique Théorique des Houches, North Holland, 1983. HAKIM R., Gravitation relativiste, InterÉditions, 1994. SCHNEIDER P., EHLERS J. & FALCO E. E., Gravitational lenses, Springer Verlag, Heidelberg, 1991. VINET J.-Y., Optical detection of gravitational waves, Compte-Rendus Acad.Sc., 8, 2007.
726
L’observation en astrophysique
Spectrométrie Precision Spectroscopy in Astrophysics, Santos N.C., Pasquini L., Correia A.C.M., Romaniello M. (Eds), Springer, 2008. Next Generation Wide-Field Multi-Object Spectroscopy, Brown M.J., Dey A. (Eds.), PASP, 2002. AERTS C., CHRISTENSEN-DALSGAARD J., KURTZ D.W., Asteroseismology, Springer, 2008. CHAFFEE F. & SCHROEDER D., Astronomical Applications of Echelle Spectroscopy, ARAA, 14, 23, 1976. Les spectromètres échelle. CONNES P., Astronomical Fourier Spectroscopy, ARAA, 8, 209, 1970. Panorama complet de la spectroscopie de Fourier. FRANÇON M., Séparation des radiations par les filtres optiques, Masson, Paris, 1984. La théorie des filtres interférentiels. JAMES J., Spectrograph Design Fundamentals, Cambridge University Press, 2007. KITCHIN C.R., Optical astronomical spectroscopy, Institute of Physics, Londres, 1995. TENNYSON J., Astronomical Spectroscopy. An Introduction to the atomic and molecular physics of astronomical spectra, Imperial College Press, London, 2005. spie Digital Library Voir les volumes d’actes de conférences dans la catégorie Astronomical Instrumentation.
Traitement du signal ANDREWS H. C. & HUNT B. R., Digital Image Restoration, Prentice Hall, 1977. Les techniques de base en restauration d’information dans le traitement des images. BIJAOUI A., Image et information : introduction au traitement numérique des images, Masson, Paris, 1981. BLANC-LAPIERRE A. & FORTET R., Théorie des fonctions aléatoires, Masson, Paris, 1953. CLARKE R. J., Transform Coding of Images, Academic Press, Orlando, 1985. Un ouvrage de base du traitement du signal. DAS P. K., Optical Signal Processing, Springer Verlag, New York, 1991. Fondements du traitement des signaux d’origine optique.
Bibliographie
727
KENDALL M. & STUART A., The advanced theory of statistics, Vols. 1 et 2, Ch. Griffin & Co. Ltd., London & High Wycombe, 1977, 1979. L’ouvrage classique de référence pour le traitement statistique des données. KENDALL M., STUART A. & ORD J.K., The advanced theory of statistics, Vol. 3, Ch. Griffin & Co. Ltd., London & High Wycombe, 1983. La troisième et dernière partie de cet ouvrage de référence ; la moitié du volume est consacrée aux séries temporelles. LECOUTRE J.-P. & TASSI PH., Statistique non paramétrique et Robustesse, Economica, Paris, 1987. Une excellente introduction à l’estimation fiable et l’élimination des points aberrants. De la même qualité que l’ouvrage de Ph. Tassi. LEVINE B., Fondements théoriques de la radiotechnique statistique, Vols. I, II et III, Editions Mir, Moscou 1973, 1973, 1976. Un ouvrage d’introduction remarquable, très didactique, malheureusement épuisé. MARION A., Introduction aux techniques de traitement d’image, Eyrolles, Paris, 1987. MAX J., Méthodes et techniques de traitement du signal et applications aux mesures physiques, Masson, Paris, 4e éd., 1985-1987. Cet ouvrage peut être considéré comme la référence de base des problèmes liés à la mesure d’une grandeur affectée d’un bruit. MURTAGH F., Multivariate Methods for Data Analysis, in Central Activity in Galaxies, From Observational Data to Astrophysical Diagnostics, Sandqvist Aa. & Ray T. P. Eds., Lecture Notes in Physics, 413, Springer Verlag, Heidelberg, 1993. NARAYAN R. & NITYANANDA R., Maximum Entropy Image Restoration in Astronomy, ARAA, 24, 127-170, 1986. PAPOULIS A., Probability, Random Variables and Stochastic Processes, McGraw-Hill, New York, 3e édition, 1991. Ouvrage de base pour les concepts de variable ou de processus aléatoires et les démonstrations associées, dans le contexte d’applications physiques. PELAT D., Bruits et Signaux, université Paris VII, cours de 3e cycle, Meudon, 2007 (polycopié). Cours comprenant des applications spécifiques à l’astronomie, tant dans l’instrumentation que de l’analyse des données. PUETTER R.C., GOSNELL T.R., YAHIL A., Digital Image reconstruction : Deblurring and Denoising, ARAA, 43, 139-194, 2005. STARCK J.-L., MURTAGH F., Astronomical Image and Data Analysis, Springer, 2006. TASSI PH. Méthodes statistiques, Economica, Paris, 1985. Un excellent ouvrage en français, clair et synthétique.
728
L’observation en astrophysique
Problèmes inverses D. M. TITTERINGTON. General structure of regularization procedures in image reconstruction. Astron.& Astrophys. 144:381–387, 1985. G. DEMOMENT. Image reconstruction and restoration : Overview of common estimation structures and problems. IEEE Trans.Acoust.Speech Signal Process, 37(12):2024–2036, December 1989. Approche bayésienne pour les problèmes inverses. Jérôme Idier, éd., Hermès, Paris, 2001. Bayesian Approach for Inverse Problems. Jérôme Idier, éd., ISTE, London, 2008. L. M. MUGNIER, A. BLANC & J. IDIER. Phase diversity : a technique for wave-front sensing and for diffraction-limited imaging. In Peter Hawkes, ed., Advances in Imaging and Electron Physics, vol. 141, chapter 1, pages 1–76. Elsevier, 2006. L. M. MUGNIER, G. LE BESNERAIS & S. MEIMON. Inverse problems in optical imaging through atmospheric turbulence. In Jérôme Idier, ed., Bayesian Approach for Inverse Problems, chapter 10. ISTE, London, 2008. M. ZUHAIR NASHED. Operator-theoretical and computational approaches to ill-posed problems with applications to antenna theory. IEEE Trans. Antennas Propag., AP-29(2):220–231, March 1981. S. M. STIGLER. Gauss and the invention of least squares. The Annals of Statistics, 9(3):465–474, May 1981.
Archivage et traitement des données Astronomy from Large Data Bases II, Heck A. & Murtagh F. Eds., European Southern Observatory Proc., 43, Garching, 1992. Databases and On-line Data in Astronomy, Albrecht M. A. et Egret D. Eds, Kluwer Academic Publishers, Dordrecht, 1991. Handling and Archiving Data from Ground-based Telescopes, Albrecht M. A. & Pasian F. Eds., ESO-OAT International Workshop, Trieste, 1993. Statistical Challenges in Modern Astronomy, Babu G. J. & Feigelson E. D. Eds., Springer Verlag, New York, 1993.
Bibliographie
729
Mathématiques BRACEWELL R. M., The Fourier Transform and its Applications, McGrawHill, New York, 1965. Cet ouvrage est très précieux par son grand nombre d’exercices liés à l’astronomie ou à la physique. GASQUET C. & WITOMSKI P., Analyse de Fourier et applications : filtrage, calcul numérique, ondelettes, Masson, Paris, 1990. MEYER Y., Ondelettes et opérateurs, tome I, Hermann, Paris, 1990. RODDIER F., Distributions et transformation de Fourier, Ediscience, Paris, 1971. SCHWARTZ L., Méthodes mathématiques pour les sciences physiques. Hermann, Paris 1965. SCHWARTZ L., Théorie des distributions, Hermann, Paris, 1966. Error, Bias and Uncertainties in Astronomy, Jaschek C. & Murtagh F. Eds., Cambridge University Press, New York, 1990.
This page intentionally left blank
Index A aérosols (diffusion par les), 64 AAT (télescope), 495 aberrations, 190 aboutage, 627 acousto-optique (spectromètre), 513 ADS (Astrophysics Data System), 39 ADU, 556 airglow, 55 Airy (fonction de), 235 Aladdin (récepteur), 392 Aladin, 633 aliasing, 539 ALMA (réseau), 293 ALMA (réseau), 79 AMANDA (instrument), 444 amateur, 32 AMBER (instrument), 300 amplificateur maser, 415 amplificateur paramétrique, 415 analyse factorielle, 545 anamorphose, 488 anamorphoseur, 489 Angel (croix d’), 326 angle d’Euler, 147 angle horaire, 143 angle sidéral, 150 angle sidéral de Greenwich, 152 anisoplanétisme, 255 anomalie sud-atlantique, 90 antarctique, 83 ANTARES (instrument), 444 antenne, 197 antenne gravitationnelle, 447 anticoïncidence, 432 APEX (telescope), 517 APM (machine), 626 apodisation, 120, 236, 309, 316
APS (machine), 626 Arecibo (radiotélescope), 197 ascension droite, 143, 150 ASIC, 545 assombrissement centre-bord, 131, 282 astigmatisme, 191 astrométrie, 68 astronomie γ (instrument), 425 atmosphère terrestre, 44 bolomètre au germanium, 399 auréole solaire, 65 autocorrélation, 646 avalanche (photodiodes à), 377 avantage multiplex, 502 aveugle, 609 AVO (observatoire), 632 AXAF (mission), 211 B Baïkal (télescope), 446 balayage synchrone (CCD), 566 bande bloquée (détecteur), 392 bande passante, 338 basculement, 257 BAT (instrument), 218 BATSE (instrument), 219 Bayes (estimateur de), 571 Bayes (principe de), 571 Bayes (règle de), 605 BEAR (instrument), 504 biais, 534, 562, 565, 570, 572 BIB, 392 bimorphe, 257 bin, 350 Blaze, 482 blocs d’observation, 554 bolomètre, 398, 399 bolomètre à électrons chauds, 399, 401
732 bolomètre pour X, 402 bolomètre supraconducteur, 400 BOOMERANG (mission), 208 bootstrap (méthode), 576 Bose-Einstein (statistique de), 111 Bouguer (droite de), 117 Bracewell (interféromètre de), 323, 612 Bragg (diffraction de), 217 Bragg (spectromètre de), 508 Bremsstrahlung, 25 brillance, 103 bruit, 529 bruit (source de), 118 bruit blanc, 600 bruit d’amplification, 370 bruit de ciel, 62 bruit de confusion, 624 bruit de fond, 352, 530 bruit de fond thermique, 531 bruit de lecture, 370, 385 bruit de phase, 251 bruit de photons, 347 bruit de pointage, 558 bruit de signal, 531 bruit gaussien, 535 bruit multiplicatif, 531 bruit quantique, 349 bruit spatial, 62 bruit spatial fixe, 566 bruit thermique, 347, 353, 449 bruit thermique (résistance), 354 bruit thermodynamique, 533 Bure (réseau), 292, 551 Bureau des Longitudes, 168 Bureau International de l’Heure, 174 C Calar Alto (télescope), 264 calendrier grégorien, 181 calendrier proleptique, 181 calorimétrie, 368 caméra électronique, 374 caractéristique courant-tension, 419 carcinotron, 413 CARMA (réseau), 293 carte du ciel, 623 cartographie hybride, 286 CASIMIR (instrument), 518
L’observation en astrophysique Cassegrain, 188 catalogue astrographique, 164 catalogue fondamental, 154 catalogue Hipparcos, 162 Cauchy (loi de), 589 CCD, 381, 387 CCD (format), 386 CCD (X), 387 CCD amincis, 383 CCD intensifié, 374 CDS (Strasbourg), 39 céleste (instrument), 429 central limite (théorème), 535 Čerenkov (détection des neutrinos), 442 ˇ Cerenkov (gerbes), 429 ˇ Cerenkov (rayonnement), 77 CFDF (relevé), 627 CFHT (telescope), 504, 627 CFHT Legacy (relevé), 627 chambre à étincelle, 427 chambre à fil, 364 champ, 190 champ isoplanétique, 248 champ plat, 566 CHANDRA (mission), 508 channeltron, 374 charge d’obscurité, 564 chi-deux (loi du), 659 chlore (détection des neutrinos), 439 chopping, 563 CIA, 320 CIA (instrument), 320 CLEAN, 560, 613 CLEAN (procédure), 283 Clementine (mission), 545 clôture de phase, 251, 284 CMOS (détecteur), 388 COBE (mission), 130, 209 cohérence, 108 cohérence (étendue de), 223 cohérence (longueur de), 109 coma, 191 commutation de faisceau, 563 complétude, 624 composante principale, 545 compression de données, 28, 543 compression du bruit, 351
Index comptage de photons (caméra), 376 Comptel (instrument), 426 compteur proportionnel, 378 Compton (diffusion), 365 Compton (mission), 219 Compton (télescope), 424 Concordia (station), 84 confusion, 624 CONICA (instrument), 554 connaissance des temps, 168 constante de structure, 71 constituant minoritaire, 45 contraste statistique, 603 contrôleur, 387 contrôleur (CCD), 382 convergence (d’un estimateur), 572 convolution, 645 Cooper (paires de), 362 coordonnées galactiques, 146 coordonnées horaires, 142 coordonnées horizontales, 140 coordonnées écliptiques, 145 coordonnées équatoriales, 143 CORALIE (instrument), 491 CORAVEL (instrument), 491 coronographe de Lyot, 311 coronographie, 309 COROT (mission), 550, 556 corps noir, 107 correcteur de dispersion, 67 corrélation, 273, 645 corrélateur, 287 COSMOS (instrument), 371 coudé, 188 courant d’obscurité, 373, 386, 530, 563 courbure de champ, 191 couverture du ciel, 263 croissance (courbe de), 469 CSO (telescope), 401, 414 D Darwin (mission), 307, 611 décision (théorie de la), 569 déclinaison, 142 déconvolution, 609 déconvolution myope, 609 DEEP2 (relevé), 630 degré complexe de cohérence, 108
733 DENIS (relevé), 630 densification de pupille, 301 densité, 371 densité (d’un processus), 661 densité de probabilité, 654 densité photographique, 343 densité spectrale de puissance, 646, 650 déplétion (zone de), 419 détection hétérodyne, 410 déviation standard, 656 2dFGRS (relevé), 629 diagramme de rayonnement, 120 diaphotie, 378 diffraction, 223 diffusion, 63 diffusion atmosphérique, 64 diffusion Compton, 365 diode à bruit, 119 diodes à avalanche, 260 Dirac (distribution de), 639 dirty beam, 283 dirty map, 283 dispersion (fibre optique), 276 dispersion atmosphérique, 66 distorsion, 191 Dôme C, 84 dopant, 359 Doppler, 466 Doppler (imagerie), 467 Doppler-Fizeau (effet), 466 DORIS (source), 127 DSB, 412 DVR, 396 E E-ELT (telescope), 206 eau lourde (détection des neutrinos), 441 eau précipitable, 47, 80 EB-CCD, 377 EBS (tube), 376 écart type, 656 échantillon, 568 échantillonnage, 234, 538 échantillonnage (fonction d’), 639 échelle externe, 70 échellogramme, 483
734 éclairement, 103 éclipses, 65 Effelsberg (radiotélescope), 199 effet photoélectrique, 212 effet tunnel, 362 EGRET (instrument), 427 Einstein (anneau d’), 536 Einstein (effet), 469 Einstein (mission), 211 élément spectral, 473 émissions atmosphériques, 54 émission thermique, 59 émission zodiacale, 86 émissivité, 119 émulsion nucléaire, 374 end-to-end (modèle), 549 entropie, 544 épitaxie, 420 époque, 180 équation des temps, 170 équinoxe, 144 ergodisme, 666 erreur d’estimation, 569 erreur systématique, 573 éruption solaire, 90 ESO (relevé), 626 espace, 84 espérance mathématique, 655 ESRF (source), 127, 211 estimateur, 569 estimateur biaisé, 584 estimateurs de temps d’exposition, 550 estimateur fiable, 587 estimation, 567 estimation bayesienne, 604 estimation des moments, 670 estimation ponctuelle, 569 étalon Pérot-Fabry, 505 étalonnage spectral, 124 étalons de fréquence, 171 étendue de cohérence, 223, 227 étendue de faisceau, 102, 473 éthique, 39 étoile artificielle, 263 étoile laser, 260, 263 EVN (réseau), 297 ExAO (technique), 267 exhaustive (statistique), 577
L’observation en astrophysique EXOSAT (mission), 508 Exosat (mission), 380 exozodi, 324 extinction, 116 extinction interstellaire, 117 extragalactique (système de référence), 156 Extremely Large Telescopes, 36 F facteur de dégénérescence, 347 facteur de mérite, 479 Fano (facteur de), 435 fenêtrage, 388, 648 Fermat (principe de), 194 fermeture de phase, 251 FET, 381 FFT, 516 fibre optique (spectromètre à), 493 fibres optiques, 275 FIFI (instrument), 395 filtrage, 540 filtrage d’un processus, 667 filtrage en ligne, 541 filtrage temporel, 351 filtre interférentiel, 479 filtre inverse, 599 filtre spatial, 245 finesse, 507 Fisher (information de), 586 Fisher (matrice informationnelle de), 586 Fisher-Neyman (critère de), 578 Fizeau (combinaison interférométrique), 270 Fizeau (interférométre), 302 flop, 30 fluctuation fondamentale, 344 fluorescence, 55 flux (unité de), 104 FOC (caméra), 376 fonction caractéristique, 657 fonction d’appareil, 233, 499 fonction de pertes, 569 fonction de répartition, 661 fonction de transfert, 668 fonction de transfert de modulation, 231, 233, 341
Index fonction de vraisemblance, 571 fonction fenêtre, 638 fonction porte, 638, 641 fonction source, 459 fond cosmologique (rayonnement de), 106, 130 fond de ciel, 59 fond de ciel (soustraction de), 62 fond diffus (X et γ), 89 fond infrarouge, 106 fond optique, 106 fond parasite γ, 531 format des CCD, 386 formation (vol en), 305 Fourier (transformation de), 635 Fréchet (inégalité de), 580 frange noire (interférométrie), 322 Fraunhofer (diffraction de), 228 fréquence intermédiaire, 410 Fresnel (diffraction de), 229, 242 Fresnel-Kirchoff (relation de), 228 Fried (paramètre de), 245 front d’onde, 253 FTM, 233 FTM instrumentale, 281 FUSE (mission), 207 G Gaia, 165 caractéristiques, 166 ICRF, 166 GAIA (mission), 165, 623 galette de microcanaux, 374, 380 GALEX (mission), 207 gallium (détection des neutrinos), 440 gap, 358 gaufre (mode), 596 Gauss (loi de), 657 Gauss-Markov (théorème de), 590 gaz carbonique, 48 générateur de bruit, 119 géodésie spatiale, 151 géodésiques, 194 gerbe atmosphérique, 428 gerbe atmosphérique, 77 GIRAFFE (instrument), 494 Gladstone (loi de), 64 GLAST (mission), 427
735 GMRT (réseau), 290 GMRT (réseau), 81 GNO (observatoire), 440 GPS, 294, 295 grain, 531 grain interplanétaire, 87 grand relevé, 624 Greenbank (radiotélescope), 517 Greenwich, 151 grism, 485 GRO (mission), 426 GSPC (détecteur), 378 guide d’onde, 274 Gunn (effet), 413 Gurney-Mott (théorie de), 363 Guyon (coronographe), 319 H Hadamard, 596 HALCA (mission), 295 HARPS (instrument), 125, 491 HARPS (spectrométrie), 490 Hartmann-Shack (analyseur), 601 HDF-N,-S (relevé), 628 HEAO-II (mission), 210 HEB, 418 Hecht (équation de), 434 HEGRA (instrument), 430 hélicité, 8 héliosphère, 89 HEMT, 414 Herschel (mission), 210, 497, 518 HESS (observatoire), 429 hétérodyne (combinaison interférométrique), 271 hétérodyne (détection), 410 hétérodyne infrarouge (interférométrie), 297 HETG (instrument), 508 HFI (instrument), 401 Hipparcos, 161 HCRF, 165 repère, 164 signal, 163 Hipparcos (mission), 162, 623 Hodges-Lehmann (médiane de), 588 holographie (gravure par), 483 homodyne (interférométrie), 273
736 horizon cosmologique, 9 horloge au césium, 172 HPBW (anglais), 233 Hubble (mission), 37, 56, 207, 628 hybride (matrice), 389 hydrogène (atome d’), 460 hydrogène géocoronal, 57 hygromètre spectral, 61 hypertélescope, 302 I IBIS (instrument), 426 IBIS/ISGRI (instrument), 559 Icecube (instrument), 445 ICRF, 156, 158, 160 ICRS, 156, 158 image latente, 363 image slicing, 496 impartialité (principe d’), 570 indice de couleur, 115 indice de l’air, 64, 73 indium (détection des neutrinos), 442 information, 39 information (traitement de l’), 26 instabilité convective, 45 instrument virtuel, 547 INTEGRAL (instrument), 437, 559 INTEGRAL (mission), 217, 426 intensificateur d’image, 374 intensité spécifique, 103 intercorrélation, 645 interdensité spectrale, 650 interférogramme, 499 interféromètre de Michelson, 498 interféromètre d’intensité, 331 interféromètre millimétrique (IRAM), 551 interférométrie, 268 interférométrie à frange noire, 307, 322 interférométrie à très longue base, 293 interférométrie coronographique, 323, 611 interférométrie des tavelures, 248 interférométrie d’intensité, 348 interférométrie X, 308 intervalle de confiance, 658 intervalle spectral libre, 483, 507
L’observation en astrophysique inversion (couches d’), 44 inversion avec régularisation, 604 iodure mercurique, 438 ionosphère, 48, 76 ionosphérique, 53 IRAC (instrument), 392 IRAS (mission), 29, 88, 209, 396, 623, 630 irradiance, 103 IRS (instrument), 517 ISGRI (instrument), 217, 437 ISI (réseau), 297 ISO (mission), 93, 209, 396, 624 isoplanétisme, 231 isoplanétisme (angle d’), 249 IUE (mission), 207 J jackknife (méthode), 576 Jansky, 43, 104 JCMT (radiotélescope), 197, 418 Jensen (inégalité de), 576 jetstream, 73 jonction, 360 jonction SIS, 417 jonction supraconductrice, 362 Joule-Thomson (détente), 389 julien (siècle), 180 julienne (année), 180 justification, 23 JWST (mission), 207 K Kamiokande (instrument), 443 KAO (telescope), 208 KAO (télescope), 51 Karhunen-Loève (polynômes de), 254, 545 Kasdine-Spergel (coronographe), 317 Keck (interféromètre), 300 Keck (télescope), 204 Kepler (mission), 307 Klein-Nishina (formule), 366 klystron, 412 Km3Net (telescope), 446 Kolmogorov (spectre de), 69 Kolmogorov (statistique de), 608
Index L L3-CCD, 386 Labview, 549 Lagrange (points de), 94 Lambert (loi de), 107 LAMOST (telescope), 202 laser à cascade quantique, 414 laser moléculaire, 413 LBT (telescope), 205, 277, 302 Lehmann-Scheffé (théorème de), 579 LENS (instrument), 442 lentille de Bragg, 217 lentille gravitationnelle, 195 lepton, 7 LGS, 497 LIDAR, 57 LIGO (instrument), 448 limite de détection, 533 LISA (mission), 449 Littrow (condition de), 482 LOFAR (réseau), 291 loi des grands nombres, 568, 669 longueur de corrélation, 243 Lorentz (profil), 470 LSR, 467 lumière parasite, 565 luminance, 103 luminosité, 105 luminosité (d’un spectromètre), 500 Lune, 94 Lyman (limite de), 5 Lyot (coronographe), 311 M MACAO (instrument), 260 Magellan (télescope), 205 magnétographe, 497 magnétosphère terrestre, 86 magnitude AB, 114 magnitude absolue, 115 magnitude bolométrique, 114 magnitude STMAG, 114 magnitudes (systèmes de), 113 MAMA (instrument), 371 MAMA (machine), 626 maser (raie), 470 maser à états de Rydberg, 416
737 maser à rubis, 415 masque à encoche, 315 masque à fente, 492 masque codé, 212, 559 masque de phase, 314 masse d’air, 116 2MASS (relevé), 630 MAXIM (mission), 308 maximum de vraisemblance, 600 MCAO (technique), 265, 266 MEGACAM (instrument), 386, 627 mélangeur, 362 mélangeur à électrons chauds, 418 MEMS (miroirs), 257 mesure différentielle, 61 météorite, 6 Méton (cycle de), 181 Michelson (combinaison interférométrique), 271 microbalayage, 566 microdensitométrie, 371 microlentille (matrice de), 496 MIDI (instrument), 300 milliCrabe, 562 minimax (principe), 571 miroir secondaire, 204 MISTRAL (méthode), 609 modèle astrophysique, 549 modèle de la chaîne de détection, 548 modèle de l’environnement, 549 modèle électrique, 549 modèle end-to-end, 591 modèle global, 549 modèle informatique, 549 modèle mécanique, 548 modèle optique, 548 modèle thermique, 547 modulation de faisceau, 563 modulation solaire, 90 moindre carré (problème bien posé), 596 molécule, 461 Molière (diffusion de), 427 moment, 656 moments d’ordre supérieur, 111 monture altazimutale, 203 monture équatoriale, 203 MOS (capacité), 381
738 mouvement brownien, 666 mouvements propres, 144 moyenne, 656 moyenne tronquée, 588 moyenne winsorisée, 588 multiconjugée (optique), 265 multiplexage spectral, 499 multiplicateur de fréquence, 413 MV, 600 MVB (borne), 584 N Nançay (radiotélescope), 197 NAOS (instrument), 554 Nasmyth, 188 NEMO (télescope), 446 NEP, 398 NESTOR (télescope), 446 neutrino, 6 neutrinos (détection), 439 Newton (mission), 212, 485 NGS, 497 NICMOS (récepteur), 392 nodding, 563 nœud ascendant, 140 non-linéarité, 564 notch filter, 315 NTT (telescope), 396 nuage zodiacal, 86 nulling, 307 numérisation, 537 NVO (observatoire), 632 Nyquist (formule de), 355 O OAO (mission), 207 obliquité de l’écliptique, 145 observatoire virtuel, 29, 631 occultation lunaire, 236 ODIN (mission), 414 OHANA, 303 onde de surface, 515 onde gravitationnelle, 8 onde gravitationnelle (détection), 446 ondelette, 651 Open Acess, 38 Opticad, 548
L’observation en astrophysique optique optique optique optique optique
adaptative, 203, 252, 608 adaptative (NAOS), 554 adaptative extrême, 267 adaptative multi-objets, 266 adaptative pour basse couche, 265 optique géométrique, 187 orbite basse équatoriale, 93 orbite circulaire haute, 93 ordre partiel, 570 oscillateur local, 412 OSO-8 (mission), 508 ouverture numérique, 188, 276 ozone, 48 P PACS (instrument), 395, 497, 517 paire (création de), 366 paire (effet de), 426 paire de Fourier, 642 paraboloïde, 188 Parseval (théorème de), 646 pas de quantification, 537 peigne de Dirac, 639 Peltier (effet), 373 Pérot-Fabry (spectromètre de), 504 perte de charge, 434 perturbation planétaire, 145 phoswich (détecteur), 433 photo-ionisation (gaz), 363 photochimique (effet), 363 photoconducteur extrinsèque, 359 photoconducteur intrinsèque, 359 photoélectrique (absorption), 364 photoélectrique (émission dans le vide), 357 photoélectrique (émission dans les solides), 357 photographique, 531 photométrie, 102 photomultiplicateur, 372 photomultiplicateur solide, 394 photon, 13 photovoltaïque (effet), 360 Pico Veleta (radiotélescope), 199 PICSIT (instrument), 217 Pierre-Auger (observatoire), 81 pixel chaud, 567
Index pixel mort, 567 Planck (loi de), 107 Planck (mission), 210, 401 planète extrasolaire, 307 plaque photographique, 371 PMM (machine), 626 PMN (relevé), 623 point vernal, 143 Poisson (impulsions de), 665 Poisson (loi de), 658 Poisson (statistique de), 347 polarisation, 105 pollution lumineuse, 82 pollution radioélectrique, 82 population parente, 568 POSS (relevé), 623 POSSI/POSSII (relevé), 626 prédisperseur, 483, 507 principe de Mach, 157 problème bien posé, 595 problème inverse, 591 processus stochastique, 660 processus de Poisson, 663 processus normal, 663 processus stationnaire, 662 profil, 465 profil de Lorentz, 52 profondeur optique, 49, 459 PRONAOS (mission), 52 prospective (rapports de), 36 Prouhet-Thué-Morse (suite de), 326 PSD, 433 publication, 37 puissance équivalente de bruit, 352, 398 puit quantique, 361 pulsar, 21 pupille (masquage de), 286 pupille circulaire, 234 pupille d’entrée, 13 Q qualité photométrique, 78 quantum yield, 364 quasi optique (couplage), 395 Quenouille (méthode de), 576
739 R récepteurs d’amplitude, 337 réseaux, 479 radiance, 103 radio-interférométrie, 268 radio-interférométrie millimétrique, 292 radiohéliographe, 292 radiométrie, 102 radiotélescope, 196 raie, 465 raie tellurique, 52 Ramo (théorème de), 433 Rao-Blackwell (théorème de), 578 Rao-Cramér (inégalité de), 580 rapport de mélange, 46 rapport signal à bruit, 530, 533 raster scan, 339 Rayleigh (étoile), 264 Rayleigh (critère de), 235 Rayleigh (diffusion), 64 Rayleigh (théorème de), 646 Rayleigh (unité), 56 Rayleigh-Jeans (loi de), 107 rayon vert, 66 rayonnement cosmique, 6, 90, 92, 437, 531 rayonnement électromagnétique, 4 rayonnement quasi monochromatique, 109 rayonnement synchrotron, 126 réalisation, 568 récepteur (réponse impulsionnelle), 342 récepteur à transfert de charge, 380 récepteur CMOS, 388 récepteur monocanal, 339 récepteur multicanal, 339 récepteur quadratique, 338 réception double bande, 412 réception simple bande, 412 reconstruction de front d’onde, 607 référence cinématique, 156 réfracteur, 199 réfraction, 66 réfrigérateur à dilution, 209, 400 régularisation, 602
740 relevé CCD, 627 relevé dans l’infrarouge, 630 relevé photométrique, 625, 628 relevé spectroscopique, 625, 628 rendement quantique, 350, 383 rendement quantique équivalent, 369 répartition (fonction de), 654 repère (changement de), 147 repère astronomique, 139 repère écliptique, 145 repère équatorial, 143 repère galactique, 146 repère Hipparcos, 161 repère horaire, 142 repère horizontal, 140 réplication, 539, 640 réponse angulaire, 337 réponse impulsionnelle, 233 réponse spectrale, 337 représentation temps-fréquence, 651 repère de référence, 158 réseau échelle, 482 résolution spatiale, 23 résolution spectrale, 471 résonance (spectromètre à), 519 Reynolds (nombre de), 68 RGS (instrument), 485, 510 Richardson (loi de), 373 Richardson (nombre de), 73 Richardson-Lucy (algorithme), 610 risque, 569 robustesse, 596 Roddier & Roddier (coronographe), 313 ROSAT (mission), 211, 623 ROSITA (mission), 387 rotation de champ, 203 rotation pure, 463 rotation sidérale, 140 Rouan (coronographe de), 314 rougissement, 115 Rowland (montage de), 509 Rydberg (états de), 416, 462 Rydberg (formule de), 459 S SAGE (observatoire), 440 SALT (telescope), 202
L’observation en astrophysique Schmidt (relevé), 625 Schmidt (télescope de), 194 Schottky (diode), 413, 418 SCIDAR, 71 scintillateur, 431 scintillation, 240, 243 scintillation interplanétaire, 249 SDSS (relevé), 628, 629 SEC (tube), 375 seconde (définition de la), 172 section efficace, 49 seeing atmosphérique, 24, 246 Seidel (aberrations de), 191 semi-classique (modèle), 344 senseur de front d’onde, 555 sensibilité (ondes gravitationnelles), 452 SERC/AAO (relevé), 626 seuil de saturation, 337 seuil de sensibilité, 337 seuil photoélectrique, 357, 358 Shack-Hartmann (analyseur), 256 Shannon (pas de), 539 Shannon (théorème de), 239, 538 shift-and-add, 248 shot noise, 347 SIGMA (mission), 216 signal d’obscurité, 337 signature instrumentale, 562 SIM (mission), 306 SIMBOL-X (mission), 212 SINFONI (instrument), 496 SIT (tube), 375 SKA (réseau), 291 snapshot mode, 285 SNO (observatoire), 441 SOFIA (telescope), 208, 518 Soleil (mouvement moyen du), 152 Soleil (spectre), 128 sous-pupilles, 237 soustraction de fond de ciel, 555 spallation, 90 spectre, 458 spectro-imageur, 471, 476 spectrohéliogramme, 497 spectromètre, 471 spectromètre à autocorrélation, 516
Index spectromètre à transformée de Fourier, 498 spectromètre acousto-optique, 513 spectromètre de Bragg, 508 spectromètre de Pérot-Fabry, 504 spectromètre échelle, 490 spectromètre holographique, 502 spectromètre multi-objet, 477 spectromètre multicanaux, 476 spectromètre séquentiel, 476 spectrométrie intégrale de champ, 495 spectrométrie multi-objets, 491 spectrophotométrie, 102 SPHERE (instrument), 318 SPIRE (instrument), 504 Spitzer (mission), 124, 209, 392, 517 SQUID (circuit), 400 SSB, 412 standard (local de repos), 467 standard primaire, 114 standard secondaire, 114, 120 station de travail, 30 statistique, 568 statistique des photons, 111 Stefan (loi de), 107 sténopé, 213, 214 stigmatisme, 187 Stokes (paramètres de), 105, 516 stratosphère, 44, 68 Strehl (rapport de), 259 structure (constante de), 242 structure (fonction de), 242 structure fine, 462 structure hyperfine, 462 SUBARU (télescope), 60 SUBMILLIMETRON (mission), 414 suiveur de frange, 300 super-résolution, 251 supernova SN 1987A, 443 supersynthèse d’ouverture, 289 suréchantillonnage, 189 sursaut γ, 218 sursaut solaire, 292 sursauteur, 218 SWIFT (instrument), 218 synthèse d’ouverture, 238, 289 système cinématique, 157
741 système horizontal, 141 système de référence, 153, 158 T TAI, 174 tasimètre, 390 taux de citation, 41 tavelure, 248, 259, 347 tavelure (annulation des), 322 Taylor (hypothèse de), 75 TDRSS (satellites), 94 télédétection, 11 télémétrie laser-Lune, 157 télescope, 212 télescope (ondes gravitationnelles), 447 ˇ télescope Cerenkov, 428 télescope Compton, 424 télescope gravitationnel, 194 télescope optique, 199 télescope X, 210 télescope UV, 206 télévision à comptage, 375 tellurure de cadmium, 437 température d’antenne, 61, 405 température de bruit, 406 température potentielle, 73 temps équation des temps, 170 sidéral, 150 césium, 172 solaire, 169 TUC, 175 UTC, 175 temps (échelles de), 167 temps atomique, 171 temps atomique international, 174 temps civil, 171 temps des éphémérides, 178 temps dynamique, 178 temps dynamique barycentrique, 178 temps dynamique terrestre, 178 temps Galileo, 177 temps GPS, 176 temps sidéral, 150 temps solaire vrai, 169 temps terrrestre, 178 temps universel, 171
742 temps universel coordonné, 175 temps-coordonnées barycentriques, 178 temps-fréquence, 648 TERAPIX (centre), 632 théorème central limite, 535, 659 Thirty Meter Telescope, 36 Thomson (section), 364 TIMMI (instrument), 396 tip-tilt, 257, 264 TMT (telescope), 205 TPF (mission), 611 transfert (équation de), 458 transfert de trame, 382 transfert de trame (CCD), 556 transformation en ondelettes, 651 transformée de Fourier (spectromètre à), 498 transformée de Fourier rapide, 516 transistor à effet de champ, 381 transition dans les solides, 463 transition moléculaire, 463 transition nucléaire, 463 transitions atomiques et moléculaires, 49 triplet correcteur, 192 tropopause, 44 troposphère, 44, 68 tube à décharge, 119 tube à décharge pulsée, 126 TUC, 175 turbulence atmosphèrique, 68 U UCAC, 164 UKIRT (télescope), 204 UMVU (estimateur), 571 Union Astronomique Internationale, 32 UTC, 175 V validation croisée, 542 van Allen (ceintures de), 90 Variabilité temporelle, 21 variable aléatoire, 653 variance, 656
L’observation en astrophysique Vega (standard), 121 vent solaire, 6, 89 vernal (point), 143 verticale locale, 140, 141 Very Large Telescope, 204 vibration-rotation, 463 vidéo (détection), 408 vidicon (tube), 375 Vierte Fundamental Katalog, 155 VIMOS (relevé), 627 VIRGO (instrument), 448 visibilité, 238 visible nulling coronagraph, 320 VLA (réseau), 81, 290, 407 VLBA (réseau), 295 VLBI (technique), 158, 159, 271, 293 VLT (telescope), 204 ISI (réseau), 299 Voigt (profil), 470 vol en formation, 323 vraisemblance a posteriori, 605 VSOP (mission), 295 VVDS (relevé), 627 W Wiener (filtre de), 606 Wiener-Khintchine (théorème de), 647 Wiener-Kolmogorov (filtre de), 541 Wigner-Ville (représentation de), 648 WMAP (mission), 131 Wolter (télescope de), 210 X XMM (mission), 211 Y Young (trous d’), 328 Z Zeeman (ffet), 468 Zemax, 548 Zentralen Grenzversatz, 535 Zernike (polynômes de), 254, 608 Zernike-van Cittert (théorème de), 225 zodiacale (lumière), 324
Cahier couleur
Fig. 1.7 – La Galaxie vue à différentes longueurs d’onde, depuis les radiofréquences jusqu’au rayonnement γ. De grands relevés par des moyens au sol ou dans l’espace ont été réalisés pour obtenir ces images qui couvrent la quasi-totalité du ciel. (Crédit : nasa-gsfc, mwmw.gsfc.nasa.gov/mmw-sci.html.)
Fig. 5.8 – Une vue d’artiste du James Webb Space Telescope, placé au point de Lagrange L2 et de diamètre 6.5 m. On distingue l’alignement du télescope, de la Terre et du Soleil, ainsi que l’écran protecteur de l’optique. (Crédit : nasa).
L’observation en astrophysique
Fig. 5.10 – Le ciel en rayonnement X (coordonnées galactiques). En haut : Relevé X par la mission heao1, bande 2-20 keV (Boldt, 1987). Au milieu : relevé rosat, les points désignent les plus brillantes des 100 000 sources X ponctuelles détectées (Voges et al., 2000). En bas : relevé rosat, émission X diffuse. Les énergies sont codées en couleur, du rouge (0.1-0.5 keV) au bleu (0.9-2.4 keV), (Snowden et al, 1997). (Figure aimablement communiqué par G. Hasinger, Garching.)
Cahier couleur
Fig. 5.12 – Vue de la pupille d’entrée des sept télescopes X, convergents, prévus pour la mission e-rosita (lancement 2015). Chaque télescope, au diamètre d’entrée de 16 cm, comprend 27 miroirs imbriqués. (Source : Max-Planck Institute für Extraterrestrische Physik.)
Fig. 6.17 – Réalisation du premier miroir secondaire adaptatif, possédant N = 336 actuateurs, sur le télescope mmt de 6.5 m (Mt. Hopkins, Arizona). Cette solution élégante, obtenue avec un miroir très mince (1.8 mm) et flexible, réduit la complexité optique de l’optique adaptative. Minimisant le nombre de surfaces optiques, elle réduit également l’émissivité thermique propre à l’instrument.
L’observation en astrophysique
Fig. 6.21 – Sur le site de Paranal, le télescope Yepun du vlt est équipé d’un laser formant une étoile artificielle, utilisée comme référence pour l’optique adaptative naos.(Sources : cliché dû à l’obligeance de Stefan Seip, astromeeting.de ; pour l’insert T. Ott, eso.)
Cahier couleur
Fig. 6.24 – Observation, avec l’optique adaptative naos du Very Large Telescope, du cœur de la Galaxie. Image obtenue à λ = 3.5 μm (bande L’), dans un champ, corrigé par optique adaptative, de 21.9 × 21.9 arcsec. Le niveau d’intensité est logarithmique. L’insert (2” × 2”) agrandit la région centrale, au voisinage de l’étoile, indiquée par deux traits sur l’image principale et proche de la source radio centrale SgrA* (). L’insert montre l’étoile S2 (), dont le suivi du mouvement au cours du temps permet la détermination de la masse du trou noir central, connaissant la distance du centre galactique au Soleil. (Document aimablement fourni par Y. Clénet, en collaboration avec R. Genzel, 2004.)
L’observation en astrophysique
Fig. 6.31 – Traitement d’image par la procédure clean. La radiosource CygX3, découverte en 1967 lors des premières observations X du ciel en fusée, est un système binaire, comprenant une étoile Wolf-Rayet et un objet compact et variable (micro-quasar). Observé avec le réseau vla à la fréquence de 5 GHz, ce micro-quasar montre, pour la première fois clairement, une éjection bipolaire rapide (vitesse 0.5 c). La procédure clean est ici adaptée au cas d’un objet rapidement variable, avec une résolution finale de 0.3” et une échelle logarithmique d’intensité. (Joseph Marti et al, Astron.Astrophys., 375, 476, 2001. Image due à l’obligeance de nrao-aui.)
Cahier couleur
Fig. 6.32 – Image de l’enveloppe circumstellaire (accrétion) LkHα 101, obtenue par masquage de pupille et clôture de phase sur le télescope Keck de 10 m (Hawaii) à λ = 2.2 μm. L’image a été traitée avec une certaine quantité d’information a priori pour faire apparaître l’étoile centrale Herbig Ae-Be (cf. § 9.6). (Avec l’aimable autorisation de Peter Tuthill. Voir Tuthill, P. et al., Ap.J. (2002) 577, 826.)
L’observation en astrophysique
Fig. 6.36 – La galaxie Messier 87 et son jet, distants de 15 Mpc du Soleil, observés aux radiofréquences. En haut : observations du vla, à gauche à λ = 90 cm, à droite à λ = 20 cm. En bas : observations du réseau interférométrique vlba à λ = 7 mm. Les échelles sont données sur chacune des images. rs , indiqué sur l’image inférieure, est le rayon de Schwarzschild du trou noir central, de masse M = 3× 109 M . (Cliché dû à la courtoisie de nrao/aui/nsf, auteurs : Junor, W., Biretta, J., Livio, M.)
Cahier couleur
Fig. 6.37 – Images séquentielles du Soleil prises par le radiohéliographe de Nançay à λ = 0.92 m lors d’une éruption solaire. L’émission est due à des faisceaux d’électrons se propageant dans les structures magnétiques de la couronne à une vitesse de l’ordre de c/3, et ne dure que quelques secondes. Le cercle blanc trace le bord du disque visible du Soleil. (Cliché aimablement fourni par Ludwig Klein et publié par Maia, D. et al. (1998) Solar Phys. 181, 121-132.)
Fig. 6.38 – Le radio-interféromètre du Plateau de Bure (France), fonctionnant aux longueurs d’onde millimétriques.
L’observation en astrophysique
Fig. 6.39 – Une vue d’artiste du réseau interférométrique alma, en construction (2008) sur le site de Chajnantor (Chili), à 5 100 m d’altitude. Le réseau est ici représenté avec son déploiement maximal. En insert, une antenne prototype de 15 m (Document eso.)
Fig. 6.46 – Trois des télescopes mobiles de 1.8 m du vlti, qui est la configuration interférométrique du vlt à Paranal. (Cliché original dû à l’obligeance de Pierre Kervella.)
Cahier couleur
Fig. 6.50 – Vue d’artiste d’une configuration possible de la mission européenne Darwin. Une flottille de quatre satellites, portant chacun un télescope, indépendants et naviguant en formation, constituent un interféromètre. Le signal interférométrique est produit et traité dans un cinquième vaisseau, vers lequel convergent les quatre faisceaux. Il fournit également la liaison vers la Terre et l’énergie par panneaux solaires. L’ensemble est placé au point de Lagrange L2. Depuis sa conception dans les années 1990, la configuration n’a cessé d’être optimisée, en réduisant en particulier le nombre de télescopes, donc le coût. (Agence spatiale européenne, 2007.)
Fig. 7.32 – La nébuleuse d’Orion, observée en 2001 avec le Very Large Telescope européen et l’instrument isaac. Cette image est composée à partir d’images prises dans trois bandes différentes (J, H et K) et est une mosaïque d’images individuelles (3 × 3), au format du récepteur HgCdTe (1 024 × 1 024). Champ : 7’ × 7’ ; pixel : 0.15”. Le Nord est en haut, l’Est à gauche. (Source : ESO & M. McCaughrean.)
L’observation en astrophysique
Fig. 7.53 – (Vue de deux des quatre collecteurs de lumière formant l’instrument hess, installé dans le désert de Namibie. (Cliché aimablement fourni par la collaboration hess et le cea-dapnia.)
Fig. 7.58 – Dessin d’artiste, illustrant la disposition des lignes de lumière du détecteur antares au sein de la Méditerranée. Sur les 12 lignes sont répartis 1 000 photomultiplicateurs au total, couvrant une surface horizontale de 0.1 km2 sur une hauteur de 350 m. (Dessin aimablement fourni par la collaboration antares.)
Cahier couleur
Fig. 8.16 – Principe de la spectrométrie multi-objets.
Fig. 9.4 – Le quasar QSO PG 1115+08, observé dans l’infrarouge proche (bandes J et K’) avec le télescope japonais Subaru (Hawaii). La résolution de l’image est 0.12 arcsec, grâce à la combinaison d’une optique adaptative et d’une déconvolution. (a) Un anneau d’Einstein (mirage gravitationnel). (b) Image composite (J+K’) montrant les quatre composantes. Comparer avec la figure 9.3, obtenue deux décennies plus tôt. (Reproduit avec la permission de Iwamuro, F. et al., Publ.Astr.Soc.Jap., 52, 25-32, 2000.)
L’observation en astrophysique
Fig. 9.12 – Extrait d’une image d’un champ très profond obtenu avec la caméra megacam au foyer du télescope Canada-France-Hawaii. On notera deux types d’artefacts autour des étoiles brillantes : a) deux halos étendus, imbriqués, dus aux réflexions parasites sur les lentilles du réducteur focal : de forme circulaire, chacun reproduit une image de la pupille du télescope avec son obstruction centrale ; b) des aigrettes en forme de croix : elles résultent de la diffraction de la lumière sur les bras de l’araignée qui maintient, au foyer primaire, la structure mécanique dans laquelle la caméra est installée.
MV
MV + positivité spectres
map
Fig. 9.19 – Cartes de vraisemblance pour la position de la planète. À gauche, vraisemblance seule ; au centre, vraisemblance sous contrainte de positivité des spectres ; à droite, map c’est-à-dire vraisemblance pénalisée par un critère de régularisation spectrale. Code couleur : noir correspond à une vraisemblance nulle, rouge à une vraisemblance maximale. La vraie position de la planète est en bas, légèrement à gauche, bien visible sur l’image de droite. (D’après Mugnier, L., Thiébaut, E. et Belu, A., dans Astronomy with high contrast imaging III, EDP Sciences, Les Ulis, 2006, et également Thiébaut, E. & Mugnier, L., « Maximum a posteriori planet detection with a nulling interferometer », dans Actes IAU Conf. 200, Nice, 2006.)
Cahier couleur
Fig. 10.1 – Confusion et résolution spatiale sur les images d’un champ (6.6’ × 6.6’) observé dans l’infrarouge et contenant des galaxies. En haut : mission iso, λ = 170 μm ; mission Spitzer, λ = 160 μm, en bas : λ = 70 μm, λ = 24 μm. (Guilaine Lagache et al, ARAA, 43, 727, 2005, avec l’aimable autorisation de l’éditeur.)
Fig. 10.2 – Le plan focal de la caméra megacam, c’est-à-dire le cœur de la caméra où sont implantées les 40 matrices ccd amincies de 4 612 × 2 048 pixels fabriquées par la société eev (UK).