dimanche 21 septembre 2014

Gros Plan sur la Comète

Vous voyez cette montagne enneigée sur fond noir ? Et bien c'est la comète Churyumov-Gerasimenko vue par la sonde Rosetta à seulement 62 km de distance !

Churyumov-Gerasimenko vue par Rosetta à 62 km
ESA / Rosetta / MPS for OSIRIS Team; MPS/UPD/LAM/IAA/SSO/INTA/UPM/DASP/IDA
La sonde Rosetta poursuit ses approches en orbite de la comète 67P/Churyumov-Gerasimenko notamment pour imager les meilleurs sites d'atterrissage pour le module Philae devant s'y poser en novembre. Cette image date d'il y a environ 10 jours. Le noyau de la comète apparaît très sombre, sa surface reflète seulement quelques pourcents de la lumière du soleil qui l'atteint, équivalent à un morceau de charbon par exemple.

Ce noyau cométaire fait environ 4 km dans sa plus grande longueur. La gravité y est si faible qu'un astronaute qui serait dessus, en sautant, n'y retomberait pas mais se retrouverait à la dérive dans l'espace...

jeudi 18 septembre 2014

AMS-02 se Rapproche de la Matière Noire

Cet après-midi dans le grand auditorium du CERN à Genève, Samuel Ting a présenté les nouveaux résultats de l'expérience AMS-02, ce gros détecteur de particules et antiparticules installé en orbite sur l'ISS.
Les premiers résultats avaient été présentés au mois d'avril 2013 et nous nous en étions fait l'écho ici même



Ces nouveaux résultats qui viennent d'être présentés, et publiés dans la foulée dans Physical Review Letters sont très intéressants. Bien évidemment, aucune découverte majeure n'a été annoncé par le prix Nobel 1976, non, mais une petite découverte qui montre un phénomène vraiment intéressant. AMS-02 détecte des rayons cosmiques de très haute énergie, majoritairement des électrons et leurs antiparticules, les positrons, mais aussi des protons, des antiprotons, et autres petits noyaux chargés. Le paramètre clé pour ce qui nous concerne, nous qui nous intéressons à la matière noire est ce que l'on nomme la fraction de positrons, il s'agit du nombre de positrons détectés par rapport au nombre d'électrons+positrons. C'est un paramètre-clé car si la fraction de positrons (qui est toujours très inférieur à 0,5) augmente en fonction de leur énergie, c'est potentiellement un signe de l'existence de matière noire sous forme de particules massives (très massives, pour le coup). Et c'est justement ce qui était vu en 2013 confirmant des résultats d'autres expériences antérieures mais beaucoup moins précises. 

Fraction de positrons mesurée par AMS-02 avec 10,9 millions de particules (AMS Collaboration)
Les résultats présentés cet après-midi à Genève non seulement confirment les résultats de 2013, mais les affinent  en y apportant plus de précision. 
Sur les 54 milliards de particules détectées par AMS depuis sa mise en service en 2011, 46 milliards ont pu être analysées, parmi lesquelles ont été isolés 10,9 millions d'électrons et positrons (on en avait que 6,8 millions en avril 2013). Et grâce à ce nombre beaucoup plus important de particules, la valeur de la fraction de positrons en fonction de l'énergie peut être tracée avec beaucoup plus de précision. Et voilà cette petite découverte majeure dans les données : on peut aujourd'hui affirmer avec certitude que la courbe commence à baisser (le genre de chose qui en fait rêver plus d'un du côté de l'Elysée...). 

On peut donc affirmer que la fraction de positrons commence à décroître à partir d'une énergie de 275 GeV. Pourquoi est-ce si important ? Parce que le modèle décrivant des neutralinos de plusieurs centaines de GeV indique que ces particules de matière noire peuvent s'annihiler entre elles en produisant justement un excès de positrons, comme ce qui semble être observé par AMS-02. Et le modèle prédit justement que la fraction de positrons doit croître lentement en fonction de l'énergie, sans sauts brutaux (exactement ce qui est observé pour l'instant), et cette fraction de positrons doit ensuite brutalement chuter au niveau de l'énergie correspondant à la masse du neutralino. Il faut donc qu'à partir d'une certaine énergie la fraction de positrons commence à décroître, puis elle devrait ensuite chuter.  Mais plus les particules détectées sont énergétiques et moins il y en a... C'est donc un long cheminement pour produire ces mesures de précisions. La courbe de la fraction de positrons en fonction de l'énergie doit être patiemment construite en engrangeant toujours plus de particules...

Evolution de la fraction de positrons (modèle théorique)
pour un neutralino de 400 GeV et de 800 GeV
Il se peut aussi que la courbe décroisse lentement après ce sommet à 275 GeV au lieu de chuter brutalement, et dans ce cas, cela voudra dire que cet excès n'est pas dû à des annihilations de neutralinos... Ces positrons pourraient aussi être produits par une source astrophysique comme les pulsars. Mais cette solution n'est tout de même pas très privilégiée car les positrons dans ce cas devraient avoir une distribution assez anisotrope (venant de directions privilégiées), ce qui n'est pas du tout observé, au contraire, les positrons de AMS semblent très isotropes, ce qui est aussi en faveur de l'explication de type matière noire (annihilation de neutralinos de plusieurs centaines de GeV)...

Au rythme actuel de détection par AMS-02, la courbe de la fraction de positrons pourra peut-être arriver à sa chute providentielle dans moins de 10 ans, peut-être 5... Ou jamais... en tout cas, c'est absolument passionnant ! 


Référence : 

High Statistics Measurement of the Positron Fraction in Primary Cosmic Rays of 0.5–500 GeV with the Alpha Magnetic Spectrometer on the International Space Station

L. Accardo et al. (AMS Collaboration)
Phys. Rev. Lett. 113, 121101 – Published 18 September 2014

mercredi 17 septembre 2014

La Galaxie Naine et son Trou Noir Géant

Nous poursuivons notre série (involontaire) sur les trous noirs supermassifs… Cette découverte publiée aujourd’hui en vaut la chandelle. Une équipe d’astronomes vient en effet de trouver un trou noir supermassif, donc, mais dans une minuscule galaxie ! En fait il s’agit d’une configuration totalement inédite.



Cette galaxie est ce qu’on appelle une galaxie naine ultracompacte (une UCD, selon l’acronyme anglais, pour ultra compact dwarf), et se nomme M60-UCD1. Elle est située tout près de la grosse galaxie M60, à 54 millions d’années-lumière de nous.

La galaxie naine ultracompacte M60-UCD1
(NASA/Space Telescope Science Institute/ESA)
L’équipe menée par Anil Seth, de l’université de l’Utah, publie sa découverte dans Nature aujourd’hui. C’est avec le télescope spatial Hubble et le télescope Hawaïen Gemini North qu’ils ont observé attentivement ce qui se passait vers le centre de cette toute petite galaxie de 300 années-lumière de large seulement, mais contenant tout de même 140 millions d’étoiles.

L’émission X provenant de son centre avait intrigué la communauté. Pour en avoir le cœur net, les astronomes ont mesuré la vitesse de nombreuses étoiles peuplant la zone centrale de M60-UCD1.

L’étonnement fut vraiment grand lorsqu’ils découvrirent la valeur numérique de la masse invisible située au cœur de la galaxie et responsable du mouvement des étoiles mesurées : 21 millions de masses solaires ! Ce trou noir fait plus de 5 fois la masse du trou noir supermassif de notre galaxie (qui elle contient plusieurs centaines de milliards d’étoiles et un diamètre 600 plus grand que cette minuscule). C’est simple, à lui seul, le trou noir supermassif de M60-UCD1 représente 18% de la masse totale des étoiles de sa galaxie. Du jamais vu.

Les astronomes pensent maintenant tenir une nouvelle classe de galaxies, et reconnaissent désormais le rôle prédominant que peuvent avoir les trous noir supermassifs sur l’évolution des galaxies. Et Seth et ses collègues avancent une explication à l’existence de cette bizarrerie cosmique : comme une si petite galaxie ne semble pas pouvoir avoir créé un tel trou noir, il se pourrait qu’elle ait été dans le passé beaucoup plus grosse… 
Etant très près de la galaxie M60, les auteurs proposent l’idée que les deux galaxies auraient pu subir une collision il y a plus de deux milliards d’années, M60 ayant fini par arracher une très grande partie des étoiles de M60-UCD1, qui contenait alors 10 milliards d’étoiles, et qui devint brutalement comme peau de chagrin… mais tout en conservant son trou noir supermassif de grosse galaxie… Soit dit en passant, M60 possède elle-aussi un monstrueux trou noir dans son centre, mais lui de 4,5 milliards de masses solaires!

Jusqu’à aujourd’hui, on pensait impossible que de telles galaxies naines ultracompactes puissent abriter un trou noir supermassif. Et comme il y a presque autant de galaxies naines ultracompactes que de grosses galaxies dans notre Univers proche, le nombre total de trous noirs supermassifs pourrait tout simplement passer du simple au double.
C’est désormais ce que va essayer de démontrer Anil Seth et ses collègues allemands en s’intéressant de plus près à d’autres galaxies proches de type UCD.


Référence :
A supermassive blackhole in an ultracompact dwarf galaxy
A. Seth et al.
Nature 513, 398–400 (2014).

lundi 15 septembre 2014

Une Solution pour la Naissance des Trous Noirs Supermassifs

L’existence de trous noirs supermassifs de plus de 1 milliard de masses solaires dans un Univers à peine âgé de 1 milliard d’années pose de grandes questions aux astrophysiciens.


Comment de tels objets ont-ils pu grossir de la sorte en si peu de temps ? Ces trous noirs supermassifs sont les sources d’énergie qui sont à l’origine des quasars, objets extrêmement lumineux et lointains, connus depuis une cinquantaine d’année.
Vue d'artiste d'un trou noir entouré par un disque d'accrétion.
(NASA/CXC/SAO)
Les quasars les plus lointains que nous connaissons se situent dans une zone de l’espace-temps où l’Univers n’avait que 6% de son âge, soit un peu moins d’un milliard d’années. Les premières étoiles, elles, sont apparues quand l’Univers était âgé environ d’une centaine de millions d’année et les premières galaxies aux alentours de 500 millions d’années.
Ce que l’on pense aujourd’hui, c’est que les trous noirs supermassifs grossissent par fusion successives de trous noirs de masses intermédiaires, de plusieurs centaines de milliers de masse solaire. Mais un trou noir « normal » se forme par l’effondrement d’une étoile qui peut avoir environ une masse de 10 masses solaires, seulement. Les premiers trous noirs sont apparus après l’effondrement d’étoiles de la toute première génération, celles qui sont nées quelques centaines de millions d’années après la singularité initiale, et qui ont dû avoir une durée de vie très courte, probablement moins de 100 millions d’années.
On pense donc raisonnablement qu’il existait de nombreux trous noirs stellaires (de l’ordre de 10 masses solaires) dans l’Univers âgé de 300 à 400 millions d’années.
Mais comment peut-on passer de trous noirs de 10 masses solaires à des énormités de plus de 100000 masses solaires en l’espace de seulement 600 millions d’années ? Cette question est l’une des grandes énigmes actuelles en astrophysique. La question se pose car le grossissement en masse des trous noirs par accrétion de matière est un processus limité : le taux d’accrétion d’un trou noir (la quantité de masse attrapée par seconde) ne peut pas dépasser une certaine limite physique, le taux d’Eddington, qui est lié à la pression de radiation produite par le rayonnement du disque d’accrétion, qui vient s’opposer à la force de gravitation faisant tomber le gaz dans le disque d’accrétion.

Schéma du principe d'accrétion exponentielle par diffusion
au sein d'un amas dense. Le trou noir a un mouvement
erratique et collecte de la matière dans son mouvement.
 (Alexander et al., Science)

Deux astrophysiciens, un israélien et un américain, viennent de proposer une solution possible à cette énigme. Dans un court article paru dans le numéro de Science de vendredi dernier, ils proposent un mécanisme dynamique permettant à un trou noir stellaire d’outrepasser la limite d’Eddington et de grossir très rapidement et très fortement pour atteindre la taille d’une graine de trou noir supermassif, soit 10000 masses solaires en moins de 10 millions d’années.
Leur proposition est la suivante : à l’origine, un trou noir stellaire de 10 masses solaires se trouve emprisonné à l’intérieur d’un amas très dense d’étoiles. De plus, cet amas est traversé par un flux de gaz froid et dense également. Ce type d’amas d’étoiles pourrait être les toutes premières proto-galaxies.

Ce qui se passe est que le disque d’accrétion entourant le trou noir est fortement perturbé par les multiples interactions gravitationnelles entre le trou noir et les étoiles environnantes, très nombreuses. De fait, le trou noir se retrouve comme balloté dans un mouvement erratique parmi les milliers d’étoiles de l’amas. De plus, le flot de gaz froid circulant au milieu de tout ce monde a pour effet de rendre opaque le milieu à proximité immédiate du disque d’accrétion du trou noir. La conséquence de ces effets simultanés est une sorte de disparition de la limite d’Eddington : dans ces conditions particulières, le trou noir se retrouve pouvoir accréter et absorber tout le gaz (et les étoiles sont du gaz) se trouvant sur son chemin avec un taux (la quantité de masse par seconde) sans aucune limite. Ce grossissement est qualifié par les auteurs de supra-exponentiel, c’est dire…

Tal Alexander et Priyamvada Natarajan montrent que dans ces conditions particulières, un trou noir de taille stellaire atteint 10000 masses solaires en moins de 10 millions d’années. Ils indiquent également qu’avec de telles graines de trous noirs  de 10000 masses solaires, le seul effet d’une accrétion revenue dans un régime normal (avec limite d’Eddington) suffirait à obtenir des trous noirs de 1 milliard de masse solaire quelques centaines de millions d’années plus tard, même sans avoir recours à des fusions de graines…

Ils concluent leur article en précisant qu’il n’est même pas nécessaire qu’un tel mécanisme ait lieu systématiquement. Si cela a eu lieu dans seulement 1 à 5% des amas denses d’étoiles de l’Univers très jeune, ce serait suffisant pour expliquer le nombre de quasars que nous voyons aujourd’hui.
Serait-ce le début de la fin d’une énigme ?


Référence : 

Rapid growth of seed black holes in the early universe by supra-exponential accretion
Tal Alexander and Priyamvada Natarajan
Science, vol 345 issue 6202 (12 september 2014)

samedi 13 septembre 2014

Les Quasars Classés se Dévoilent

C’est en 1963 que les quasars ont été formellement identifiés comme étant l’émission associée à des trous noirs supermassifs accrétant de la matière au cœur de galaxies lointaines. Le terme quasar, contraction de quasi-stellar object vient du fait que l’observation en lumière visible de ces objets ressemble à s’y méprendre à une étoile… sauf que leur distance est extrêmement élevée, plusieurs milliards d’années-lumière, rendant leur origine stellaire impossible. 



Rappelons rapidement que toutes les étoiles que nous pouvons voir dans le ciel font partie de notre galaxie, et sont donc situées à moins de 100000 années-lumière de nous.
Le Quasar 3C 175 montrant un puissant jet de matière signant
l'axe de rotation du trou noir supermassif (NRAO/AUI)
La gigantesque luminosité des quasars est dûe au disque de matière (du gaz) qui tourne autour du trou noir géant à une vitesse proche de la vitesse de la lumière. L’échauffement et la friction du gaz produit cette émission lumineuse dans diverses longueurs d’ondes, elle est si intense qu’elle dépasse largement la luminosité des milliards d’étoiles qui constituent la galaxie hôte du monstre, et est visible à plusieurs milliards d’années-lumière de là.
On peut étudier les propriétés d’un tel quasar en faisant de la spectroscopie de sa lumière, en analysant la lumière par décomposition de ses longueurs d’onde. Grâce à cette technique, deux astrophysiciens chinois viennent tout juste de faire une trouvaille très intéressante, qui va permettre de mieux comprendre comment fonctionne un quasar.
Il n’ont pas étudié le spectre d’un seul quasar isolé, mais les spectres de plus de 20000 quasars ! En étudiant cette très grande population de quasars (j’ignorais d’ailleurs qu’on en connaissait déjà autant), Shen et Ho arrivent à montrer que tous les quasars peuvent être classés en fonction de seulement deux petits paramètres physiques. Pour la première fois, ils montrent que ces objets hors du commun ont des propriétés communes reliées à des paramètres simples, et qu’il existe une sorte de classe standard de quasars, de la même façon que les étoiles avaient pu être classées en fonction de leur couleur et de leur luminosité au début du XXème siècle, montrant l’existence de familles d’étoiles.
Les raies d’émission visibles dans le spectre de leur lumière révèlent des informations sur l’environnement des quasars.
Les rapports d’intensité entre différentes raies qui correspondent à des niveaux d’ionisation différents du gaz fournissent une information sur l’intensité du rayonnement du disque à l’origine de cette ionisation. Cette intensité de rayonnement du disque est elle-même directement une fonction de ce qu’on appelle le ratio d’Eddington. Un trou noir ne peut pas avoir un taux d’accrétion de gaz infini, il existe une limite, qui correspond au moment où la force de pression du rayonnement dans le disque d’accrétion (force vers vers l’extérieur) contrebalance exactement la gravité du gaz tombant vers le trou noir (vers l'intérieur).  Le trou noir peut continuer à accréter de la matière, mais à un taux constant.
Le ratio d’Eddington est le rapport de la luminosité d’un disque d’accrétion par rapport à celle d’un disque d’accrétion arrivé à la limite, c'est une sorte d’indicateur d’âge du disque d’accrétion. Mesurer des rapports d’intensité de raies bien choisies dans le spectre permet ainsi de connaître le rapport d’Eddington du quasar, c’est-à-dire la maturité de son disque d’accrétion.

L’autre information clé pouvant être obtenue dans les raies du spectre vient de l’effet Doppler, cet effet qui décale les longueurs d’ondes vers le bleu ou vers le rouge en fonction de la vitesse (rapprochement ou éloignement) de la source émettrice. 
Graphe de classification des quasars
(Shen et Ho, Kavli Institute for astronomy and astrophysics)
C'est la vitesse du gaz situé dans la ligne de visée entre le trou noir géant et nous que nous voyons, et celle-ci dépend de la force de gravitation présente, et donc de la masse du trou noir. Mais le problème dans cette méthode de mesure c'est que cette évaluation dépend de l'angle existant entre l'axe de rotation du trou noir (c'est à dire le plan du disque d'accrétion, orthogonal), et l'axe de visée, dont dépend directement la vitesse d'éloignement/rapprochement. On peut connaître cet axe de rotation dans certains quasars quand des jets de matière et de rayonnement sont bien visibles, car ils sont toujours situés exactement dans l'axe de rotation du trou noir. Mais tous les quasars ne montrent pas forcément leurs jets... C'est pour pallier à cette difficulté majeure que Shen et Ho ont eu l'idée de tracer la population de milliers de quasars en fonction de deux paramètres : sur l'axe des X, un ratio d'intensité de raies, le traceur du ratio d'Eddington (traceur de la maturité du disque d'accrétion et qui dépend aussi de la masse du trou noir), et sur l'axe des Y, l'élargissement Doppler, traceur à la fois de la masse du trou noir et de l'orientation de son axe de rotation.

Ce graphique en 2 dimensions est très riche d'enseignements : il montre pour la première fois qu'il existe un lien entre le ratio d'Eddington et l'environnement à grande échelle des quasars; les trous noirs les plus massifs  (i.e ceux qui ont un taux d'accrétion faible et un ratio d'Eddington petit) existent davantage dans des environnements à grande échelle où les quasars et leur galaxie hôte sont le plus fortement imbriqués.

Par cette nouvelle classification des quasars, Shen et Ho montrent que le comportement des noyaux de galaxie, qui ont une échelle relativement petite, semble lié à ce qui se passe à l'échelle bien plus grande de l'amas de galaxies, ce qui laisse penser à l'existence de relations d'évolution entre ces deux entités, trous noirs supermassifs et amas de galaxies...

Référence :
The diversity of quasars unified by accretion and orientation
Shen, Y. & Ho, L. C.
Nature 513, 210–213 (2014)

lundi 8 septembre 2014

La Lune : un Gros Détecteur de Rayons Cosmiques

L’origine des rayons cosmiques ultra-énergétiques est aujourd’hui toujours mystérieuse. Et pour cause, on a du mal a en détecter suffisamment pour déterminer leur direction de provenance dans le ciel, ce qui pourrait aider à comprendre leur origine.



Ces protons (pour la plupart) qui peuvent avoir une énergie de 1020 eV sont effectivement assez rares. On parvient à en détecter avec un taux d’une particule par kilomètre carré par siècle. Il faudrait donc agrandir considérablement nos détecteurs si on ne peut compresser le temps…

Le plus grand détecteur dédié à une telle recherche de particules cosmiques ultra-énergétiques est l’Observatoire Pierre Auger, du nom du grand physicien français qui fut un pionnier de la physique subatomique. L’Observatoire Pierre Auger est un vaste réseau de détecteurs disposés dans la pampa argentine sur environ 3000 km². Le concept à la base de ce type de détecteurs est d’être sensible non pas à la particule primaire ultra-énergétique, mais aux nombreuses particules secondaires et tertiaires qui se forment par interactions dans la haute atmosphère. En détectant et mesurant l’énergie et la direction de milliers de particules secondaires formant de grandes gerbes, on parvient à reconstruire les caractéristiques de la particule leur ayant donné naissance.

Mais l’Observatoire Pierre Auger n’est pas encore assez grand pour capturer suffisamment d’ultraparticules… Il n’en analyse environ que 30 par an avec une bonne donnée directionnelle, ce qui est vraiment trop peu pour avoir des résultats statistiquement propres…
Comment faire ? Des physiciens anglais, russes, hollandais et australiens viennent de proposer une idée étonnante, et pour le moins innovante. Ils proposent d’utiliser la Lune comme détecteur de particules! La moitié du détecteur en fait, car l’autre moitié reste sur Terre. Leur idée est la suivante : de même que les particules cosmiques produisent des interactions dans la haute atmosphère, elles le font également avec toute la matière qu’elles rencontrent sur leur trajet. Et la Lune peut bien sûr se retrouver sur le trajet. Comme lorsqu’elles parviennent dans l’atmosphère terrestre, les particules ultra-énergétiques vont produire d’intenses gerbes de particules secondaires dans la croûte de la Lune. L’effet que l’équipe de physiciens souhaite utiliser est un phénomène physique qui est appelé l’effet Askaryan, du nom du physicien soviétique qui l’avait mis en évidence dans les années 1960.
Rayonnement Askaryan produit par une particule
énergétique dans le régollithe lunaire (J. Bray et al.)
Ici, ce ne sont pas directement les gerbes de particules secondaires que l’on va chercher à détecter, et non, parce que ces particules sont réabsorbées très vite par la croûte lunaire. L’effet Askaryan a lieu exactement au moment où la particule primaire interagit avec un noyau d’atome et produire une gerbe de particules secondaires. Toutes ces particules (la primaire comme les secondaires) sont des particules électriquement chargées. Et dès la production de la gerbe, de nombreuses particules produites subissent une très forte décélération. Et qui dit décélération de charge électrique dit rayonnement électromagnétique. L’effet Askaryan est une émission d’ondes électromagnétiques (dans le domaine des ondes radio) lors de la production des gerbes de particules. Cette émission est très intense, mais surtout très très courte, environ  une nanoseconde.
La solution envisagée est tout de même un peu subtile, car en effet, la Lune offre potentiellement une surface de détection considérable, mais les ondes radio sont elles aussi absorbées par la croûte lunaire. Il en résulte que la surface utile est en fait constituée seulement par les bords de la Lune, là où le rayonnement n’a qu’une mince épaisseur à traverser. D’autre part, l’émission radio est produite en lobes, ce qu'il faut prendre en compte. 

Vue d'artiste du Square Kilometer Array (SKA Telescope)
L’équipe mené par Justin Bray a calculé qu’une telle émission en provenance des bords de la Lune serait assez facilement détectable avec le futur grand réseau de radiotélescopes actuellement en construction en Australie et en Afrique du Sud , le SKA (Square Kilometer Array). Ils estiment que la Lune associée au SKA serait équivalente à un observatoire dix fois plus vaste que l’Observatoire Pierre Auger, et permettrait donc de capturer (indirectement) 10 fois plus de rayons cosmiques ultra-énergétiques dans la même durée…
Ce qui est vraiment très intéressant avec ce principe de détection, c'est qu'il s'applique également aux neutrinos énergétiques, qui sont eux-aussi mystérieux et possèdent a priori une autre origine. L'intérêt est donc multiple, et quand l'imagination est au pouvoir, on ne peut pas l'arrêter...


Référence :
Lunar Detection Of Ultra-High-Energy Cosmic Rays And Neutrinos
J.Bray et al.
arxiv.org/abs/1408.6069


vendredi 5 septembre 2014

Du Nouveau sous le Soleil

Le Soleil est une étoile périodique. Son activité est rythmée par un cycle de 11 ans environ. Ce cycle montre une activité de notre étoile qui passe par des maxima et des minima. Nous venons par exemple de passer un maximum d’activité il y a quelques mois et le prochain maximum doit avoir lieu dans 11 ans.


L’activité solaire est observée par les hommes depuis très longtemps. C’est au XVIIème siècle que les astronomes observèrent des taches apparaissant sur la surface du Soleil et commencèrent à les répertorier et à les compter. Il se trouve que plus le soleil a une activité magnétique intense, plus le nombre de taches sombres à sa surface est important, c’est ce qu’on a fini par comprendre au fil des décennies.  Le cycle actuel est déjà le 24ème cycle de 11 ans qui est suivi rigoureusement par la communauté scientifique.
Lors d’un maximum, c’est non seulement un nombre de taches important qui est visible mais c’est aussi la période au cours de laquelle ont lieu les plus fortes éruptions solaires, qui peuvent produire des effets voire des dégâts jusque par chez nous, à défaut de produire de magnifiques aurores boréales ou australes…

Mais dans le fond, on connaît très mal les mécanismes qui produisent ce cycle de 11 ans. D’ailleurs 11 ans est une moyenne car ces cycles sont tout sauf réguliers, que ce soit en amplitude ou en durée. Le cycle le plus court n’a duré que 9 ans tandis que le plus long a duré près de 14 ans. Et l’amplitude du maximum actuel est très faible, l’activité au maximum n’avait jamais été aussi faible depuis plus de 100 ans…

Image composite de 25 clichés révélant la migration des zones
 magnétiques vers l'équateur (NASA/SDO/Goddard)
On n’avait depuis plusieurs siècles que le nombre de taches pour essayer de comprendre l’activité de notre étoile préférée. Mais voilà que des chercheurs américains viennent de découvrir un nouveau marqueur permettant de suivre l’activité des cycles solaires, qu’ils décrivent dans un article venant de paraître dans The Astrophysical Journal. Il s’agit de ce qu’ils appellent des « points brillants » (brightpoints), petites zones brillantes situées dans l’atmosphère solaire. Ces points brillants permettent d’observer d’une nouvelle manière comment évoluent les champs magnétiques du Soleil.

Scott McIntosh, du National Center for Atmospheric Research dans le Colorado et son équipe proposent d’observer les points brillants pour explorer l’intérieur du Soleil et ses mécanismes à l’origine de son activité périodique.
Au cours d’un cycle, les taches solaires ont tendance à migrer des hautes latitudes vers l’équateur solaire, comme emportées par de vastes mouvements de convection, tout en restant toujours à des latitudes inférieures à 30°.

C’est en cherchant des zones magnétiques particulières pouvant expliquer ces mouvements que McIntosh et ses collègues en utilisant le télescope solaire SDO (Solar Dynamics Observatory) ont trouvé ces taches extrêmement brillantes en  UV lointain et en rayons X qui semblaient s’enrouler autour des vertex formés par ces grandes zones magnétiques. Ils ont alors recherché dans les 18 années de données collectées par les satellites SOHO et SDO comment bougeaient ces points brillants au cours de plus d’un cycle solaire. Ils ont découvert que ces points brillants suivaient globalement le même chemin que les taches sombres, des hautes latitudes vers l’équateur, mais en commençant leur trajet bien plus haut, vers 55° au Nord comme au Sud.  De plus chaque hémisphère semble posséder plus d’une bande composée de ces points brillants.


McIntocsh explique que des interactions complexes de lignes de champ magnétique pourraient exister sous les couches externes du Soleil, cachées à notre vue. Les récentes observations montrent que le Soleil est peuplé de bandes de matériau magnétisé et polarisé différemment, qui une fois formées, se déplacent lentement vers l'équateur. Ces bandes sont soit polarisées Nord ou Sud et leur signe est exactement inversé de part et d’autre de l’équateur solaire, comme une image miroir. Des lignes de champ magnétique relient ces bandes entre elles et même d’un hémisphère à l’autre par-dessus l’équateur. Il apparaît que c’est lorsque ces lignes de champ sont les plus courtes que l’activité solaire est la plus faible et que le nombre de taches sombres est le moins important. Lorsque deux bandes de polarité opposées se rencontrent à l’équateur, elles disparaissent brutalement. Une telle bande met entre 16 et 21 ans pour migrer de 55° de latitude jusqu’à l’équateur. Au moment d’une annihilation, il ne reste que deux larges bandes  sur le Soleil qui se trouvent alors à 30° de latitude, les lignes de champ qui les joignent sont les plus grandes et c’est le moment du maximum de taches sombres qui apparaissent justement sur ces bandes.
Selon ce modèle, le cycle de 11 ans peut être vu comme la superposition de deux cycles plus longs, les cycles des bandes magnétiques, et il explique enfin pourquoi les taches sombres apparaissent toujours à 30° de latitude.

Mais pourquoi les points brillants associés aux bandes magnétiques apparaissent-ils à 55° de latitude ? McIntosh répond à cette question en imaginant qu’au dessus de cette latitude l’atmosphère solaire est déconnectée de la rotation de la « surface », il y aurait des mouvements très différents dans les couches profondes du Soleil entre les hautes latitudes et l’équateur, et 55° correspondrait à une latitude critique, qu’il reste à investiguer de plus près pour comprendre ce qui s'y passe…

Référence : 
Deciphering Solar Magnetic Activity. I. On The Relationship Between The Sunspot Cycle And The Evolution Of Small Magnetic Features
Scott McIntosh et al. 
The Astrophysical Journal Volume 792 Number 1, 12 (1 sept 2014)

Source : NASA News