La Fusion contrôlée

 

 

 

 

J.L. Bobin

 

 

 

 

 

 

 


 

 

 

 

Résumé:

     Au cours des cinquante dernières années, les recherches sur la fusion thermonucléaire contrôlée ont donné lieu à des avancées remarquables aussi bien dans le domaine du confinement magnétique (filière Tokamak) que dans celui du confinement inertiel (utilisation des lasers). Mais l’état de l’art ne permet pas d’envisager l’apparition de la fusion sur le marché de l’énergie avant la seconde moitié du XXI ème siècle.

 

 

 

 

 

Table des Matières:

 

            1.         Introduction.

            2.         Réactions de fusion

            3.         La Nature et les décideurs.

            4.         Chaudron magnétique ou micro “big-bang“?

            5.         30 années de “pensée(s) unique(s)“: is big beautiful?

            6.         Succès, certitudes et incertitudes.

 


 

 

 

 

 

 

 

 

1.      Introduction

     Vers 1920, Jean Perrin puis Arthur Eddington avancèrent les premiers l'idée que des réactions nucléaires de fusion fournissent l'énergie qui fait briller les étoiles. Au cours de la première moitié du XX ème siècle, nous avons acquis la certitude que tel est bien le cas. Les interactions nucléaires sont la principale source d'énergie de l'Univers tel qu'il apparaît à notre vue et dans nos instruments.

     Les recherches pour utiliser les réactions de fusion au service des hommes qui habitent cette planète ont commencé après la seconde guerre mondiale. On s’est explicitement proposé de reproduire sur Terre les processus à l’origine de l’énergie du Soleil. Mais sauf pour des applications qui n'ont pas leur place sur le marché de l'énergie, cet effort n'a pas encore abouti.

     Où en est donc le problème de la fusion au bout de cinquante ans?

     Et où va t'on?

     Au passage, une remarque s’impose. Une loi non écrite, mais intégrée dans notre culture, veut que le temps qui sépare de ses applications une découverte fondamentale soit de plus en plus court. De nos jours, passer des dizaines d’années à un tel transfert étonne. Or, pour s’en tenir à un exemple appartenant au domaine de l’énergie, il a fallu environ un siècle pour aller des mises en évidence du courant électrique par Galvani (1791) puis des effets magnétiques des courants par Oersted (1820), à l’utilisation généralisée de l’électricité (début du XX ème siècle). Qu’une activité scientifique finalisée exige un étalement sur une période aussi longue n’a donc a priori rien de scandaleux. Cela tout au plus, dérange nos habitudes.

     Or, il faut bien prendre conscience de la lenteur des évolutions. L’histoire nous montre que la conquête d’une large part du marché de l’énergie n’est jamais instantanée mais s’étale sur des décennies. Telle est la norme dans les sociétés humaines. Une technique n’est jamais du premier coup ni parfaitement au point ni sans risque. Les partisans de l’ordre ancien ont des arguments et convaincre est un art difficile.

     L’histoire de l’énergie est d’abord celle des combustibles. Nous disposons pour le siècle et demie écoulé de données à cet égard très significatives. Il est ainsi possible de reconstituer fidèlement l’évolution des parts de marché dévolues aux différentes sources d’énergie: tandis que la part du bois diminuait, celle du charbon, sur une lancée datant de la seconde moitié du XVIII ème siècle, devenait prépondérante vers 1880, situation qui devait perdurer jusqu’en 1970. Nous sommes maintenant en plein dans l’ère des hydrocarbures. La part du pétrole atteint la saturation après un siècle de croissance. Celle du gaz, le plus écologique des combustibles chimiques, apparaît destinée à grandir encore.

     En raison de politiques volontaristes induites par la “ crise ” consécutive au premier choc pétrolier de 1973, l’énergie nucléaire de fission a connu une croissance exceptionnellement rapide suivie depuis 15 ans d'une stagnation à un niveau significatif mais encore faible : environ 7% du marché global, 25% de celui de l'électricité. Son extension se heurte à de vives oppositions: l’irrationnel millénariste s’y mêle à la guerre des « lobbies ».

     Du point de vue de l’économiste, le XX ème siècle de l’énergie n’est définitivement pas l’ère nucléaire. Cependant, cette forme d'énergie dispose d'un atout de taille : les actuelles centrales nucléaires à fission ne rejettent aucun gaz à effet de serre et donc ne contribuent pas au réchauffement avéré de la planète. Mais la radioactivité associée au processus même de fission ainsi qu'aux déchets, fait peur. La fusion évite en partie cet inconvénient.

 

 

2.      Fusion des noyaux légers.

     Les processus de fusion des noyaux légers sont extrêmement nombreux. Ils tendent tous, de façon plus ou moins complexe, à transformer les noyaux d'hydrogène en un noyau d'hélium. Il existe deux chaînes importantes de telles réactions dont on sait qu'elles jouent un rôle primordial dans l'énergétique des étoiles. Ce sont la chaîne de Weizsäcker ou "proton-proton", celle du soleil, et le cycle de Bethe qui fait intervenir à titre de catalyseur actif, les noyaux de carbone et d'azote. Dans les deux cas, le bilan est

4 H ® He4

La première réaction de la chaîne de Weizsäcker:

H + H ==> D + e++n0

est tellement peu probable (c'est une interaction faible) que sa section efficace[1] n'a jamais pu être mesurée au laboratoire faute d'une instrumentation assez sensible. Cela garantit une évolution non explosive du milieu où elle se déroule. Extrêmement  lentes, ce qui est un avantage pour la stabilité de notre monde solaire, de telles réactions ne sauraient convenir à une source d'énergie terrestre.

     Fort heureusement, il existe d'autres réactions de fusion, celles du Deutérium, beaucoup plus rapides et fortement exoénergétiques. Stable bien que très peu lié, l'assemblage d’un proton et d’un neutron qui constitue le noyau de deutérium est une curiosité naturelle. Les réactions qu’il provoque avec lui-même ou avec d’autres noyaux comme le tritium ou encore l'hélium 3, ont, pour de la fusion,  des sections efficaces anormalement élevées de l'ordre du barn (10-28 m2), suffisantes pour envisager un dispositif producteur d'énergie. Grâce à une résonance[2] à 100 keV[3], la réaction D-T a de très loin les plus grandes sections efficaces. Tous les projets de réacteurs de première génération visent à l'utiliser.

 

Tableau 1.

                        D  +     T         ®        He4      (3.5 MeV)       +  n      (14.1 MeV)

                        D  +     D         ®        T         (1.0 MeV)       +  H     ( 3.0  MeV)

                        D  +     D         ®        He3      (0.8 MeV)       +  n      ( 2.5  MeV)

                        D  +     He3            ®        He4      (3.7 MeV)       +  H     (14.7 MeV)   

 

     L'exemple des étoiles, faites de gaz ionisé de haute température, nous montre qu'il s'y produit des réactions de fusion de façon stable et génératrice d'énergie dans un régime appelé thermonucléaire. Le nombre total de réactions par unité de volume et par seconde y est proportionnel aux concentrations n et N de projectiles et de cibles respectivement. Il résulte d'une intégration sur la fonction de distribution des vitesses f(v):

La moyenne <sv> est souvent appelée taux de réaction ou réactivité. Ce paramètre caractérise le combustible thermonucléaire. Il convient de noter une propriété intéressante: résultant du produit d'une fonction de distribution en exp(-v2/T) rapidement décroissante par une section efficace qui au contraire croit très vite avec v, l'intégrand ne prend de valeur importante qu'au voisinage du croisement des courbes f(v) et s(v). C'est du reste ce qui avait permis d'en calculer, avant l'âge informatique, une valeur approchée précise (Gamow et Teller, 1938).

     Il est remarquable de constater que l'énergie correspondant au maximum de l'intégrand est notablement supérieure à l'énergie thermique moyenne. Dans un milieu gazeux à l'équilibre thermique ce sont donc des ions de la queue de distribution aux grandes énergies (constamment renouvelée) qui contribuent à la réaction. Pour le cas de la réaction D-T, <sv> varie beaucoup moins vite entre 10 et 100 k.e.V., un facteur 8, que ne le fait la section efficace, plus de 3 ordres de grandeur. Son <sv> est comme le montre la figure 1, de 20 ordres de grandeur supérieur à celui de la réaction proton-proton.

 

 

3.      La Nature et les décideurs:

     Pour imiter la Nature, il faut commencer par bien la connaître. Dans la perspective qui nous intéresse ici, on peut classer les milieux naturels les uns par rapport aux autres, au moyen d'un diagramme où sont portées sur des échelles logarithmiques: en abscisses la densité particulaire et en ordonnées la température. Les conditions rencontrées dans l'Univers se situent autour d'une sorte de squelette représenté par les courbes continues de la figure 2.

     On note que les réactions de fusion thermonucléaire ne se développent que si la température et la densité ont les valeurs régnant au centre du Soleil ou des autres étoiles:

1) température supérieure à 107 K permettant l'allumage et l'auto-entretien de la réaction,

2) densité élevée (1025 à 1030 cm-3).

     La pression (hydrostatique) dans ces conditions est supérieure ou égale à 1014 Pa (109 bars). Elle surpasse, par de nombreux ordres de grandeurs, ce que les matériaux de notre environnement terrestre familier sont capables de supporter. Mais la force de gravitation due à son énorme masse compense la densité de puissance libérée par la transformation d’hydrogène en hélium prévenant ainsi l’explosion d’un objet comme le Soleil.

     Mais, un Soleil en deutérium au lieu d’hydrogène exploserait à  coup sur !

     Alors, pour imiter (partiellement) la Nature, deux voies principales visant toutes les deux à utiliser la réaction deutérium-tritium (DT), s’ouvrent aux décideurs. Elles seront détaillées au § suivant. Une première idée consiste à abaisser la densité de façon à obtenir un régime permanent. Le milieu en réaction doit alors être isolé de toute paroi au moyen d'un champ magnétique. L'autre façon est de laisser s'emballer la réaction explosive dont le contrôle se fait en limitant la masse de DT à une valeur correspondant à une libération d'énergie inoffensive.

     Les neutrons servent à transporter l’énergie depuis le milieu en réaction jusqu’à une « couverture » où les 14 MeV de chacune de ces particules sont convertis en chaleur. Comme le montre la figure 3, le schéma d’extraction de l’énergie est ainsi de même type (séparation de la source et de la récupération), que celui envisagé pour l’énergie solaire, autre énergie de fusion.

     Une dernière donnée naturelle importante à prendre en compte est l’état des réserves des différents combustibles chimiques et nucléaires. Dans ce domaine, pour toutes sortes de raisons, les chiffres sont peu fiables. On se contentera de présenter sur le tableau 2 des ordres de grandeurs à peu près consensuels quant au nombre d’années de réserve au rythme de consommation actuel.

     Le deutérium a été fabriqué lors de la nucléosynthèse primordiale (“big-bang”) ce qui en fait le moins renouvelable de tous les combustibles! Mais les réserves, contenues dans l’eau des océans, sont en pratique illimitées: dans un mètre cube d’eau de mer, sont en effet dispersés 2 décilitres (un grand verre) d’eau lourde dont le deutérium pourrait libérer autant d’énergie qu’environ 1 000 tonnes de charbon ou de pétrole. C’est dire l’intérêt à long terme présenté par la fusion.

 


Tableau 2.

 

origine:

 

réserves:

 

Charbon:

résidus biologiques

des centaines d’années

 

Hydrocarbures:

résidus biologiques

des dizaines d’années (récurrent)

Uranium:

nucléosynthèse stellaire

des milliers d’années (surgénérateur)

Deutérium:

primordiale (“big-bang”)

des milliards d’années

 

 

 

4.      Chaudron magnétique ou micro “big-bang“ ?

     Si l’on désire obtenir un régime continu à la température élevée nécessaire à l’entretien de la réaction DT, le nombre de particules par unité de volume doit être restreint à une valeur (basse à notre échelle) compatible avec la nécessité de maintenir la densité d’énergie inférieure à une limite imposée par la tenue des matériaux. Ce milieu doit être isolé de toute paroi au moyen d’un champ magnétique de configuration appropriée. Un tel état de la matière n’existe pas en permanence dans la Nature.

     Telle est l'origine profonde des difficultés rencontrées depuis cinquante ans dans la voie du confinement magnétique. Elles avaient été largement sous estimées au départ.

     En régime de confinement magnétique, l’allumage a lieu lorsque l’énergie des hélions produits et qui restent dans le plasma, compense exactement les pertes par rayonnement et fuites de particules. La réaction auto-entretenue dure autant que la configuration de plasma et de champ magnétique le permet. On définit un temps t de confinement de l’énergie qui doit satisfaire à la condition de Lawson (1957)

nt ≥ 1014 cm-3 s          à          T ≈ 108 K,

où n est la densité particulaire limitée en pratique à 1014 cm-3. L’objectif est ainsi de confiner, pendant un temps supérieur à une seconde, un milieu (plasma de deutérium tritium) dont la température est de 100 millions de degrés.

     L’autre possibilité consiste à laisser s’emballer la réaction. Mais il faut alors réduire l’énergie, proportionnelle à la masse de combustible,  libérée par chaque explosion de façon à ne rien détruire. On parle alors pudiquement de confinement inertiel. Dans ce domaine aussi, la progression est lente et le chemin semé d’embûches.

     En régime explosif, l’opérateur n’a plus à se rendre maître du temps. Le critère pour obtenir une réaction en masse porte sur le produit de la densité (masse volumique) par le rayon d’une boule de DT soit

rr ≥ 2 gcm-2.

     Pour satisfaire cette inégalité et en même temps limiter l’énergie libérée lors d’une explosion à une valeur non dangereuse, le DT doit être à une densité de l’ordre de 1000 à 10 000 fois celle du liquide. Il est donc nécessaire de le comprimer fortement et de façon adiabatique. Une telle implosion requiert une source extrêmement puissante (1012 W) pour appliquer la pression nécessaire. Certains lasers à verre au néodyme répondent à cette exigence et ont été développés dans ce but.

     Il est à noter que l’état de la matière obtenu par implosion en vue de la fusion inertielle est voisin des conditions qui prévalent au centre des étoiles.

     Confinement magnétique et confinement inertiel mobilisent l’essentiel des moyens consacrés à la fusion. La catalyse par les muons, bien que prometteuse, représente un effort marginal. Le tapage médiatique du printemps 1989 au sujet de la fusion froide par voie électrolytique s’est rapidement révélé sans objet.

 

 

5.      30 années de “pensée(s) unique(s)“: is big beautiful?

     Au cours des années 50, on a imaginé une foule de configurations magnétiques. Après un processus de décantation assez rapide (10 ans), une seule d’entre elles, le Tokamak (figure 4) est à l’origine d’une véritable filière. Elle est de loin la plus étudiée et a donné lieu depuis 1968 à des réalisations imposantes. Il s’agit d’un anneau de plasma parcouru par un courant de forte intensité (des méga-ampères) placé pour des raisons de stabilité dans un champ magnétique toroïdal créé par un solénoïde torique. Au courant correspond un champ magnétique poloïdal qui s’ajoutant au précédent, toroïdal, contribue à la formation de lignes de champ enroulées en hélice sur des surfaces toriques emboîtées: ce sont les “surfaces magnétiques“ contenant aussi les lignes de courant et sur lesquelles la pression de plasma est constante.

     Des relations d’échelle semi-empiriques montrent que le temps de confinement de l’énergie est d’autant plus long que la machine est plus grosse. On peut voir sur la figure 5, que du modeste T3 russe (soviétique à l’époque) des années 60, aux grandes machines de la génération 80-90, les performances en termes de “triple produit” nTt et de température se sont améliorées d’un nombre respectable d’ordres de grandeur. Au milieu des années 90, on a presque atteint le stade appelé “breakeven” dans lequel l’énergie libérée par la réaction de fusion est de l’ordre de celle, thermique, contenue dans le plasma. Mais ce n’est pas encore l’allumage.

     Comme le montre le tableau 3 relatif à la machine J.E.T. (Joint European Tokamak) mise en œuvre par la communauté européenne, un grand Tokamak représente un projet dont l’étude, la construction et l’exploitation s’étendent sur des décennies, entraînant ainsi de façon tout à fait normale, une obligation de pensée unique.

Tableau 3.

Vie d’un grand Tokamak: le J.E.T.

 

1973-75

Elaboration du projet

1975-77

Discussions pour le choix du site

1983

Premier plasma

1991

Première expérience DT

1997

Pfusion: 16 MW (DT),     Energie: 13 MJ.

2000

Rétrocession à la Grande Bretagne

     Pour atteindre l’allumage, une machine de la prochaine génération de Tokamaks doit être encore plus grosse. En effet, visant un triple produit: nTt ≥ 3 1022 cm-3 °K s. et d’après la loi d’échelle de Goldston (1985): I2 (MA) = 1.4 10-20 nTt, on obtient pour le courant la condition:

I ≥ 2 107 A.

     Sur ces bases, le projet I.T.E.R. (International Thermonuclear Experimental Reactor) de 1998 prévoyait pour dimensions de l’anneau:

Grand rayon du tore: R ≈ 9 m,         petit rayon: a ≈ 3 m,

à comparer à celles du J.E.T.,

Grand rayon du tore: R ≈ 3 m,         petit rayon: a ≈ 1 m.

Ainsi, le volume de plasma est multiplié environ par 30 et atteint 2 000 m3.

     La puissance libérée par la réaction DT serait alors de 1,5 109 W, comparable à celle d’un réacteur à fission producteur d’énergie. Contrairement à celui-ci, la phase d’allumage (équivalente au franchissement du seuil de criticité), ne peut être atteinte à petite puissance. C’est l’échelle de la centrale électrique ou rien! Avec cette incidente: s’agissant d’une installation expérimentale d’un coût prévisionnel de 10 milliards de dollars, il ne saurait être question de rentabilité économique. Une telle réalisation n’est envisagée que dans le cadre d’une coopération internationale, prolongement de celle qui est à l’œuvre pour la conception du projet.

     La voie du confinement inertiel est également caractérisée par une évolution vers le gigantisme, avec pour corollaire une autre ligne de pensée unique. Après la mise en évidence de réactions de fusion induites par laser et l’élaboration des concepts de micro-explosions, cela se passait à la fin des années 60, on a construit des générations successives de lasers de plus en plus puissants. Parce que la lumière, dans une gamme spectrale qui en longueur d’onde s’étend de 190 nm à 30 mm, est aisément focalisée au moyen de lentilles ou de miroirs, de très grandes concentrations d’énergie et de puissance sont obtenues à partir de faisceaux laser.

     Ainsi, directement ou indirectement par l’intermédiaire d’un rayonnement secondaire (ce mode indirect présenté sur la figure 6 garantit une meilleure uniformité d’éclairement à la surface de la boule à imploser), des impulsions laser permettent de conduire un processus d’implosion sphérique.

     Au stade actuel d’évolution de la technique des lasers, on sait faire passer quelques kilojoules d’énergie lumineuse en une fraction de nanoseconde à travers une section droite d’environ 1m de diamètre d’un matériau transparent. Pour atteindre les conditions (température et rr) espérées pour la fusion, il convient d’utiliser de multiples faisceaux en parallèles: de 12 à 24 aujourd’hui, 192 et 240 respectivement dans les projets en cours de réalisation à Livemore (U.S.A.) et près de Bordeaux. Les installations correspondantes sont d’une taille et d’un prix (1 milliard de dollars) plus que respectables.

     Mais le rendement des lasers de puissance existants est trop faible pour aller au delà de démonstrations de principe. Pour une source d’énergie, il faudra attendre des générateurs à haut rendement: nouvelles technologies laser ou faisceaux d’ions lourds qui interagiront avec un convertisseur émettant un fort rayonnement secondaire.

     Que ce soit pour les Tokamaks ou pour la fusion inertielle induite par laser, l’échelle de temps est la même: cinquante ans si tout va bien entre le lancement de la filière et l’obtention d’un bilan d’énergie positif, attendu dans le premier quart du XXI ème siècle. Il est prématuré aujourd’hui de faire quelque prédiction que ce soit au sujet d’une étape ultérieure vers une exploitation industrielle rentable.

     Sortir de la pensée unique permettrait-il d’emprunter des raccourcis et de proposer autre chose qu’une extrapolation à grande constante de temps de ce qui a été avec succès longuement exploité?

 

 

6.      Succès, certitudes et incertitudes:

     Le mot succès a ici tout à fait sa place. Certes, on n’a pas réussi à allumer une réaction de fusion thermonucléaire dans les conditions requises, encore moins à créer une nouvelle source d’énergie. Mais il est instructif de comparer sur une période de 25 ans les performances de la filière Tokamak et celles de supports technologiques de l’informatique et de la communication, activités dont la croissance est connue pour être extraordinairement rapide. Ainsi, la figure 7 montre que la progression au cours des années de la puissance libérée par la fusion DT se mesure favorablement à l’évolution de la capacité mémoire des puces électroniques. Dans le même temps, autre remarquable exploit technique, la puissance des lasers pour la fusion inertielle était multipliée par 109 et leur énergie par 106. Pouvait-on faire mieux?

     L’objectif était beaucoup plus lointain et d’accès difficile qu’on ne l’imaginait. Il est peu courant pour des scientifiques occidentaux, physiciens ou ingénieurs, comme pour les décideurs de se lancer dans des projets qui vont au delà de leur carrière et de leur existence terrestre. On a donc promis et attendu le résultat dans des délais incompatibles avec les obstacles à surmonter. La crédibilité générale de la fusion s’en trouve assez injustement affectée.

     Aujourd’hui, en gros, quelle que soit la voie choisie, il semble manquer le dernier facteur 10 pour parvenir au bilan d’énergie positif. Suffit-il d’y mettre le temps et le prix, ce dernier étant aussi sujet à croissance exponentielle? Probablement, mais il faudra ensuite faire la preuve de la viabilité économique. Là, rien n’est acquis. Dans l’état actuel des connaissances on ne saurait pas faire. Mais les échéances sont lointaines: deuxième moitié du XXI ème siècle, et la situation énergétique n’est pas telle qu’il faille brûler les étapes. Disposer de beaucoup de temps peut paraître un avantage. Il manquera cette pression de l’urgence qui rend inventif.

     La coopération internationale est devenue la règle, du moins pour le confinement magnétique. C’est bon pour la pérennité de l’entreprise. Mais la prise de décision (au plus haut niveau) reflète plus le sens du compromis que celui de l’audace visionnaire. C’est ainsi que pour le J.E.T., la recherche d’un consensus européen rendit le projet un peu court dans ses ambitions. En ce qui concerne le sort du projet I.T.E.R. dont le dessin était achevé mi-1998, la communauté des physiciens impliqués dans les programmes de fusion s’avéra elle-même divisée sur le point de le construire. Des scientifiques également respectables ont pris parti, soit pour, soit contre. Les Etats Unis se sont retirés du projet en 1998 (trop complexe, trop cher). Au Japon, pays industrialisé le plus enthousiaste pour accueillir l’installation d’une telle machine, la crise économique a poussé à la temporisation. Un délai de 3 ans a été accordé aux partenaires du projet (essentiellement le Japon et l’Europe; la Russie n’ayant plus les moyens) pour préparer les éléments d’une décision retardée d’autant. Une machine plus modeste a été proposée au début de l’an 2000: avec 800 m3 de plasma seulement pour 500 MW de fusion, l'allumage et l'auto-entretien sont improbables. Mais, elle est deux fois moins chère et représente, d'après P-H Rebut, ce que peut proposer de mieux l'organisation internationale actuelle. La construction, sur un site à choisir en 2003, de ce Tokamak de quatrième génération pourrait être achevée vers 2010-2012

     En raison de connotations militaires, l’avenir à moyen terme du confinement inertiel semble mieux assuré. Les lasers mégajoule en construction aux Etats Unis (N.I.F. pour National Ignition Facility) et en France (L.M.J. pour Laser MégaJoule) devraient être mis en service entre 2008 et 2010.

       En ce début de siècle la question se pose: la fusion peut elle être une source d’énergie pour un avenir pas trop lointain ? dans l'état actuel des connaissances et des programmes, tout laisse penser qu'elle ne viendra pas sur le marché de l’énergie, si elle y vient jamais, avant la deuxième moitié du siècle. 2001

 

 

 

 

Figures


 

Figure 1.

 

Taux de réaction (ordonnées en m-3 s-1) comparés des réactions

deutérium-tritium (D+T) et proton proton (p+p) cette dernière

étant le processus primaire intervenant au centre du Soleil.

 

 

Figure 2.

 

Plasmas naturels et plasmas de fusion.


 

 

 

Figure 3.


 

Figure 4.

 

Schéma de principe d’un Tokomak (document C.E.A.).

 

 

Figure 5.

 

Performances de la filère Tokomak (document C.E.A.).

 

 

 

Figure 6 (document C.E.A.).

 

Les trois phases de la méthode indirecte pour imploser des microballons:

a) intéraction des faisceaux laser avec la face interne d’une cavité. Emission d’un rayonnement secondaire thermique.

b) intéraction du rayonnement secondire avec la surface externe de la boule centrale conduisant à l’implosion de celle-ci.

c) allumage de la réaction thermonucléaire et combustion du DT.


 

Figure 7.

 

Evolution de la puissance de fusion DT de différents Tokomaks comparée à celle de la capacité mémoire des puces électroniques.

 

 

 


Bibliographie

Quelques livres

     C. Etievant, L’énergie thermonucléaire, 2 ème édition (1976), Que sais-je? P.U.F. épuisé.

     J. Adam, La fusion nucléaire, (1993) Belin.

     T.K. Fowler, The Fusion Quest, (1997) John Hopkins U. Press.

     P. H. Rebut, L’énergie des étoiles (1999) Odile Jacob.

     J.L. Bobin, Les déconvenues de Prométhée, (2001) Atlantica.

 

Revues

     Physics to Day n° 49-5 (1996) 21: points de vue opposés sur I.T.E.R. d’A.M. Sessler et T.H. Stix d’une part, M.N. Rosenbluth d’autre part.

     Reviews of Modern Physics 70-23 (1998) 537, article de R.J. Hawryluk: Results from deuterium-tritium tokamak confinement experiments.

     La Recherche, n° 299, Juin 1997, Dossier: la fusion nucléaire.

     Chocs (Revue Scientifique et Technique de la D.A.M., C.E.A.): les n° 1 (1991), n° 13 (1995) et  22 (1999) concernent la fusion induite par laser.

 



[1] Section efficace d’une interaction : nombre ayant la dimension d'une surface dont le produit par un flux de projectiles (densite particulaire multipliee par une vitesse) donne, pour une particule cible, la probabilite de reaction par unite de temps. La section efficace est symbolisée par la lettre grecque σ, son unité de mesure est le barn : 1 barn vaut 10-28 m2. L'image, un peu simpliste, que l'on peut se faire de cette quantité est qu'elle mesure la surface d’une particule ou d’un noyau, vue par la particule incidente (projectile), pour une réaction donnée. Cette surface n'est pas constante. Pour une réaction donnée sur un noyau donné, elle varie en fonction de l'énergie du projectile

[2] résonance : augmentation brutale de la section efficace d’une interaction, pour une plage d’énergie assez étroite de la particule incidente.

[3] eV - electon volt. L’électron volt est l’unité de mesure d’énergie utilisée en physique atomique et nucléaire.

1 eV = 1,602 10-19 Joules.  1keV = 1000 eV ; 1 MeV = 106 eV ; 1 GeV = 109 eV