Enquête sur la densité de flux d’énergie

dimanche 29 août 2010, par Benoit Chalifoux

[sommaire]

Dans le débat sur les choix d’investissement que doit faire une société pour ses approvisionnement en énergie, nous avons assisté au cours de trois dernière décennies à un engouement sans cesse croissant pour les sources d’énergie dites « renouvelables ».

Les partisans de ces sources d’énergie affirment qu’une société peut se développer tout en se maintenant en équilibre avec les autres processus à l’œuvre dans la nature. Nous allons montrer que cela est impossible, ne serait-ce pour la simple raison que le mouvement perpétuel n’existe pas dans le monde matériel.

Selon le philosophe allemand Gottfried Leibniz (1646-1716) [1], fondateur de la science de la dynamique et premier penseur à isoler le concept de force vive (qui allait devenir, à un détail près, l’énergie cinétique) de celui de quantité de mouvement, les forces contenues dans la matière ne peuvent en aucun cas constituer le véritable moteur du monde ; tout au plus peuvent-elles le maintenir dans un état donné de développement. Ce qui permet au contraire à notre univers de s’organiser en des modes toujours plus évolués, c’est l’existence des « formes substantielles » siégeant au sein de tout corps matériel [2], sans lesquelles toute action serait impossible. Ainsi, pour résumer Leibniz, « chaque corps agit en vertu de sa forme (ou substance) et subit ou résiste en vertu de sa matière ».

Pour Leibniz il existe trois espèces de formes, animant trois dynamiques de développement de puissance différente. La plus puissante est l’âme humaine (l’entendement), la seconde l’âme animale et la dernière l’entéléchie, âme primitive associée à tout corps matériel ayant une raison d’exister :

Quoique je sois persuadé que tout se fait mécaniquement dans la nature corporelle, je ne laisse pas de croire aussi que les principes même de la mécanique, c’est-à-dire les premières lois du mouvement, ont une origine plus sublime que celle que les mathématiques peuvent fournir. […]

Je trouvai donc que leur nature consiste dans la force et que de cela s’ensuit quelque chose d’analogique au sentiment et à l’appétit ; et qu’ainsi il fallait les concevoir à l’imitation de la notion que nous avons des âmes. […] Aristote les appelle entéléchies premières, je les appelle peut-être plus intelligiblement forces primitives, qui ne contiennent pas seulement l’acte ou le complément de la possibilité, mais encore une activité originale. [3]

Ainsi, la matière de l’univers obéit à des processus mécaniques mais, selon Leibniz, le siège de l’activité se trouve localisé dans la forme substantielle (qu’il appelle également monade) et non pas dans la matière.

De ce principe fondamental découle que l’homme possède, en vertu de ses capacités cognitives, une dynamique qui lui est propre dans notre biosphère et qu’il ne peut se développer ou progresser qu’en découvrant des principes physiques toujours plus profondément enfouis dans la matière, de manière à capter les forces qui y résident et à les intégrer dans une dynamique de puissance supérieure. A chaque type de force nouvellement maîtrisé correspond une densité d’énergie donnée et un niveau maximal de développement économique.

Cette notion de densité d’énergie correspond donc à l’ancienne notion de puissance, au sens où l’entendait Leibniz. Ainsi, chaque niveau de puissance ou de densité d’énergie nouvellement découvert possède une qualité intrinsèque différente, un rayon d’action qui lui est propre, et ouvre à l’humanité un champ de possibilités toujours plus grand dans le travail de la matière. Il ne s’agit donc pas ici de ce que peut exprimer une mesure linéaire en termes quantitatifs, mais bien plus fondamentalement d’une mutation qualitative.

Dans la terminologie moderne, le terme « puissance » correspond à la quantité d’énergie produite par unité de temps, et l’« énergie » est ce qui permet d’effectuer un travail, ce dernier étant la mesure de l’effet que produit l’application d’une « force » sur la matière. Puisque tout travail utile à l’homme demande l’application d’une force pendant un certain temps, il fallait définir une unité qui permette de mesurer la production d’énergie sur un laps de temps donné. Le terme « puissance » a été recyclé à cette fin tout en étant dépouillé de la notion de qualité qu’il contenait à l’origine. Le concept moderne d’« énergie » en a pour sa part toujours été dépourvu.

Nous avons par conséquent préféré ici le terme « densité de flux d’énergie », qui correspond à la notion de « densité de puissance ». Il ne s’agit donc pas de la densité par unité de temps, puisque les termes « puissance » et « flux d’énergie » incluent déjà l’idée du temps écoulé. Nous allons plutôt parler de densité par unité de masse, puis par unité de volume , puis par unité de surface, qui sont autant de reflets du principe en cause, pour enfin réintroduire la notion de qualité elle-même, une notion certes plus subtile encore que nous allons néanmoins tenter de cerner.

Précisons d’emblée que l’énergie se mesure en joules (un gigajoule correspondant à un milliard de joules) et que la puissance se mesure en watts. Un watt correspond à un débit d’un joule par seconde.

I. Energie potentielle par unité de masse

C’est en calculant la quantité d’énergie produite par unité de masse de combustible que l’on compare généralement (en première approximation seulement, car ici nous ne prenons pas en compte le temps écoulé), la densité d’énergie selon les différents modes de production. Ces données sont faciles à obtenir, mais le désavantage de ce mode de comparaison est lié au fait que la quantité d’énergie potentiellement libérable par gramme de combustible peut exiger la mise en oeuvre de techniques extrêmement lourdes et coûteuses selon le mode de production. Par exemple, si une centrale nucléaire permet d’extraire beaucoup plus d’énergie d’une quantité donnée d’uranium qu’une centrale thermique du charbon, les méthodes de traitement et d’enrichissement de l’uranium sont autrement plus complexes que celles mises en œuvre pour traiter le minerai de charbon.

Le transport de milliers de tonnes de charbon constitue cependant une charge bien plus lourde sur les infrastructures que celui de l’uranium. De plus, toute technique exigeant l’emploi d’une main d’oeuvre nombreuse et peu qualifiée freine à terme le développement d’une nation. C’est notamment le cas du charbon par rapport au nucléaire. L’évolution du niveau de qualification de la main d’œuvre, élément essentiel du progrès, est conditionnée par des découvertes scientifiques donnant accès à de nouvelles matières premières.

Tableau comparatif

Combustible de départ Énergie libérée en gigajoules par tonne
Vent (calculé pour une tonne d’air à 15°C)0,000 000 000 019
Eau (moulin à eau, roue de 5,2 m de diamètre) 0,000 051
Eau (chute du barrage de Serre-Ponçon, hauteur 123m) 0,0012
Bois (séché à l’air) 15
Charbon 29,3
Pétrole 42
Uranium (dans un réacteur classique) 420 000
Uranium (dans un surgénérateur) 25 200 000
Deutérium-tritium 378 000 000
Rayonnement solaire Impossible à calculer, le poids des photons étant nul.
Notes :
La masse d’un mètre cube d’air à 15°C est de 1,225 kg.
Dans tous les ca s, il s’agit de l’énergie théoriquement libérée sans compter les pertes dues à la récupération et à la conversion en d’autres formes d’énergie.
Le terme « combustible » est employé ici au sens figuré.

II. Production et collecte de l’énergie

Passons maintenant à la production de l’énergie proprement dite, afin de mettre en avant les aspects techniques et leur impact sur le potentiel de développement.

A. La notion de puissance volumique

Quelles sont les caractéristiques physiques des équipements utilisés pour la production, l’extraction et la conversion de la puissance ?

Comme instrument de mesure et de comparaison, nous parlerons de la densité de puissance par unité de volume, ou tout simplement « puissance volumique », de notre installation, passant ainsi de la théorie (l’énergie potentiellement contenue dans une unité de masse de combustible de départ) à la pratique. Si la densité des éléments de combustible varie grandement d’une famille technologique à l’autre (une tonne d’air étant moins dense qu’une tonne d’eau, de charbon ou d’uranium), le volume de la « chambre » où est produite la puissance nous donne une indication plus précise des moyens techniques à mobiliser, tant du point de vue de la quantité de main d’oeuvre que de son niveau de qualification. Nous examinerons chaque famille technologique sur la base des données quantitatives disponibles, puis dégagerons quelques observations générales.

La machine à vapeur

Prenant le relais des moulins à eau et à vent, la maîtrise de la vapeur par Denis Papin a été, au début du XVIIIe siècle, la première grande conquête de l’homme dans le domaine de l’énergie. Suite aux améliorations apportées à la machine à vapeur sur une période d’un siècle et demi, la locomotive Mallard a battu, en 1938 en Angleterre, le record mondial de vitesse pour ce type d’engin, avec une vitesse de 202,8 km/h.

C’est dans les cylindres composant le moteur que la vapeur se détend et dégage sa puissance. Cette locomotive en avait trois, chacun d’un rayon interne de 23,5 cm et doté d’un piston pouvant parcourir une distance de 66 cm. Cela donne un volume de 114 506 cm3, soit 343 519 cm3 pour les trois cylindres. En divisant la puissance maximale utile que peut fournir pendant une heure la locomotive, soit 157,7 kW, par le volume, nous obtenons une puissance volumique de 0,45 W/cm3.

Figure 1.
La locomotive Mallard, détentrice du record mondial de vitesse pour la motorisation à vapeur.

Le moteur à combustion interne

A titre d’exemple, prenons les moteurs fabriqués encore aujourd’hui par la société MAN Diesel (anciennement SEMT Pielstick) pour les locomotives diesel. Leur puissance est de 750kW par cylindre, pour un volume de course (ou « cylindrée ») de 62 800 cm3. Cela donne une densité de 11,9 W/cm3.

Le gain obtenu par rapport à la machine à vapeur provient du passage de la combustion « externe » à la combustion « interne », c’est-à-dire dans le piston même. Dans la locomotive à vapeur, la puissance est générée dans le foyer où brûle le charbon, puis collectée par la vapeur lors de son passage dans les tubes traversant le foyer, et amenée jusqu’au piston qui fera le travail final. Il y a une perte de puissance à chaque étape !

L’énergie hydraulique

Revenons au moulin à eau médiéval, par exemple une roue à augets (48 augets) d’un diamètre de 4,5 m, travaillant avec un débit de 360 litres d’eau par seconde. En prenant en compte le remplissage partiel des augets et la vitesse de rotation de la roue, la puissance sera de 12 944 watts, mécanique et non thermique. Cela donne une puissance volumique de 0,036 W/cm3. [4]

Pour calculer la puissance volumique d’une centrale hydroélectrique moderne, utilisons les données fournies par EDF pour la centrale de Serre-Ponçon, d’une puissance installée de 360 MW. Selon ces données, le débit de l’eau est de 300 m3 par seconde, ce qui signifie qu’un volume de 300 000 000 cm3 d’eau produit en une seconde 360 000 000 de joules. La puissance volumique électrique est donc de 1,2 W/cm3. Comme le rendement de la centrale est de 85%, la puissance volumique mécanique d’origine, avant sa conversion en électricité, est de 1,4 W/cm3, soit 38 fois plus élevée que celle du moulin à eau.

L’avancée apportée par la centrale hydroélectrique par rapport au moulin à eau médiéval, mis à part le fait qu’elle intègre la découverte de l’électricité, tient principalement au fait que la hauteur de la chute d’eau à été portée de 4,5 mètres (hauteur de la roue du moulin utilisée pour nos calculs) à 123 mètres pour la centrale de Serre-Ponçon.

Figure 2.
Barrage de Serre-Ponçon, dans les Hautes-Alpes.

La fission nucléaire

Calculons maintenant la puissance thermique dégagée par rapport au volume des éléments de combustible d’un réacteur nucléaire. Pour le réacteur à eau pressurisée de 900 MW électriques (REP 900), la puissance thermique est trois fois plus grande, de l’ordre de 2700 MW. Le combustible est formé de 157 assemblages, chacun contenant 264 crayons de pastilles d’uranium de 0,8 cm de diamètre et d’une longueur totale de 366 cm. Le volume de combustible total est donc de 7 625 257 cm3, et la puissance volumique moyenne 354 W/cm3. Il s’agit d’une valeur moyenne, car la puissance volumique est beaucoup plus élevée au centre des crayons qu’à leur périphérie.

Soulignons ici qu’avant l’arrivée du nucléaire, l’homme cherchait avant tout à concentrer autant qu’il le pouvait la puissance, afin d’obtenir des puissances volumiques suffisamment élevées pour fournir un travail adéquat. L’évolution des matériaux accompagnait le plus souvent l’augmentation de la puissance, comme par exemple l’amélioration de la qualité de l’acier dans le passage du moteur à vapeur au moteur à combustion interne.

Avec le nucléaire apparaît un phénomène intéressant. Les paramètres permettant de décider de la disposition spatiale des atomes d’uranium dans le combustible afin d’assurer le déroulement continu et contrôlé de la réaction en chaîne, vont générer une puissance volumique bien supérieure à la conductibilité thermique du matériau utilisé, c’est-à-dire à sa capacité d’évacuer la chaleur générée par la réaction. Il faudra par conséquent mettre en place un puissant mécanisme d’extraction de la chaleur, en plongeant l’appareillage dans un bain d’eau d’un volume bien supérieur au volume d’origine, et ainsi ramener la puissance volumique à un niveau gérable.

Par conséquent, le volume de la cuve du réacteur est plus important que le volume des éléments de combustible en tant que tels. Les données fournies par Areva pour son réacteur à eau bouillante SWR 1000 sont les suivantes : puissance thermique totale, 3370 MW. Diamètre intérieur de la cuve du réacteur, 7,12 m. Hauteur de la cuve, 23,81 m, ce qui donne une puissance volumique de 3,55 W/cm3.

La fusion nucléaire par laser

Figure 3
Fonctionnement d’une centrale à fusion laser d’une puissance d’un gigawatt (tirée du livre de Jean Robieux, Vers l’énergie abondante sans pollution).

Il n’existe pas encore de centrale commerciale par fusion laser mais le principe de fonctionnement est suffisamment bien établi pour que nous puissions calculer la puissance générée. Selon Jean Robieux, père de la fusion par laser [5], une microbille de deutérium et de tritium d’un rayon de 0,1 cm (volume = 0,00419 cm3) génère une énergie de 300 millions de joules. Au rythme de 10 cycles par seconde, on obtient une puissance de 3000 millions de watts, soit 7,16 x 1011 W/cm3, c’est-à-dire 7,16 multiplié par 1 suivi de 11 zéros !

Comme pour la fission, ce niveau de puissance par volume est trop élevé pour qu’on puisse la récupérer sans endommager l’appareillage mis en oeuvre. Nous allons donc attendre que les particules issues de la réaction de fusion parcourent une distance de dix mètres, suite à quoi nous récupérerons l’énergie cinétique à l’aide d’un fluide caloporteur circulant entre deux parois constituant une sphère de 10 mètres de rayon. Le processus de « détente » générera ainsi un volume de 4 188 790 200 cm3, ce qui ramènera le rapport puissance par unité de volume à 0,7 W/cm3, une valeur plus aisée à gérer. De plus, contrairement à la fission, la microbille est complètement volatilisée par la réaction, évitant tout problème de conductibilité thermique et de stabilité des éléments de combustible.

L’éolien

Prenons la course d’un volume de vent passant à travers les pâles d’une éolienne pendant une seconde. Nous n’avons pas affaire ici à une chambre fermée : l’énergie n’est pas véritablement libérée ou produite à l’intérieur d’un piston ou d’une cuve mais simplement collectée lors du passage du vent.

Les données fournies par le fabricant de l’éolienne Nordex N29, d’une puissance nominale de 250 kW, indiquent que cette puissance est calculée pour des vents de 15,5 km/s et que la surface balayée par les pâles de l’éolienne est de 693 m2. A cette vitesse, le volume de vent passant en une seconde à travers les pâles sera de 107 415 000 000 de cm3. En divisant la puissance par ce volume l’on obtient 2,32 x10-5 W/cm3 (0,000023 W/cm3). Notons par ailleurs qu’une éolienne fonctionne en moyenne, en raison des aléas de la nature, à 25-30% de sa « puissance nominale » seulement.

Le solaire

Pour le solaire, nous allons calculer le flux d’irradiation sur une surface donnée. L’exemple choisi est la centrale solaire à concentration (CSP) PS10, en opération depuis 2007 près de Séville en Espagne. Selon les données fournies par le constructeur, la centrale est dotée de 624 panneaux qui collectent l’énergie du soleil et la dirigent vers une tour unique où se trouve un système pouvant chauffer un fluide composé de sels fondus. L’énergie est ensuite convertie en vapeur, puis en électricité. Chaque panneau a une surface de 120 m2, pour une surface totale de 75 000 m2. La puissance thermique de l’installation est de 55 MW. Calculons le volume de radiation reçu pendant une seconde. La vitesse de la lumière étant de 300 000 000 m/s, les panneaux recevront donc une quantité qui, multipliée par la surface totale des panneaux, donne un volume de 22,5 x 1012 m3. La densité de puissance thermique avant la conversion en électricité est donc de 2,44 x 10-12 W/cm3.

En raison de la grande différence entre les principes physiques mis en oeuvre, toute comparaison exacte entre ces divers modes de production et de collecte d’énergie est difficile à faire. Mais elle permet néanmoins de faire ressortir les nombreux ordres de grandeur les séparant en terme de densité de puissance volumique.

Tableau comparatif

Méthode de production d’énergie Densité de puissance (W/cm3)
Solaire0,000 000 000 002 44
Eolien 0,000 002 32
Moulin à eau 0,04
Machine à vapeur 0,45
Turbine hydroélectrique 1,4
Moteur à combustion interne 11,9
Fission nucléaire (REP 900), pr. volumique du combustible 354
Fission nucléaire (SWR 1000), pr. volumique du coeur 3,55
Fusion nucléaire par laser, pr. volumique du combustible 716 000 000 000
Fusion nucléaire par laser, pr. volumique du coeur 0,7

B. La puissance par rapport à la surface occupée au sol

S’il a été relativement difficile de comparer les densités de puissance volumique, la question n’est pas simple non plus pour la surface d’occupation au sol.

Dans le cas d’une centrale au charbon, faut-il compter la surface occupée par les mines et les terrils, dans le cas du pétrole la surface des usines de raffinement, dans le cas de l’uranium la surface des usines d’enrichissement et de retraitement ? Dans le cas des éoliennes, l’espace restant entre elles est-il utilisable pour l’agriculture ou d’autres activités ? Le réservoir d’une centrale hydroélectrique représente-t-il toujours une perte de territoire ? Ici il sera question de l’occupation au sol de la seule partie directement impliquée dans la production de l’énergie, c’est-à-dire sans compter l’espace occupé par les raffineries ou les centrales de traitement de minerais ou des combustibles usés, ou autres équipements de ce genre.

Tableau comparatif

Mode de production Surface occupée en hectares par MW d’électricité
Centrale thermique de Vaires-sur-Marne, fioul domestique0,01
Centrale nucléaire (fission) de Cruas, en Ardèche 0,04
Centrale nucléaire (fusion par laser) 0,01
Parc d’éoliennes 5,53
Centrale solaire PS10 près de Séville en Espagne 5,45
Réservoir et barrage hydroélectrique de Serre-Ponçon 7,42
Notes :
Selon l’Ademe, il faut laisser un espace de 400 mètres entre deux éoliennes de 5 MW, sans compter les 126 mètres qu’occupe chacune, en tournant pour suivre la direction du vent. Le total du terrain occupé est donc un carré de 526 m de côté.
Pour la centrale nucléaire à fusion par laser, nous avons pris une surface 3 fois plus grande que le seul bâtiment occupé par le laser mégajoule (LMJ) en construction près de Bordeaux. Cet équipement devrait fournir la puissance nécessaire au maintien d’un processus continu et contrôlé de réactions de fusion. Avec l’introduction d’un laser d’allumage (le concept actuel ne fait appel qu’aux lasers de compression) le volume total de verre nécessaire au fonctionnement des lasers pourra être diminué pour laisser place à l’appareillage permettant l’extraction de la chaleur et la production d’électricité.

A titre de comparaison, la centrale solaire PS10 occupe, par MW d’électricité produit, un espace 138 fois plus grand que la centrale nucléaire de Cruas. Le rapport est similaire pour un parc d’éoliennes. Quant à une centrale nucléaire à fusion par laser, la surface est 553 plus petite que pour un parc d’éoliennes ou de panneaux solaires.

Récapitulation sous forme de graphiques (figures 4, 5, et 6) :

Figure 4
Figure 5
Les deux barres hachurées indiquent que la puissance volumique a été volontairement rabaissée lors de la conception des centrales (fission et fusion nucléaire) de manière à faciliter l’extraction de la chaleur produite.
Figure 6

III. L’énergie appliquée au travail : la notion de qualité

Considérons la question de l’utilisation de l’énergie plutôt que sa production. L’unité de mesure privilégiée sera la densité de puissance par unité de surface au point d’application d’un outil quelconque.

Mais tout d’abord, il faut comprendre la notion d’énergie primaire, secondaire et finale.

L’énergie primaire est disponible dans la nature avant toute transformation. C’est le cas notamment du vent, de la force animale ou du courant des rivières, qui sont toutes des énergies mécaniques directement utilisables. Il y a également des formes primaires d’énergie chimique, comme celle libérée par la combustion du charbon, et des formes primaires d’énergie physique comme celle libérée lors de la fission de l’atome.

Toutes ces formes d’énergie doivent être ensuite transformées en énergie secondaire ou finale avant d’être utilisée dans un contexte industriel ou domestique : l’énergie chimique du charbon peut être transformée en énergie thermique dans le cas d’une machine à vapeur, ou même en énergie thermique puis électrique dans le cas d’une locomotive diesel ; l’énergie atomique sera transformée en énergie cinétique puis thermique puis électrique dans le cas d’une centrale nucléaire ; l’énergie hydraulique en énergie électrique dans le cas d’un barrage hydroélectrique.

A chaque stade de transformation, une perte de puissance est inévitable, mais acceptable à condition de pouvoir concentrer la puissance restante sur une surface toujours plus petite, à l’endroit où s’appliquera l’outil destiné à effectuer un travail.

Les machines à vapeur et à combustion interne

Déjà, dans son essai de 1824, Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance, Sadi Carnot notait à propos des machines à vapeur :

C’est dans cet immense réservoir [la chaleur, ndlr] que nous pouvons puiser la force motrice nécessaire à nos besoins ; la nature, en nous offrant de toute part le combustible, nous a donné la faculté de faire naître en tous temps et en tous lieux la chaleur et la puissance motrice qui en est la suite.

Carnot estimait que « ces machines feront prendre aux arts industriels un essor dont il sera difficile de prévoir toute l’étendue. »

« Faire naître en tous temps et en tous lieux » la puissance motrice nécessaire au travail humain, voilà qui résume bien l’objectif recherché par la science dans le domaine de l’énergie. Au-delà de la simple augmentation – quantitative - de l’énergie, l’homme cherche effectivement à la concentrer dans l’espace et dans le temps, avec une précision toujours plus grande, de manière à obtenir le plus grand effet.

Par exemple, l’essor des moteurs à vapeur puis des moteurs à combustion interne a conduit aux premières pompes hydrauliques, permettant ainsi à l’industrie mécanique de transformer et concentrer la puissance dans des domaines aussi variés que les BTP, l’agriculture, l’impression ou le travail des métaux. En combinant l’action d’une pompe hydraulique à la résistance qu’offre une machine au moment où elle transforme la matière, le débit d’un fluide quelconque est converti en pression hydraulique, forme d’énergie potentielle concentrée qui se « détend » ou se transforme ensuite en énergie mécanique.

L’électricité

L’introduction de l’électricité a été une révolution inouïe. Résumant bien les avantages qu’elle a apportés, le grand constructeur de machines pour l’irrigation de terres agricoles Valley a écrit, au sujet de la conversion d’un ancien système à entraînement oléo-hydraulique en un système à entraînement électrique :

Une conversion à l’entraînement électrique peut représenter jusqu’à 75% d’économie d’énergie (en fonction du type de machine, de l’application, du sol et de la vitesse de travail) dans le déplacement de la machine et la réduction des coûts de pompage. Un système à entraînement oléo-hydraulique a besoin d’une pression de service constante de 120 à 125 bar en permanence, quelle que soit la vitesse du pivot. L’entraînement électrique n’utilise que la puissance strictement nécessaire au moment du déplacement, d’où une réduction très importante des coûts énergétiques, car l’électricité est une forme d’énergie facile à mettre en œuvre.

Ainsi, grâce à l’électricité l’homme a pu faire naître, « en tout lieu et en tout temps », de manière quasi instantanée, une multitude de mouvements électriques, en développant des moteurs de tailles et de caractéristiques variées, adaptés aux fonctions et aux circonstances les plus diverses, situés au plus près de la matière à travailler. Grâce à une multitude de moteurs électriques d’appoint, dans l’industrie de transformation des matériaux on a inventé des machines à percer, à découper et à fraiser d’une puissance et d’une précision toujours plus grande. Comme les machines à irriguer, les machines à plier et à emboutir utilisaient au début une force hydraulique d’origine thermique, mais l’électricité a fini par prévaloir.

Ici la notion de densité de puissance par unité de surface appliquée au point de transformation, c’est-à-dire là où la machine agit sur la masse de matière à transformer, prend tout son sens. Cette précision jusque alors inégalée a fait que l’électricité allait conquérir dès la fin du XIXe siècle l’industrie, pour ensuite s’étendre au foyer et aux transports.

Mais pour que l’électricité remplisse ses promesses, deux conditions doivent être remplies.

D’abord la stabilité de l’approvisionnement. L’électricité doit être disponible à tout instant et en permanence, force vive mobilisable à volonté. Cela suppose un approvisionnement de base capable de subvenir aux besoins de tous les utilisateurs à toute heure de la journée, à n’importe quel moment de l’année, plus un approvisionnement modulable pour les périodes de forte demande. L’énergie nucléaire convient parfaitement au premier type de besoin et les centrales hydrauliques et thermiques au second. C’est ici que l’on voit par contre les limites du solaire et de l’éolien, qui dépendent des caprices de la nature.

La stabilité de l’approvisionnement dépend d’une deuxième condition, la densité dans la production, qui ramène à la densité du flux d’énergie. A défaut de données fiables pour comparer le coût d’une centrale nucléaire par MW d’électricité produite à celui d’une éolienne et d’un panneau solaire, on sait déjà que l’énergie éolienne et solaire sont très peu rentables, et dépendent d’importantes subventions en provenance des pouvoirs publics. Surtout, il existe une limite infranchissable, inhérente au paramètre de base propre à ce type de technologie : la densité du flux d’énergie. Pour ce qui concerne l’énergie éolienne et solaire, cette très faible densité énergétique nous permet d’affirmer que le coût à moyen et à long terme sera extrêmement lourd à porter pour l’ensemble de la société.

En résumé, la densité du flux d’énergie, en terme d’énergie libérée par unité de masse, nous donne un rapport nucléaire/vent incroyablement élevé en faveur du nucléaire. Il n’est toutefois pas possible de faire ce calcul pour le solaire, en raison de la masse nulle des photons. La rapport densité volumique nucléaire/éolien est de l’ordre de dix millions pour un en faveur du nucléaire, et le rapport densité volumique nucléaire/solaire est de l’ordre d’un million de milliards pour un en faveur du nucléaire. Le rapport densité d’énergie par unité de surface d’occupation au sol est de cent trente-huit pour un en faveur du nucléaire par rapport à l’éolien et au solaire. Les partisans de ces deux dernières formes d’énergie affirment qu’une amélioration des rendements sera obtenue dans les décennies à venir. Mais jamais ils n’arriveront à franchir les nombreux ordres de grandeur séparant ces types de technologies. D’ici peu la mise en service, dans le domaine de la fission nucléaire, de centrales à haute température de quatrième génération améliorera encore les performances du nucléaire, surtout lors de l’arrivée des surgénérateurs capables de « brûler » la presque totalité de l’uranium 238 présentement non utilisé (car seul l’uranium 235 est directement fissile). Avec la révolution à venir que représente la fusion nucléaire, ces rapports seront encore plus défavorables aux énergies éolienne et solaire.

L’énergie dans les transports

La découverte de l’électricité et la maîtrise à moyen terme de la fusion nucléaire permettent de faire encore mieux ressortir les sauts de qualité associés à l’accroissement de la densité du flux d’énergie. L’électricité a mené au développement de réseaux de transport ferroviaire et urbain propres et silencieux, où il n’est plus nécessaire de transporter son propre combustible pour se déplacer. Ce dernier point est fondamental en ce qui concerne le domaine des transports, car il permet d’accroître considérablement la charge utile. La question se pose avec encore plus d’acuité dans les voyages spatiaux, car il est évident que les voyages interplanétaires, notamment vers Mars mais surtout au delà de la ceinture d’astéroïdes, ne pourront avoir lieu dans des conditions de confort et de sécurité suffisants avec des moteurs cryogéniques classiques. Ici l’humanité doit franchir un seuil, si elle désire s’engager plus avant dans l’espace. Seule la fusion et les combustibles qui lui sont associés permettront d’atteindre la légèreté et la puissance d’accélération nécessaires aux voyages lointains, réduisant ainsi la durée d’exposition aux rayons cosmiques et à la faible gravité représentant un danger pour la vie des astronautes.

D’ailleurs, à l’heure même où l’humanité s’apprête à s’établir durablement dans l’espace, il est clair qu’elle est arrivée à un moment où elle doit faire évoluer la biosphère terrestre afin d’en élever le niveau de densité du flux d’énergie, par un processus de terraformation à grande échelle pouvant en même temps constituer un exercice pour la colonisation d’autres planètes. Ici, la maîtrise de la fusion nucléaire et l’aménagement des cours d’eau en vue d’irriguer des continents entiers et de verdir les déserts lui permettra d’atteindre la densité du flux d’énergie et le niveau d’action nécessaires.

Effet de l’accroissement de la température

Il est évident dans ce contexte que l’utilisation du joule, et surtout de la tonne-équivalent-pétrole comme unité de mesure « universelle » de l’énergie est complètement inadéquate, ne serait-ce qu’en raison du changement d’échelle dans les quantités produites et utilisées au cours des deux derniers siècles. Mais il y a plus : l’énergie provenant du pétrole n’est pas produite dans les mêmes conditions de température et de densité que celle provenant de l’uranium. De plus, si l’on considère l’énergie non pas du point de vue de sa production mais de son application, la différence devient encore plus frappante. Dans son livre Alors vous voulez tout savoir sur l’économie [6], l’économiste américain Lyndon LaRouche propose d’utiliser le kW.kelvin/m2 comme unité de mesure de la densité de flux d’énergie appliquée ou même, nous verrons pourquoi plus loin, « un faisceau cohérent de rayonnement électromagnétique (tel un laser) d’une longueur d’onde et d’une puissance transmise spécifiées. » L’introduction de la température (en degrés kelvin) confère ainsi au concept de densité du flux énergétique une précision supplémentaire car il a été constaté, dans l’évolution de la science des machines, qu’une puissance appliquée à un haut niveau de température effectue, malgré le taux de perte plus important, plus de travail qu’une plus grande puissance appliquée à une température moins élevée.

La révolution des lasers

Avant 1960, toutes les sources lumineuses disponibles provenaient de matériaux chauffés à des températures élevées. C’est pourquoi on parle, avant l’arrivée des lasers en 1960, de sources lumineuses thermiques. Une étude attentive de l’interaction de la lumière avec la matière a montré que les particules de lumière, appelées photons, sont émises lorsque les électrons reviennent à leur niveau d’énergie d’origine après avoir été excités soit par l’agitation thermique (le niveau de vibration et/ou les chocs entre atomes et molécules), soit par l’absorption préalable d’un photon. L’émission des photons se fait de manière spontanée et désordonnée mais on remarque que plus la chaleur fournie est grande, plus les sauts entre niveaux d’énergie des électrons sont grands, et plus la fréquence moyenne des ondes associées aux photons augmente. Ainsi, lorsqu’on chauffe un métal, la lumière émise est d’abord rouge (la fréquence moyenne est plus faible), puis devient blanche lorsque le métal est « chauffé à blanc ». Ainsi, l’énergie totale transportée par la lumière émise augmente avec la fréquence.

Figure 7
Spectre du rayonnement électromagnétique, montrant l’allongement de la longueur d’onde à mesure que la fréquence diminue. En dessous, gros plan sur la partie du spectre constituant la lumière visible.

L’intensité de la source lumineuse, ou la densité de puissance par unité de surface augmente donc (et ce de manière non linéaire) avec la température. Les sources thermiques, même les plasmas, ne peuvent cependant être chauffées à des températures excédant les 10 000 degrés kelvin, sous peine d’endommager la source elle-même.

Ainsi, jusqu’en 1960, la densité maximale du flux d’énergie des sources lumineuses thermiques était limitée par les caractéristiques physiques des matériaux.

L’invention du laser allait constituer une véritable révolution.

En éclairant, avec une source lumineuse classique (thermique) aux propriétés soigneusement sélectionnées, un corps solide ou gazeux placé dans un cylindre fermé à ses extrémités par deux miroirs, l’on a réussi à exciter, et ce de manière sélective, les atomes ou les molécules qu’il contient pour que leurs électrons arrivent à monter et à « rester perchés », pour un temps suffisant, et surtout sur un nombre très restreint de niveaux supérieurs d’énergie. Lorsque les électrons redescendent de leur perchoir, l’émission des photons qui accompagne ce saut se fait de manière beaucoup plus ordonnée et le nombre de fréquences différentes constituant le faisceau lumineux est très petit. De plus, les fréquences privilégiées lors de la conception des lasers correspondent à de courtes longueurs d’onde, comme celle de la lumière visible, permettant de concentrer la puissance sur une surface très petite (plus la longueur d’onde d’un photon est petite plus la surface qu’il « éclaire » diminue) et d’obtenir une intensité jusque là inégalée.

Voilà tout le secret du laser !

A titre d’exemple, la brillance (qui est proportionnelle à l’intensité) d’un laser He-Ne (hélium-néon), l’un des plus simples et des plus courants, est 100 fois plus élevée que celle du Soleil et 3000 fois plus élevée que celle d’une lampe au mercure, source lumineuse thermique la plus brillante jamais conçue. Mais étant donné que la bande de fréquence d’un laser He-Ne (103 Hz) est beaucoup plus étroite que celle du Soleil (1014 Hz) ou de la lampe au mercure (1013 Hz), la brillance spectrale (la brillance divisée par la bande de fréquence) du laser He-Ne est au moins 16 ordres de grandeur plus élevée (un suivi de seize zéros !) que celle de la lampe au mercure. En supposant qu’une source puisse être suffisamment chauffée pour émettre un rayonnement de cette intensité, il faudrait atteindre une température de l’ordre de 1011 degrés kelvin, ce qui est, comme nous l’avons dit, impossible. Evidemment, la chambre où se forme le rayon laser n’a pas besoin d’être chauffée à de telles températures pour émettre son rayonnement, c’est pourquoi on dit que la température « équivalente » du rayon laser est de 1011 degrés kelvin.

Les lasers sont ainsi de formidables machines à concentrer l’énergie, transformant l’énergie diffuse d’une source lumineuse classique (dite également lumière de pompage) en un faisceau d’énergie lumineuse de très grande intensité. Il ne s’agit donc pas d’une production d’énergie à proprement parler mais de son application sur un point de matière à transformer.

Le secret d’une plus grande cohérence

Les propriétés des lasers nous permettent finalement d’aborder avec les outils adéquats la question de la qualité de l’énergie.

Figure 8
Quelques exemples parmi les divers modes d’oscillation des cordes. La fréquence de chaque mode est proportionnelle à son niveau d’énergie. En haut : cordes ouvertes. En bas : cordes fermées.

La caractéristique essentielle du laser est, outre sa très grande intensité (densité de puissance par unité de surface), sa grande « cohérence spatiale et temporelle ». L’énergie qu’il transporte est dite à « entropie nulle ». Sans entrer ici dans les détails de la mécanique quantique et de la thermodynamique, la raison principale de cet état de fait est liée au soin qui a été pris, au moment de la conception du laser, de choisir les dimensions de la cavité de résonance de manière à ce que la distance entre les deux miroirs soit dans une proportion très précise par rapport à la longueur d’onde des photons qui s’y trouvent. Ceux-ci y sont retenus temporairement et sont obligés de parcourir plusieurs aller-retour avant de pouvoir s’échapper, l’un des deux miroirs se trouvant à chaque extrémité de la cavité étant semi-transparent. Cette cavité, également appelée « oscillateur », est conçue de manière à rabaisser, parfois jusqu’à un, le nombre total de modes d’oscillation du faisceau laser, à la manière d’une corde de violon (Voir figure 8). C’est ce phénomène qui confère au faisceau sa grande cohérence spatiale et temporelle, car il a été démontré expérimentalement que les photons arrivent sur une cible, lorsque le nombre de modes d’oscillation est faible, à un rythme soutenu et régulier.

L’action d’une énergie de cette intensité et de cette qualité peut ainsi exercer sur la matière un effet « organisateur » sans précédent, ouvrant des possibilités insoupçonnées. Cela peut être comparé à l’effet que produit une politique planifiée d’investissement à long terme, à l’opposé du mouvement désordonné de l’argent changeant constamment de mains dans une maison de jeu ou sur un marché boursier spéculatif.

Jean Robieux évoque, au-delà de la fusion nucléaire par laser, la possibilité d’utiliser des faisceaux d’énergie cohérente pour séparer les isotopes de l’hydrogène, du carbone, de l’azote, du bore, du chlore, de l’uranium et de bien d’autres éléments chimiques, avec des méthodes bien moins énergivores que celle utilisées jusqu’à présent, ouvrant la voie à une véritable « économie isotopique » : la fabrication d’isotopes pour des usages entièrement nouveaux, s’étendant bien au delà des applications médicales actuelles.

En chimie et en biochimie, les lasers peuvent intervenir directement au niveau des orbites électroniques des atomes et molécules, permettant ainsi de fabriquer des molécules entièrement nouvelles.

Tout ceci explique donc pourquoi LyndonLaRouche a proposé d’utiliser un laser d’une longueur d’onde et d’une puissance transmise spécifiées pour mesurer la densité de flux énergétique, car la longueur d’onde et la puissance d’un laser donné correspondent non seulement à une densité de flux par unité de surface et à une température précises, mais également à un niveau d’organisation très spécifique. Cette nouvelle unité de mesure intègre donc une qualité supplémentaire dont l’impact se fera sentir bien plus fortement lorsque nous atteindrons des niveaux de densités plus élevés, ce que les anciennes unités de mesure ne permettent aucunement de faire.

Ainsi, les lasers et autres faisceaux cohérents de particules illustrent bien cette proposition avancée par l’économiste dans son livre sur la science économique :

Une simple portion de la puissance totale fournie à un processus, dans la mesure où cette portion est élevée à un niveau suffisant de densité de flux d’énergie, accomplit plus de travail que toute la puissance fournie, si cette dernière est appliquée à un niveau de densité de flux d’énergie significativement inférieur.
Ce phénomène curieux peut être rapproché de situations dans lesquelles une réaction chimique, par exemple, ne peut survenir à moins de recevoir un apport énergétique à une certaine densité de flux d’énergie. Il existe bien sûr de nombreux exemples analogues.

Benoit Chalifoux

L’auteur tient particulièrement à remercier Yves Paumier pour sa collaboration dans la rédaction de cet article, et Jean Robieux pour l’aide apportée par son précieux manuel : High Power Laser Interactions, publié par les Editions Lavoisier, Paris.

L’infrastructure et la densité du flux d’énergie

Le 29 avril, un groupe de personnalités s’était réuni à New York autour de Lyndon LaRouche, afin d’approfondir son projet d’Accord à quatre puissances. Ce groupe était composé de dirigeants politiques, d’économistes (Stanford University, University of California, MIT, Princeton, Columbia University) et de représentants de Russie, de Chine et d’Inde. Nous reproduisons ici une question posée par l’un des participants à Lyndon LaRouche sur l’importance des infrastructure dans l’accroissement du flux de densité d’énergie d’une socété, ainsi que sa réponse.

Freeman : La question suivante est tout à fait bien venue.

La personne qui pose la question, qui fait partie du groupe de Stanford, dit que l’un des problèmes soulevés lors des discussions avec M. Dvorkovich, quand il était à Stanford, mais qui a aussi été soulevé aujourd’hui dans certaines de nos discussions - et je sais que c’est un problème récurrent dans les discussions entre Américains - est cette question de l’infrastructure ; et quand je dis infrastructure, je ne suis pas juste en train de parler de paver une autoroute, ou quelque chose de semblable, mais je parle d’investissement à long terme dans l’infrastructure, comme l’était en fait le programme spatial. Diverses personnes soutiennent que le programme spatial ne faisait pas partie du développement de l’infrastructure ; mais je ne suis vraiment pas d’ accord avec cela. L’une des choses que M. Dvorkovich a dites, c’est que l’infrastructure, c’est bien. Nous voulons tous de l’infrastructure. Mais le problème avec l’infrastructure, c’est que cela prend du temps. Cela prend du temps pour la construire, et cela prend du temps pour la rendre « rentable ».

C’ est plutôt ironique, parce que ma propre vision de l’investissement infrastructurel et la raison pour laquelle il représente un stimulant si important pour la croissance économique, c’est précisément le contraire de cela. Il s’agit en effet d’un investissement dans un projet à long terme, pas seulement du fait qu’il permet de créer des emplois durables, mais parce que vous investissez dans quelque chose qui n’ est pas seulement utile maintenant, mais qui, s’il est basé sur des notions scientifiques et technologiques avancées, sera utile pendant longtemps.

Ce qui est apparu dans la discussion, certes pas dans la discussion avec Dvorkovich, car je ne crois pas que ce soit son domaine, c’est cette question, dont nous discutons vraisemblablement depuis que nous y sommes attachés, de la densité du flux d’énergie en tant que mesure de ce qui constitue réellement le progrès humain. C’ est pourquoi nous nous sommes intéressés à cela en premier lieu.

Et si, en fait, la question de l’augmentation de ce que vous avez identifié comme la densité du flux d’énergie est ce qui définit le progrès, la capacité d’accueil réelle de cette planète, et la capacité de la vie sur cette planète à explorer le système solaire, alors il semble que quand vous essayez de définir la politique nationale, la question prééminente est de savoir comment augmenter - je peux me tromper là-dessus, c’est pourquoi je pose la question - mais il semblerait que la question immédiate à traiter, ce qui pour une raison quelconque constitue votre mesure, et je pense que cela renvoie à la question précédente qui fut posée au sujet de l’économie nationale - il me semble que ce que vous utilisez comme type de test et la question à laquelle vous répondez constamment, est, comment augmenter la densité du flux énergétique. Si tel est le cas, alors ma conclusion est assurément que la solution est l’ infrastructure.

Pourriez-vous commenter cela, M. LaRouche ?

LaRouche : sur cette question, il faut revenir à une discussion de Leibniz à la fin du XVII ème siècle, au cours de la dernière décennie, lorsqu’il introduisit le concept de dynamique.

Le terme « dynamique » chez Leibniz n’ a aucun rapport avec l’ usage courant du terme aujourd’hui, y compris dans les universités. Le terme est associé à l’idée de contrainte ou d’ impulsion ; or ce n’est pas cela la mesure.

La dynamique se réfère au fait que nous vivons dans l’univers, l’univers vu du point de vue du rayonnement cosmique. C’est là que nous vivons. Et, comme dans les mouvements de masse, en politique par exemple. La politique, politique au sens large, est basée sur l’influence de l’impact d’une idée, ou quelque chose dont l’expression est semblable à une idée, sur un grand nombre de personnes, et sur l’influence des effets de cette action. C’ est ainsi que Leibniz a défini la dynamique.

Shelley, par exemple - je me suis souvent référé à cela - dans la conclusion de En Défense de la Poésie, décrit une forme similaire de dynamique, là où il y a une action de masse, comme Rosa Luxembourg, par exemple, l’a décrite : l’ action de masse qui fait bouger un peuple, malgré même ses tendances contraires. Si vous étudiez la dynamique sociale, ce que vous regardez en fait, c’est cette dynamique-là, le processus que Shelley décrit dans En Défense de la Poésie. Et il en va de même avec les autres grands poètes, et d’ autres, qui reconnaissent ce phénomène, en tant que phénomène social.

Ainsi, quand on parle en termes de dynamique, comme Leibniz utilise le terme dynamique, pas de la manière dont il est utilisé habituellement aujourd’hui, qui est une sorte d’abomination d’illettré, ce que l’on regarde est la relation entre un changement dans l’environnement, l’environnement pris dans un certain sens, et la performance potentielle, par exemple, de la société humaine : l’ amélioration possible des conditions de vie, ou la productivité potentielle d’une société.

Et donc, dans ce processus, nous mettons en place des améliorations, telles qu’une infrastructure économique de base, qui est nécessaire pour la vie en communauté, pour améliorer le niveau de vie, et aussi des machines et des modes de production pour améliorer la productivité du travail. Cela peut-être aussi simplement une action compensatrice contre l’épuisement d’une ressource, là où il faut plus d’efforts maintenant pour obtenir le même bénéfice que celui obtenu avant que cette ressource ne soit épuisée. Donc, vous devez aller vers un niveau de technologie plus élevé, ou de densité de flux énergétique plus élevé, pour résoudre le problème.

La capacité de l’homme à survivre ne dépend donc pas de ses déplacements, mais de son environnement. Comment cet environnement, incluant l’environnement de son travail, de sa vie, modifie-t-il les pouvoirs productifs du travail par kilomètre carré et par tête ? Quand on fait des investissements dans de nouveaux procédés, on augmente les pouvoirs productifs du travail, et on calcule la différence entre ce que génère cette amélioration des pouvoirs productifs du travail dans la société et la dépense d’investissement faite pour obtenir cette amélioration.

Si on ne le fait pas, on appauvrit nécessairement la société. Si l’on reste immobile, avec la même technologie, sans progrès technologique, sans améliorations à forte intensité de capital, alors on est une société qui s’appauvrit. Nous épuisons les filons les plus riches des ressources naturelles pour se retrouver avec des filons moins riches. Mais nous compensons cela en allant vers un niveau de technologie plus élevé, correspondant généralement à une augmentation de la densité du flux d’énergie du processus impliqué.

Et c’est ainsi que l’on progresse. Si nous ne faisons pas cela, alors nous irons en enfer. Ces améliorations incluent donc l’infrastructure, l’infrastructure réelle : les transports publics ; les systèmes d’eau douce ; l’ air pur ; une alimentation de meilleure qualité ; des denrées alimentaires disponibles, moins chères, plus accessibles. On ne veut pas de méga-villes avec la campagne éloignée. On veut des villes de taille moyenne, regorgeant de parcs et de toutes choses pouvant donner un aspect quasi-rural ; avec un développement agricole à proximité, ou des forêts et une agriculture juste autour de ces villes. On ne veut pas que tout soit concentré dans une partie d’un continent entier. On veut développer tout le continent avec des lotissements qui tirent profit de tout cela. Il nous faut un système de transport efficace. Un système de transport à grande vitesse, de sorte que le fret et les gens puissent se déplacer efficacement, à moindre coût et sans perte de temps. Et agréablement.

La production doit être répartie sur une vaste superficie, plutôt que d’être concentrée dans un grand taudis, ou quelque chose de semblable.

Aussi, le concept auquel certaines personnes se réfèrent, est idiot, et montre une chose : que la personne qui raisonne ainsi n’a absolument pas de connaissance suffisante en matière de planification d’une ville, de conception de machines, d’élaboration d’un processus productif, de détermination du coût d’un processus productif en termes humains. Autant de choses pour lesquelles un économiste professionnel devrait être naturellement doué, ces choses relevant surtout du domaine de l’économie physique. En outre, il faut tenir compte de l’environnement social, ou de l’environnement psychologique, qui sont tout aussi importants pour les êtres humains que l’environnement physique.

Nous voulons des écoles dont les classes ne soient pas surchargées. Nous voulons un programme d’activités dans les écoles qui promeuve le développement des pouvoirs créateurs des gens, des élèves. Nous voulons être à la frontière de la science. Nous voulons un être humain qui soit formé dans le processus éducatif en tant qu’être humain créateur, et non un âne qui a appris à répéter tout ce qu’on lui a enseigné. Nous voulons un individu qui inclinera spontanément à contribuer aux idées qui mènent à une amélioration qualitative du potentiel de l’humanité.

Il y a un autre aspect, qui est important tant moralement que physiquement. Aujourd’hui, dans la société moderne, nous pouvons vivre, avec un système de santé et des conditions de vie convenables, plus de cent ans. C’est à la portée de l’humanité, si nous mettons un terme à ces absurdités à propos du système de soins. Débarrassons-nous du système de soins d’Obama, et retournons au système Hill Burton aux Etats-Unis. Nous pouvons maintenir en vie et en bon état les gens dans leur ensemble, au-delà de cent ans. Cela ne veut pas dire que ça va marcher pour tout le monde, mais cela peut être la tendance, la norme.

Cela conduit à la question : Quel est le but de la vie, de la vie humaine ?
Nous sommes nés ; et tôt ou tard, inévitablement, nous allons mourir.
Qu’est-ce qui va donc vous permettre de rester équilibré, en tant qu’individu, pendant ce laps de temps ? Le fait que vous allez mourir implique qu’il devrait y avoir un objectif dans votre vie, qui la rende utile à l’humanité. Depuis que nous sommes des êtres sociaux, nous aimons penser à cela. Nous aimons penser à nos petits-enfants. Nous aimons penser à nos vieux amis, à leurs enfants. Nous aimons penser aux villes qui ont été aménagées ; et quelqu’un qui est au seuil de la mort peut les regarder et voir les améliorations qui ont été faites.

Nous pouvons alors tous dire que l’homme a une mission dans l’ univers.
Nous avons participé à cette mission. C’est pourquoi le progrès, y compris le progrès scientifique et technologique, est lui-même une valeur morale. Parce qu’il y a une différence entre un être humain qui se considère comme un rat, né pour mourir et à peu près rien d’autre, et un être humain qui peut vivre le temps de trois générations ou plus, et vivre dans l’intention de donner un sens à sa vie, dans la continuité, au-delà de sa mort.

Alors on peut dire que notre existence, en tant qu’existence humaine, a un but. Elle a une mission. Et par conséquent nous sommes motivés pour prendre des décisions, qui contribuent à cela. L’idée d’être bon signifie que vous pensez que l’homme, en tant que tel, a une mission dans l’existence. Une mission qui se poursuit au-delà de sa mortalité. Et l’homme choisira une vie et un type de comportement en accord avec son désir de représenter ce type d’immortalité. L’immortalité d’avoir contribué au futur de l’homme par une chose positive, de votre vivant. Et vous ne voulez pas que cela soit détruit. Vous ne voulez pas en être privé.

Vous avez donc deux aspects. D’ abord, vous devez avoir une société morale. Or une société morale est une société qui aime l’humanité en tant que partie très spéciale de la création. Une humanité dont la vie est limitée, environ trois générations pour chaque être humain dans une société convenable. Mais qu’est-ce que cette personne va faire avec ces trois générations ?

Elles vont mûrir, bien sûr, et elles vont faire des contributions, se développer pour faire ces contributions, mais elles vont avoir un but.

Par exemple, pensez aux autres nations, qui parlent une langue différente. Qui ont des habitudes différentes. Pourquoi donc s’intéresser à elles ? Parce qu’elles font partie de l’humanité.

Que devrait donc faire l’humanité ? Si vous considérez le fait que les autres nations, les autres cultures, contribuent à la conséquence de votre existence, alors vous ne les voyez pas comme des concurrents. Vous pouvez leur faire concurrence, mais vous ne les voyez pas comme de simples concurrents. Vous les voyez comme des nations complétant votre rôle dans la création du futur de l’humanité, dans cet univers.

Vous allez dans l’espace. Pourquoi ? Parce que vous allez prendre votre pied ? Non, vous allez dans l’espace parce que vous savez que c’est important pour l’humanité, pour les générations futures. Voilà le type de pensée nécessaire. Voilà la façon dont un économiste compétent tendra toujours à penser. Vous pensez aux édifices que vous construisez, aux objectifs que vous atteignez, aux objectifs que vous rendez possibles.

L’espace par exemple. Je n’ irai pas sur Mars. Je ne vivrai jamais assez longtemps pour aller sur Mars. Mais j’espère que j’aurai joué un rôle dans l’atterrissage de l’homme sur Mars et dans le développement de Mars. Parce que mon action aujourd’hui aidera à contribuer à cette fin.
C’est pourquoi ma vie a un objectif, et cet objectif contrôle ma moralité, et mon intention. Voilà la manière dont un véritable économiste doit penser.


[1Gottfried Leibniz, Specimen Dynamicum - Un échantillon de dynamique, La Monadologie, éditions Le livre de poche.

[2Le terme « substance » est pris dans son acceptation philosophique, c’est-à-dire comme l’opposé de la matière, et non la matière elle-même, sa signification dans le langage courant.

[3Gottfried Leibniz, Système nouveau de la nature et de la communication des substances, GF-Flammarion.

[4Voir ce site excellent sur les moulins à eau : http://www.hydroroues.fr/

[6Alors, vous voulez tout savoir sur l’économie ? par Lyndon LaRouche. Texte intégral en ligne : http://www.solidariteetprogres.org/documents-de-fond-7/economie/alors-vous-voulez-tout-savoir-sur-economie


Un 9 juin pour le salut commun


A vos agendas !

13 avril

Visioconférence internationale de l’Institut Schiller :
Le Plan Oasis, la paix par le développement pour toute l’Asie du Sud-Ouest


29 mars

Dialogue sur zoom de la Coalition internationale pour la Paix


L'auteur vous recommande :