Maltraitance de l’intelligence

17 février 2012

La science travaille sur du réfutable, sur lequel elle dispose du moyen de trancher le vrai du faux. La validation, par la communauté, se fait par publication dans une revue professionnelle à comité de lecture. Sur près d’un million d’articles publiés en 2010, 339 l’ont été à tort (28% contenant des erreurs, 17% étant des redites, 16% des plagiats, 28% contenant de données falsifiées ou fabriquées, voir Cécile Klingler, La Recherche, n°456, p.84), erreurs très rapidement détectées. À chaque instant, la science se remet en question et « la culture scientifique a quelque chose d’unique, d’absolument original, qu’elle ne partage avec aucune autre culture : sa propension à détruire ce sur quoi elle s’est édifiée et, en particulier, ses propres idées reçues » (Pascal Nouvel, Les Dossiers de La Recherche, n°44, août 2011, p.10).

Les opinions ne sont pas respectables quand ce que nous dit la science les contredit. Ce qu’elle dit fait autorité et combattre les idées reçues conduit, trop souvent hélas, à cause d’une inculture scientifique largement dominante, à sortir des sentiers battus — maltraitances de l’intelligence.

D’une façon générale, les quotidiens et les hebdomadaires, en France, n’ont aucun journaliste scientifique digne de ce nom. Sylvestre Huet, qui est un journaliste scientifique véritable, constitue une exception et je conseille au lecteur scientifique d’aller lire ses articles dans Libération : http://sciences.blogs.liberation.fr/home/.

Les trois notes ci-après forment un tout :
1- Ce que nous dit la science sur l’éolien et le photovoltaïque
2- Ce que nous dit la science sur l’effet de serre
3- Ce que nous dit la science sur les centrales nucléaires

Je vous souhaite une bonne lecture,

CV Sothis
Version complétée et mise à jour, 21 février 2012

 

1- Ce que nous dit la science sur l’éolien et le photovoltaïque

17 février 2012

L’éolien et le photovoltaïque sont des énergies dites « renouvelables », intermittentes, dont la production varie fortement sans que cette variation puisse s’ajuster à celle de la demande. La production d’une éolienne tombe à zéro quand le vent devient trop faible ou trop fort, la production d’un panneau photovoltaïque tombe à zéro la nuit. Bien que le discours laudateur d’un certain lobby passe sous silence cette caractéristique, elle n’en est pas moins fondamentale par ses conséquences. Même si la météo permet de les prévenir à l’avance, les consommateurs n’accepteront pas que le courant soit coupé quand le vent tombe. L’adaptation des consommateurs à l’intermittence de la production étant inacceptable, l’éolien et le photovoltaïque sont nécessairement couplés, avec la même capacité de réponse à la demande, à un mode de stockage ou à une énergie de relais. Deux investissements différents sont donc nécessaires pour l’éolien, deux également pour le photovoltaïque.
Le qualificatif de « renouvelable » relève d’un jargon qui n’a rien de scientifique. Pour un physicien, l’énergie se conserve, une part se dégradant en chaleur, mais l’énergie ne saurait se « renouveler ». Que je renouvelle la nourriture dans mon assiette ne confère pas à cette nourriture une miraculeuse propriété qui en ferait une « nourriture renouvelable ». Ce jargon, à lui seul, pointe déjà son idéologie. L’énergie solaire n’est pas renouvelable, c’est par contre une énergie nucléaire, plus précisément une énergie de fusion nucléaire.

Couplage au réseau électrique
Les installations domestiques ou les petites unités de production sont, la plupart du temps, reliées au réseau : la production est vendue, la consommation est achetée sur le réseau comme d’habitude. Dans le discours du lobby qui défend ce système, il y a un déni de réalité à présenter comme autosuffisante une production qui ne l’est pas, la consommation étant faite sur le réseau comme d’habitude. L’entreprise EDF serait détestable quand elle subventionne la Fondation Nicolas Hulot, mais serait parée de vertus quand elle paie à prix d’or les particuliers…
 Ce système ne peut plus fonctionner dès lors que le nombre d’installations raccordées croît et n’est plus marginal : il devient impossible d’acheter la production à un cours artificiellement élevé, il devient impossible au réseau d’encaisser des variations de production importantes non corrélées à la demande.

Modes de stockage de la production
Pour les toutes petites productions, il existe un mode de stockage commode et parfaitement adapté : les batteries. Une batterie fournit l’électricité nécessaire à l’éclairage familial le soir, à condition d’utiliser des ampoules basse consommation.
Le stockage électrique par batteries devient cependant ingérable (poids, prix, quantité de plomb, quantité d’acide sulfurique) à grande échelle (une batterie commune sous 12V stocke 100Ah, pèse 22kg et coûte 100€, elle fournit tout au plus 100Ax12V=1,2kW pendant 1 heure et sa durée de vie n’est que de 5 ans).
Le stockage sous forme d’hydrogène se heurte aux propriétés peu sympathiques de l’hydrogène gazeux (fâcheuse tendance à exploser, faible densité du gaz, donc nécessité de gros volumes de stockage). Sous forme liquide, le stockage nécessite de la cryogénie, sous forme solide il n’est possible qu’avec une chimie très élaborée. L’échec actuel de la pile à hydrogène a pour cause principale, outre le coût des catalyseurs, l’inextricable difficulté du stockage de l’hydrogène.
À grande échelle, seul le jumelage à l’hydroélectrique fonctionne, et il donne satisfaction. Il consiste à accumuler l’eau dans les barrages, éventuellement en la pompant, la seule difficulté étant qu’il faut une très grande quantité d’eau : l’ensemble des barrages en France produit au mieux 15% de l’électricité, stocker 15% de la production nécessite donc une quantité d’eau équivalente à l’ensemble des barrages en France. En effet, ainsi que l’explique fort bien Jean-Marc Jancovici dans « Changer le monde. Tout un programme! », une petite quantité d’énergie suffit à fournir un très grand travail mécanique (comparer la quantité d’essence utilisée pour faire avancer une voiture sur 1km, avec la fatigue du conducteur s’il doit pousser sa voiture sur la même distance). Pour cette raison, il faut donc un très grand travail mécanique pour parvenir à stocker une petite quantité d’énergie.

Développement de l’éolien offshore en France
La puissance fournie par une éolienne étant proportionnelle au cube de la vitesse du vent (puissance 2 pour l’énergie cinétique, multipliée par puissance 1 pour le débit), un site avec des vents d’environ 30 km/h de moyenne sera environ huit fois plus productif qu’un autre site avec des vents de 15 km/h de moyenne. Une éolienne fonctionne d’autant mieux que les vents sont réguliers et fréquents. Le vent diminuant près du sol, où il est freiné, une éolienne fonctionne d’autant mieux que son mât est plus haut.
L’implantation des éoliennes en France s’étant faite jusqu’ici sur des critères idéologiques, malheureusement dans les régions moins ventées, l’appel d’offre annoncé par Nathalie Kosciusco-Morizet remet heureusement les choses à leur place selon les lois de la physique. 
Cet appel d’offre porte sur 3GW, alors que l’ensemble de l’éolien offshore mondial représentait 3,1GW fin 2010 : il s’agit donc d’une opération de très grande envergure, pour laquelle parler de retard considérable de la France, comme on l’entend beaucoup, est un peu vite dit.
Avec la totalité des barrages en France, la capacité installée est de 25GW, elle est donc suffisante pour relayer les 6kW d’éolien offshore des deux tranches que le projet actuel prévoit. Mais un développement démesuré des éoliennes, tel que certains idéologues le pronent, nécessiterait la construction à grande échelle de centrales thermiques, avec un impact catastrophique sur l’effet de serre, alors même que la communauté scientifique réclame d’ici 2050 la division par 3 du CO2 émis.

Nécessité de doubler la capacité de l’éolien et du photovoltaïque par une énergie non intermittente
Il y a un déni de réalité à parler de l’éolien comme s’il s’agissait d’un mode de production d’énergie à part entière, alors que l’intermittence de ce mode nécessite le doublement de la capacité de production par un autre mode de production non intermittente. Même chose pour le photovoltaïque.
En France, la politique actuelle vise un développement de l’éolien et du photovoltaïque dans des proportions raisonnables, compatibles avec la capacité de production hydroélectrique des barrages existants.
Le parc éolien offshore de l’Allemagne, premier du monde et souvent cité en exemple, tourne au mieux 3000 heures par an (contre 365×24=8760 heures pour une énergie non intermittente). Le reste du temps, ce sont les centrales au lignite et les centrales à charbon qui prennent le relais. En Allemagne, où 25% de la production électrique vient des centrales à lignite et 18% des centrales à charbon, le relais de l’éolien est pris par ces centrales, très polluantes en gaz carbonique CO2. Pour 1 an, en 2008, l’Allemagne a émis 0,787 millions de tonnes de CO2, soit 2,61% des émissions mondiales de CO2, la France a émis 0,377 millions de tonnes de CO2, soit 1,25% des émissions mondiales de CO2 (source http://en.wikipedia.org/wiki/List_of_countries_by_carbon_dioxide_emissions) :

1- Ce que nous dit la science sur l'éolien et le photovoltaïque TableauCO21

L’Allemagne, sixième plus gros pollueur mondial en CO2, a donc été, en 2008, un pays 2,1 fois plus pollueur en CO2 que la France, classée dix-huitième par pays. Rapporté au nombre d’habitants (81,802 millions d’Allemands et 65,822 millions de Français, http://en.wikipedia.org/wiki/List_of_countries_by_population), pour 2007, en termes de CO2, un Allemand a émis une pollution 1,7 fois plus importante qu’un Français. Pourtant, dans le classement par PIB, la France, 5ème économie du monde, arrive juste derrière l’Allemagne (voir http://fr.wikipedia.org/wiki/Liste_des_pays_par_PIB_%28nominal%29) :

PIB_Pays énergies dites renouvelables

L’Espagne, qui a installé 15GW d’éolien en le doublant par 15GW de centrales à gaz, est devenue un pays importateur de gaz.

Pollution au CO2 d’un panneau photovoltaïque chinois
Si la construction d’une éolienne reste relativement économe en termes de dépense énergétique, il n’en est pas du tout de même avec un panneau photovoltaïque. Il faut, en effet, une quantité importante d’électricité pour fondre la silice et la fabrication d’un panneau anticipe 3 ans de production électrique qu’aura, dans de bonnes conditions, ce panneau une fois installé (source Jean-Marc Jancovici , « Changer le monde. Tout un programme! », p.142). Le comble de la stupidité, pour un Français, c’est d’acheter un panneau photovoltaïque fait en Chine, où 3 ans de sa production électrique future a été utilisée pour le fabriquer, électricité produite dans des centrales à charbon fortement émettrices de CO2, alors que le panneau est censé remplacer de l’électricité provenant des centrales nucléaires, qui, elles, ne produisent pas de CO2!

Négawatt sait transformer l’électricité en molécules
Négawatt se présente comme une association dirigée par 24 « praticiens de l’énergie, tous impliqués à titre professionnel dans la maîtrise de la demande d’énergie ou le développement des énergies renouvelables ». Une telle association, dans les idées qu’elle promeut, ne peut faire abstraction des intérêts financiers de ses promoteurs : on ne confie pas aux représentants des groupes pharmaceutiques la classification des médicaments les plus utiles. 
L’association fait du tapage médiatique sur son « scénario 2011″, auquel EELV assure une publicité. 
Il y a, cependant, quelque abus à argumenter la « sortie du nucléaire » sur ce scénario Négawatt. En effet, la « sortie du nucléaire » concerne la production électrique, alors que ledit scénario concerne l’énergie, globalement. La filière électricité y est noyée dans un flot de considérations sans rapport avec l’électricité, rendant possibles quelques tours de passe-passe.
Ainsi, l’accent est mis sur un vaste programme d’isolation des bâtiments, certainement très défendable. Mais, les habitations utilisant le chauffage électrique sont, justement, pour beaucoup, équipées d’une excellente isolation thermique. Un tel programme, donc, ne peut qu’avoir un impact faible sur la consommation électrique, ce que le scénario se garde bien de signaler.
Concernant la filière de l’électricité, le tour de passe passe le plus grossier consiste à escamoter l’obstacle, majeur, de l’absence de possibilité de stocker l’électricité à grande échelle. Prétendre assurer 90% de l’électricité en 2050 au moyen d’énergies qui sont intermittentes, variant sans aucune corrélation avec les besoins de consommation, n’a de sens que dans 3 cas :
1- Les consommateurs acceptent de se plier aux variations de la production (aléas climatiques sur le vent et sur le Soleil). Ils acceptent de réduire à zéro leur consommation électrique quand, par malchance, le vent tombe partout et qu’il fait nuit. Le scénario se garde bien d’en dire un seul mot.
2- Des centrales thermiques sont construites à capacité égale à l’ensemble des énergies intermittentes, afin de les relayer quand, par malchance, le vent tombe partout et qu’il fait nuit. L’investissement est colossal, pas un mot n’en est dit dans le scénario.
3- Le Saint-Esprit, dans sa grande bonté, fournit un miraculeux moyen de stockage de l’électricité d’ici 2050. Le scénario ne s’appesantit pas sur cette question.
Noyer la filière électricité au milieu d’autres énergies permet de tromper les lecteurs non spécialistes. Ainsi, au beau milieu de considérations sur la production électrique, le texte inclut des considérations sur la géothermie. Or, si la géothermie est effectivement intéressante pour le chauffage, elle ne l’est pas pour la production électrique (la thermodynamique nous enseigne que le rendement s’effondre quand la source chaude n’est pas vraiment très chaude).
Cela tourne au grand n’importe quoi quand, p.19, le rapport présente la méthanisation comme un mode de stockage de l’électricité : « L’électricité non stockable est ainsi « transformée » en molécules qui, elles, le sont parfaitement. » Ainsi, Négawatt saurait transformer l’électricité en molécules, fichtre!!! Je rappelle que la méthanisation est un processus assuré grâce à l’action de micro-organismes, ce qui n’a strictement aucun rapport avec l’électricité (voir http://fr.wikipedia.org/wiki/M%C3%A9thanisation).

2- Ce que nous dit la science sur l’effet de serre

17 février 2012

L’effet de serre est un processus physique bien connu, les changements climatiques qui en résultent font l’objet d’études scientifiques très importantes, l’impact des modifications climatiques s’accélérera inexorablement, forçant l’humanité à changer radicalement son mode de vie.

Nature de l’effet de serre
De même que le niveau moyen des mers se définit comme la moyenne d’un grand nombre de points mesurés, la température moyenne à la surface du globe est connue avec une précision d’autant plus grande que les points de mesure sont plus nombreux. Cette température moyenne résulte de l’équilibre entre le rayonnement apporté par le Soleil et par la Terre, d’une part, et le rayonnement partant vers l’espace, d’autre part (merci aux élèves de première S pour leur source http://effet.serre.free.fr/html/intro/index.htm) :

2- Ce que nous dit la science sur l'effet de serre Sch%C3%A9maEffetDeSerre

Les photons du rayonnement solaire ont principalement leur longueur d’onde dans le visible, ceux du rayonnement terrestre se situent principalement dans l’infrarouge. Les photons partant vers l’espace comportent ceux dans le domaine du visible (rayonnement solaire réfléchi, plus ou moins important selon l’albedo terrestre) et ceux dans le domaine de l’infrarouge (rayonnement émis par l’atmosphère et rayonnement provenant de la terre et traversant l’atmosphère).
Un gaz à effet de serre se compose de molécules qui interagissent avec les photons dans les longueurs d’onde de l’infrarouge. Ces molécules captent de l’infrarouge émis par la Terre. Elles vont émettre ensuite autant d’infrarouge qu’elles en ont capté, mais, alors que les photons captés proviennent du bas (de la Terre), les photons émis le sont de façon isotrope (dans toutes les directions) : une moitié est donc émise vers le bas et, l’épaisseur de l’atmosphère étant petite devant le rayon de courbure terrestre, revient sur Terre. Au total, seule la moitié de l’énergie infrarouge qui est émise par la Terre et qui interagit avec les gaz à effet de serre est évacuée vers l’espace. L’effet de serre est donc un processus très efficace d’apport d’énergie thermique dans l’atmosphère.
Ce mécanisme haut/bas a pour conséquences, de la chaleur étant ramenée vers le bas, de faire monter la température de l’atmosphère en dessous de 7km d’altitude (ainsi qu’au sol et à la surface de la mer) et, corrélativement, moins de chaleur terrestre étant évacuée vers le haut dans l’espace, de faire baisser la température en haute atmosphère, au-dessus de 7km d’altitude. Le réchauffement global au niveau du sol est très bien mesuré depuis le début de l’ère industrielle (voir Berkeley Earth project, graphique ci-après). De plus, corrélativement, c’est bien ce refroidissement en haute altitude qui a été observée ces deux dernières décennies (voir John Houghton, « Le réchauffement climatique. Un état des lieux complet », 495 pages, éditions De Boeck, Bruxelles, mars 2011, p.83 et p.89).

L’énergie mécanique de l’atmosphère étant entièrement d’origine thermique (chaleur solaire, ce sont les gradients thermiques qui, via les gradients de pression qui en résultent, génèrent les vents), l’énergie thermique apportée par l’effet de serre produit une augmentation de l’énergie mécanique de l’atmosphère (par renforcement des gradients thermiques existants).
Les principaux polluants sont le gaz carbonique CO2 (provenant principalement des combustibles fossiles, c’est-à-dire pétrole, gaz et charbon), le méthane CH4 (provenant principalement de l’élevage bovin) et le protoxyde d’azote N2O (provenant des cultures avec engrais azotés). Depuis le début de l’ère industrielle, la concentration en CO2 s’est accrue de 40%, celle en CH4 de 160%, l’effet de serre additionnel résulte pour 55% du CO2 et pour 15% du CH4 (source « Le climat à découvert. Outils et méthodes en recherche climatique », p.65 et p.55, CNRS éditions, mai 2011).
La vapeur d’eau est également un gaz à effet de serre, mais sa teneur dans l’atmosphère est régulée par le processus de la condensation : rejeter de la vapeur d’eau dans l’atmosphère n’augmente pas l’effet de serre, cela n’augmente que la quantité des pluies. Cependant, augmenter la température globale augmente l’évaporation des océans, donc aussi la concentration en vapeur d’eau de l’atmosphère, et par là son effet de serre. Cet effet en retour sur l’augmentation de température, que l’on appelle une rétroaction positive, est important : on estime qu’il contribue à doubler l’augmentation initiale de la température globale (voir John Houghton, « Le réchauffement climatique », op. cit., pp.122-123).
Au contraire de la vapeur d’eau, il n’y a pas de régulation semblable pour le CO2, pas de limite à l’accumulation de gaz carbonique dans l’atmosphère et à l’augmentation corrélative de l’effet de serre. En l’absence d’effet de serre, la température moyenne à la surface de la Terre serait de -18°C, au lieu des +15°C observés. Il y a 4,6 milliards d’années, alors que le jeune Soleil ne délivrait que 70% de son énergie actuelle, l’effet de serre du gaz carbonique suffisait à maintenir l’eau sur Terre à l’état liquide. Des mesures isotopiques sur l’oxygène et le silicium des roches sédimentaires siliceuses suggèrent que, il y a 3 milliards d’années, l’effet de serre a porté l’eau des mers à 70°C (voir « Le climat à découvert », CNRS éditions, p.35), alors même que les stromatolithes, par photosynthèse, avaient déjà commencé à faire baisser le taux de CO2 en générant de l’oxygène. Pour porter l’eau des océans à 100°C, il suffirait en principe d’ajouter du gaz carbonique dans l’atmosphère en quantité suffisante (voir le cas de Vénus).
L’étude des carottes glaciaires permet une estimation de la température à des époques d’autant plus reculées que le prélèvement est plus profond, jusqu’à l’époque de la dernière glaciation, qui correspond au niveau de la terre ferme. La température est établie par l’analyse isotopique de l’hydrogène et de l’oxygène dans la carotte glaciaire (paléothermométrie). Au dernier âge interglaciaire, il y a 120 000 ans, à l’époque où le Groenland (nom qui signifie Pays vert) a été vert pour la dernière fois, la température moyenne n’était que de 5° plus élevée qu’actuellement. Les glaces du Groenland contiennent assez d’eau pour faire monter de 7m le niveau des mers (détermination par les satellites altimétriques et gravimétriques), quant à la calotte polaire antarctique, elle contient suffisamment d’eau pour faire monter de 57m le niveau des mers (voir « Le climat à découvert », CNRS éditons, p.122 et p.100). Voir ci-dessous « Impact mondial des modifications climatiques ».

Étude scientifique des modifications climatiques
La référence sur la recherche climatique est l’ouvrage collectif du Comité National de la Recherche Scientifique, « Le climat à découvert. Outils et méthodes en recherche climatique » (CNRS éditions, 285 pages, mai 2011), écrit par 120 contributeurs de 36 laboratoires. L’accent est mis sur les méthodes et les outils, à travers l’expérimentation, l’observation, la simulation et la théorie. L’approche du climat et de son avenir est donc largement pluridisciplinaire, mettant à contribution des climatologues, paléoclimatologues, physiciens, astrophysiciens, géochimistes, géographes, océanographes, mathématiciens, économistes etc… D’une présentation très agréable, luxueusement illustrée, la rédaction soignée a veillé à rester accessible à un large public, tout en présentant l’état du savoir le plus actuel. Un ouvrage indispensable à lire et à relire par tous ceux qui veulent comprendre le monde dans lequel nous vivons.
Le rapport de l’Académie des Sciences sur le changement climatique (http://www.academie-sciences.fr/activite/rapport/rapport261010.pdf) présente un résumé du savoir scientifique sur la question. En conclusion, p.13, il est dit :
• Plusieurs indicateurs indépendants montrent une augmentation du réchauffement climatique de 1975 à 2003.
• Cette augmentation est principalement due à l’augmentation de la concentration du CO2 dans l’atmosphère.
• L’augmentation de CO2 et, à un moindre degré, des autres gaz à effet de serre, est incontestablement due à l’activité humaine.
• Elle constitue une menace pour le climat et, de surcroît, pour les océans en raison du processus d’acidification qu’elle provoque.
La prestigieuse revue américaine Science a publié (vol.328 p.689-691, 7 mai 2010) une lettre signée par 258 membres de la National Academy of Sciences (l’Académie des sciences américaine), portant sur le changement climatique et l’intégrité de la science. La lettre (voir http://www.pacinst.org/climate/climate_statement.pdf) s’élève contre « les attaques politiques menées contre les scientifiques en général et les scientifiques du climat en particulier » et insiste pour que des politiques permettant de contenir cette menace climatique soient prises, y compris la limitation de l’usage des combustibles fossiles. Les points suivants sont soulignés :
• la planète se réchauffe en raison de l’augmentation des concentrations de gaz à effet de serre dans notre atmosphère.
• l’essentiel de l’augmentation de cette concentration de ces gaz durant le dernier siècle est due aux activités humaines, en particulier la combustion de combustibles fossiles et la déforestation.
• les causes naturelles jouent un rôle dans les changements climatiques de la Terre mais sont aujourd’hui dépassées par les changements dus aux hommes.
• le réchauffement de la planète va causer de nombreux autres changements climatiques à une vitesse sans précédents dans les temps récents, dont l’augmentation de la vitesse de l’élévation du niveau marin et le changement du cycle hydrologique. L’augmentation des concentration en gaz carbonique va acidifier les océans.
• la combinaison de ces changements climatiques complexes menace les communautés et villes côtières, nos ressources alimentaires et en eau, les écosystèmes marins et d’eau douce, les forêts, l’environnement des hautes montagnes et d’autres.
Le Berkeley Earth Project est mené par un groupe de 11 scientifiques éminents, comprenant principalement des physiciens, dont Saul Perlmutter, prix Nobel de physique 2011. Il consiste en une analyse critique des mesures de température déjà effectuées. Cette analyse parle d’elle-même (voir http://sciences.blogs.liberation.fr/home/2011/10/le-r%C3%A9chauffement-confirm%C3%A9-par-le-berkeley-group.html), tant sur la convergence des mesures que sur l’ampleur du réchauffement déjà observé :

GraphiqueTemp%C3%A9rature changement climatique

Système climatique : forçage, rétroaction positive, rétroaction négative
On appelle forçage un facteur de variabilité du système climatique, et rétroaction un mécanisme d’action en retour qui augmente (rétroaction positive) ou diminue (rétroaction négative) l’effet du forçage.
Le principal forçage est celui du Soleil (activité solaire, paramètres géométriques de la trajectoire de la Terre), qui se traduit par une série de périodicités. Il faut désormais lui ajouter le forçage anthropique (c’est-à-dire dû à l’activité de l’homme) des gaz à effet de serre.
Les principales rétroactions au réchauffement climatique sont malheureusement positives. La fonte des neiges et des glaces, laissant le sol à découvert, entraîne une chute de l’albédo, autrement dit une diminution de l’énergie lumineuse réfléchie vers l’espace. La fonte du pergélisol sibérien s’accompagnera dune forte émission du méthane CH4 piégé dans le sol glacé.
Le CO2 étant soluble dans l’eau, une partie du CO2 atmosphérique se dissout dans les océans. Cette « pompe de solubilité », qui concerne les eaux de surfaces, est d’autant plus active que les vagues sont plus fortes. La circulation océanique dite « thermohaline » entraîne ces eaux de surface en profondeur. Actuellement, la moitié du CO2 émis est absorbé par la « pompe de solubilité ». La solubilité du CO2 dans l’eau diminuant quand la température augmente, le réchauffement climatique affaiblit la « pompe de solubilité », qui s’effondrerait dans l’hypothèse où la circulation thermohaline viendrait à s’arrêter.
À la pompe de solubilité s’ajoute la pompe biologique du plancton : les organismes vivants fixent une partie du carbone sous forme de calcaire (coquilles), qui tombe ensuite au fond des océans. Il se trouve que cette fixation est active dans les eaux froides, mais que son activité diminue si les eaux se réchauffent. Le réchauffement climatique diminue cette pompe biologique, elle aussi.

La prédominance des rétroactions positives explique le basculement, observé dans le passé, entre des périodes de glaciation (accompagnées de faibles teneurs en CO2) et des périodes chaudes (accompagnées de teneur en CO2 élevées). Du fait des rétroactions positives (chute de l’albédo par disparition des surfaces blanches, relâchement de méthane par dégel du pérégisol, relâchement de CO2 par les océans qui se réchauffent), si la teneur de l’atmosphère en gaz carbonique cessait de croître, la température moyenne continuerait de monter pendant 100 ans encore.
La principale spécificité de la situation actuelle est le rythme foudroyant de croissance de la teneur de l’atmosphère en gaz à effet de serre, bouleversement 100 à 500 fois plus rapide que les basculements observés dans le passé (voir « Le climat à découvert », CNRS éditions, p.204).

Impact mondial des modifications climatiques
Un bon exposé de la question est fait dans «2033, Atlas des futurs du monde », par Virginie Raisson (coauteur des « Atlas du dessous des cartes »). Selon le scénario envisagé, la hausse prévue de température d’ici à 2100 est de 1° à 6°, et s’accélérera inexorablement tant que l’humanité ne changera pas radicalement son comportement énergétique.
La hausse du niveau des mers (3,4mm/an entre 1995 et 2010, mais cette fonte s’accélère) affectera particulièrement toutes les régions de deltas, fortement peuplées.
Remarquons que, en vertu du principe d’Archimède, la fonte de la banquise ne change pas le niveau des mers. En effet, toute glace flottante déplaçant un poids d’eau égal au poids de cette glace, la fonte de cette glace apportera un poids d’eau égal à celui de l’eau qui était déplacée, donc un volume d’eau exactement égal lui aussi. Par contre, pour la glace de la calotte, le niveau des mers montera du fait de l’apport de l’eau de fonte de la glace. Avant même la fonte de la glace, en vertu du principe d’Archimède, il montera d’ailleurs d’une quantité égale si la glace se met à glisser sur la roche puis à flotter sur la mer.
La fonte de la calotte glaciaire du Groenland, pour une élévation de température de 5° seulement, ferait monter de 7m le niveau moyen des mers (voir ci-dessus et « Le climat à découvert » p.100). Cette fonte devrait s’étaler sur plusieurs siècles, mais une montée pour 5m à 6m du niveau moyen avec fonte partielle pourrait être beaucoup plus rapide, par formation d’une pellicule d’eau lubrificatrice sur la roche et glissement de pans entiers vers la mer. Cette glace continentale devenant glace flottante, par pans entiers, pourrait faire monter de 2m le niveau global d’ici 2100 (voir John Houghton, « Le réchauffement climatique », op. cit., pp.199-201), sans même qu’il soit nécessaire que la glace fonde.
Cette atteinte de grande ampleur à l’environnement de toute une partie de l’humanité entraînera des phénomènes de migrations des populations, d’une ampleur inconnue jusqu’ici. L’ensemble des régimes de précipitations sera modifié avec des phénomènes sécheresse, de pénurie de l’eau et de désertification, mais aussi d’inondations et de cyclones, on prévoit une accélération de la fonte des glaciers, on craint également des épidémies de dengue et de paludisme.

La zone dépressionnaire située entre les alizés nord et sud — ceinture équatoriale de pluies intenses — s’est déplacée de 550km au nord depuis la fin du petit âge glaciaire. Sa position est très sensible aux variations climatiques (voir « Pour la science », n°405, juillet 2011, p.66) : elle pourrait se déplacer de 550km supplémentaires vers le nord d’ici 2100, entraînant l’apparition d’une zone importante de sécheresse là où les pluies sont abondantes (Équateur, Colombie, Malaisie, Philippines, Thaïlande, Cambodge) et de pluies abondantes dans des régions sèches (Salvador, Manille).
L’accélération inexorable de ces phénomènes obligera l’humanité à sortir des énergies fossiles, que cela plaise ou non. Tout retard dans les mesures radicales qui auraient dû être prises dès maintenant se traduira par une augmentation très forte du coût des dégâts.

Bilan carbone
Le bilan carbone constitue un bon indicateur de la détérioration ou de l’amélioration de la pollution au CO2. Il prend en compte le CO2 émis pour fabriquer l’objet, y compris quand l’objet est acheté et fabriqué dans un autre pays. Voir, par exemple, Jean-Marc Jancovici, « Changer le monde. Tout un programme », p.142, le bilan carbone de la pose, en France, d’un panneau photovoltaïque fabriqué en Chine (le CO2 produit en Chine par sa fabriquation est à imputer à la France).

Inaction générale contre l’effet de serre
Le retour à la croissance mondiale en 2010 a coïncidé avec une augmentation de 1,6 gigatonne dans l’émission de CO2, le plus haut niveau jamais enregistré (voir http://sciences.blogs.liberation.fr/home/2011/05/nouveau-record-pour-les-%C3%A9missions-de-co2-en-2010-aie.html). En France, il suffit d’entendre, tous les jours, les dirigeants d’EE-LV poser en modèle de vertu le 6ème pays plus gros pollueur mondial en CO2 pour mesurer le niveau général d’inculture en physique. Selon Angela Merkel, l’abandon du nucléaire sera en grande partie compensé par des centrales à charbon ou des énergies renouvelables et probablement une augmentation des importations de gaz russe, dont l’Allemagne est déjà le premier client, augmentation qui pourrait être de 30 à 35% d’après le vice-Premier ministre russe Viktor Zoubkov (voir http://www.lexpress.fr/actualites/1/economie/l-energie-et-une-polemique-sur-poutine-a-un-sommet-russo-allemand_1013220.html?actu=1).
On entend régulièrement des économistes experts, du moins prétendus tels, incultes en physique, prédire un grand avenir à la filière charbon, sans se poser la moindre question sur l’effet de serre qui résulterait d’un usage massif du dernier combustible fossile encore présent en abondance.
 Planter des arbres, alors que le carbone organique est, à long terme, oxydé par les micro-organismes qui finissent par le dévorer, ou construire une centrale thermique séquestrant son CO2 dans le sol, mais au prix d’une chute spectaculaire de son rendement, ne constituent que des tentatives dérisoires.
La réalité, c’est la totale irresponsabilité d’une politique qui, au niveau mondial, nous mène droit dans le mur d’un bouleversement climatique contre les nuisances duquel nous sommes désarmés.

3- Ce que nous dit la science sur les centrales nucléaires

17 février 2012

Le principe du fonctionnement d’une centrale nucléaire est indiqué, en mentionnant les points importants dans la sûreté du réacteur. Sont abordés le réacteur à eau pressurisée, l’EPR et les réacteurs de quatrième génération, actuellement à l’étude. Les avantages (bilan carbone) et les inconvénients de la filière nucléaire sont mis face à face. On analyse la catastrophe de Fukushima, l’acceptabilité du risque et le comportement irrationnel face au risque.

Réacteurs de deuxième génération
Une centrale nucléaire utilise la fission pour produire de la chaleur à partir de laquelle on génère de l’électricité. La plupart des centrales nucléaires en France utilisent un réacteur à eau pressurisé, selon le schéma ci-dessous (source Wikipédia,  http://fr.wikipedia.org/wiki/R%C3%A9acteur_%C3%A0_eau_pressuris%C3%A9e) :

3- Ce que nous dit la science sur les centrales nucléaires Sch%C3%A9maR%C3%A9acteurEauPressuris%C3%A9e

La centrale de Fukushima utilisait des réacteurs à eau bouillante, selon le schéma ci-dessous (source http://fr.wikipedia.org/wiki/R%C3%A9acteur_%C3%A0_eau_bouillante) :

Sch%C3%A9maR%C3%A9acteur%C3%80EauBouillante acceptabilité des risques

La principale différence est que, dans le premier schéma, l’eau fortement radioactive du circuit primaire est entièrement confinée dans le volume de l’enceinte de confinement, alors que, dans le second, l’eau (vapeur et liquide) fortement radioactive traverse un volume beaucoup plus important, qui comprend la turbine et le condenseur.
 Le réacteur de Tchernobyl, pour sa part, ne comprenait aucune enceinte de confinement.
 À Three Mile Island, réacteur à eau pressurisée, le cœur partiellement fondu est resté dans la cuve et les fuites d’eau fortement radioactive du circuit primaire sont restées dans l’enceinte de confinement, demeurée étanche.

Réacteurs de troisième génération
L’EPR (Evolutionary Power Reactor) est un réacteur à eau pressurisé amélioré sur le plan de la sûreté et sur le plan des performances. L’enceinte de confinement se compose de deux parois de 1,3m d’épaisseur, avec un dispositif récupérateur de corium. Ce dispositif, en matériau réfractaire, est conçu pour stopper et refroidir le corium en cas de fonte du cœur et de perçage de la cuve. L’EPR est équipé de 4 systèmes de refroidissement d’urgence indépendants. Il est conçu pour fournir 22% d’électricité de plus pour la même quantité de combustible et 15 à 30% de déchets de moins en volume, ainsi que pour accroître la disponibilité et faciliter la maintenance.
 Quatre réacteurs EPR sont actuellement en cours de construction (un à Olkilluoto en Finlande, un à Flamanville en France et deux à Taishan en Chine).

Réacteurs de quatrième génération
Il s’agit de projets, qui pourraient entrer en service à l’horizon 2030. Six principes différents sont à l’étude. Les objectifs sont d’améliorer la sûreté nucléaire (stopper la réaction en chaïne ne nécessitera plus d’introduire un modérateur), améliorer la résistance à la prolifération (combustible dédié), minimiser les déchets (surgénération), optimiser l’utilisation des ressources naturelles (surgénération), diminuer les coûts de construction et d’exploitation.

Avantages de la filière nucléaire
L’avantage principal des centrales nucléaires réside en ce que la fission nucléaire, dans son principe, ne produit aucun gaz à effet de serre. Le bilan carbone ne comporte donc que les émissions dues à la construction ainsi qu’à l’extraction du minerai, à sa concentration et à son transport. Ce bilan est de l’ordre de 5 grammes de CO2 par kWh (voir Jean-Marc Jancovici, « Changer le monde. Tout un programme », p.137).
 Cette absence quasi totale de pollution au CO2 rend la filière nucléaire particulièrement intéressante pour un développement massif de la voiture électrique. Celle-ci, au contraire, perd toute espèce d’intérêt avec une électricité produite par des combustibles fossiles. Elle perd la plus grande partie de son intérêt avec l’éolien et le photovoltaïque adossés à des centrales à gaz, nécessaires sauf à accepter de couper l’électricité quand le vent tombe ou quand il fait nuit.

Accusations fantaisistes ou mensongères
Contrairement aux affirmations fantaisistes d’un certain lobby, le combustible nucléaire ne s’épuisera pas en 30 ans, car la surgénération permettra d’utiliser l’uranium 238, dont on dispose déjà en énormes quantités.
 Contrairement aux affirmations de mauvaise foi d’un certain lobby, la nécessité de se fournir en minerai n’entraîne pas une dépendance dans la mesure où, à la différence du pétrole, il en existe un peu partout, dans la mesure où la quantité utilisée est faible, donc facilement transportable à partir de n’importe où et stockable en des stocks à long terme, et dans la mesure où le prix du minerai intervient pour une part négligeable dans le coût de l’électricité.
Le problème du coût de démantellement des centrales, prétendument prohibitif, est largement artificiel. En effet, il n’y a pas de réelle nuisance autre que visuelle à laisser une centrale arrêtée sans la démanteler. On n’exige pas le rebouchage des mines de charbon après l’arrêt de l’exploitation, on ne demande pas à l’Allemagne de reboucher les gigantesques tranchées des mines de lignite à ciel ouvert (450m de profondeur sur plusieurs kilomètres de large, voir http://fr.wikipedia.org/wiki/Lignite).

Inconvénients de la filière nucléaire
Le stockage des déchets reste un problème. Il convient toutefois de souligner que ce problème est sans commune mesure avec celui que représente le CO2 : le volume de CO2 est à l’échelle de la Terre entière, il est certainement plus simple d’enfouir des déchets nucléaires que d’enfouir un gaz sous haute pression et personne n’ira rechercher, dans l’atmosphère, le CO2 que la stupidité des pollueurs aura mis.
L’autre inconvénient principal de la filière nucléaire est la gravité d’un accident, s’il s’en produit un.

Analyse de la catastrophe de Fukushima
Sur Fukushima, voir les excellents articles de Sylvestre Huet dans Libération (http://sciences.blogs.liberation.fr/home/2011/03/index.html) et le rapport de 189 pages de l’IRSN (http://www.irsn.fr/FR/Actualites_presse/Actualites/Pages/20120315_Rapport-IRSN-Fukushima-1-an-apres.aspx). 
La centrale de Fukushima utilisait six réacteurs : deux construits par le Japon, quatre construits par les USA. Les quatre réacteurs de la catastrophe sont ceux construits par les USA. On en parle peu, mais il est pourtant fort utile de savoir pourquoi les deux réacteurs construits par le Japon ont bien résisté. En fait, ils étaient construits sur une plateforme plus haute et le diesel du n°6, refroidi par air et non par eau, n’a pas été inondé et a continué à fonctionner (source La Recherche, n°453, juin 2011, p.52).
 Autour de la centrale, la zone contaminée n’est pas du tout circulaire : il est inutile de maintenir l’évacuation des sites peu contaminés, il est nécessaire, à l’inverse, d’évacuer certains sites plus contaminés qui sont encore habités. Plusieurs sites situés à moins de 20km ont une contamination inférieure à 10mSv/an (source http://sciences.blogs.liberation.fr/home/2011/05/lirsn-alerte-sur-le-risque-radioactif-de-fukushima.html) :

ContaminationFukushima avantages de l'électronucléaire
De tels niveaux d’exposition sont inférieurs à la radioactivité naturelle de certaines régions granitiques en France, inférieurs à l’irradiation (12mSv) que représente un examen annuel de scanner abdominal (source http://www.irsn.fr/FR/base_de_connaissances/Sante/effet-sur-homme/effets-sanitaires-faibles-doses/Pages/1-comprendre-faibles-doses-rayonnements-ionisants.aspx?dId=d5cb0a39-ddbc-40b7-af84-6dd8beb3d94e&dwId=b6b890ca-b083-41eb-a3d4-97dbf3fb9010).
La pollution initiale aux iodes radioactifs s’est désormais éliminée toute seule pour l’essentiel. L’impact sanitaire majeur est celui des césiums, particulièrement du césium 137 (30 ans pour en éliminer la moitié). Ci-dessous la cartographie de la pollution actuelle au césium 137 (source http://sciences.blogs.liberation.fr/home/2012/02/fukushima-contamination-chronique-et-p%C3%A9renne-irsn.html) :

FukushimaCarteC%C3%A9sium centrales nucléaires
Les émissions de césium ont été trois fois moins abondantes qu’à Tchernobyl et l’impact sanitaire sera très inférieur, voire sans commune mesure, parce que la population a été évacuée avant les émissions et parce qu’une grande part de celles-ci est allée sur l’océan. La zone la plus contaminée, à plus de 600 000 becquerels au m2, en vert-jaune-rouge sur la carte, recouvre 600 Km2 à Fukushima, contre 13 000 km2 à Tchernobyl. À Tchernobyl, 270 000 personnes ont été évacuées, contre 170 000 personnes au Japon, dont une partie devrait revenir après décapage des sols (le césium reste dans les 20 premiers centimètres de terre). Les pluies et ruissellements ont constitué, localement, des points d’accumulation où la radioactivité peut être des centaines de fois supérieures et il faudra d’abord les décaper.
Il faut noter que la contamination radioactive des terres et des produits agricoles se mesure très facilement, beaucoup plus facilement que n’importe quelle contamination chimique ou bactérienne. On trouve des compteurs Geiger (Radex RD1503) à moins de 300€.

L’ASN et Fessenheim
Le 4 juillet 2011, l’Autorité de Sûreté Nucléaire (ASN), suite à sa troisième visite décennale du réacteur n°1 de la centrale de Fessenheim, a autorisé son exploitation pour dix ans de plus. Cette autorisation est, cependant, soumise à une drastique condition (voir http://sciences.blogs.liberation.fr/home/2011/07/nucl%C3%A9aire-lasn-autorise-fessenheim-1-pour-10-ans.html). Elle n’est valable qu’à condition que l’épaisseur du radier en béton sous la cuve, actuellement de 1,50m, soit augmentée, avant le 30 juin 2013, afin de supporter l’éventuelle chute d’un cœur en fusion (8m de béton à Fukushima). La faisabilité d’une telle intervention, dans une zone de très forte irradiation, est problématique et, à supposer que l’intervention soit possible, elle aurait de toute façon un coût prohibitif. D’autant que l’ASN exige aussi l’installation d’une source froide alternative au canal du Rhin, de façon à compenser sa perte éventuelle. Il est possible, sinon probable, qu’EDF préfère fermer le réacteur.
Curieusement, les médias ne se sont pas fait l’écho de cette décision, reprenant seulement la nouvelle de l’autorisation sur 10 an, sans mentionner la condition drastique à laquelle elle est soumise. Les candidats à l’élection présidentielle ont prétendu l’un fermer Fessenheim, l’autre maintenir en fonction Fessenheim, sans qu’aucun d’eux n’ait fait la moindre mention de la décision de ASN, ni précisé s’il reconnaissait ou non l’autorité d’expert et le pouvoir de décision de l’Autorité de Sûreté Nucléaire.
Comment pourrait-on imaginer, avec ce niveau d’ignorance proprement ahurissant de la filière électronucléaire, que l’existence même de cette filière puisse faire l’objet d’un référendum dont il résulterait une décision reposant sur autre chose qu’une réaction passionnelle totalement dénuée de la moindre connaissance technique et scientifique. L’expression collective, sur un sujet technique et scientifique, d’une réaction passionnelle totalement dénuée de la moindre connaissance technique et scientifique a-elle la moindre portée démocratique?

 

Acceptabilité du risque, comportement irrationnel face au risque
Selon un sondage publié par HKK (http://www3.nhk.or.jp/daily/english/04_06.html), 24% des Japonais veulent un arrêt définitif de toutes leurs centrales nucléaires et 42% une réduction de leur nombre. Autrement dit, le diktat d’EELV sur la sortie du nucléaire en France ne correspond qu’à 24% de l’opinion japonaise, 42% de celle-ci étant sur une position du type de celle de François Hollande (qui n’oblige pas à construire des centrales thermiques pour relayer les énergies intermittentes quand celle-ci font défaut). La catastrophe japonaise souligne le comportement totalement irrationnel d’une partie de l’opinion publique française : alors que le tsunami est la catastrophe qui a fait 30 000 morts et 500 000 réfugiés (ils ont tout perdu), on se focalise sur la catastrophe nucléaire qui en a résulté, bien qu’elle ait fait zéro mort et beaucoup moins de personnes déplacées.
Pire, on considère normal que les survivants du tsunami retournent se réinstaller au même endroit, sachant qu’un autre tsunami s’y produira forcément de nouveau. Alors que, dans cette partie de l’opinion, le nucléaire n’est pas accepté sous prétexte qu’il ne peut assurer zéro catastrophe, le principe de précaution passe entièrement à la trappe dès lors qu’une catastrophe future, pourtant certaine, revêt quelque part un aspect « naturel ». Pourtant, il n’y a rien de naturel à s’installer en bord de mer sachant qu’un tsunami détruira tout un jour.
Le culte du « naturel » conduit à un obscurantisme dévastateur pour l’intelligence. 
À Hambourg, une ferme pratiquant l’agriculture biologique a causé, par ses graines germées, 45 morts. De combien de morts les irradiations des centrales nucléaires allemandes sont-elles responsables? Pourtant, l’émotion dans l’opinion publique soulevée par le « concombre espagnol tueur » s’est arrêtée net et un silence médiatique complet a suivi l’annonce de l’identification de la source de pollution : toute interrogation au sujet de la sécurité de cette production est politiquement incorrecte, tout questionnement sur un risque éventuel de la filière bio est totalement tabou. Pourtant ce risque existe bel et bien et il s’est manifesté dans le passé (par, notamment, 1/3 des 250 morts signalés en 1996 par le Centre de contrôle des maladies infectieuses d’Atlanta, alors que la filière bio impliquée n’avait fourni que 1% des aliments).
On peut s’étonner de voir des militantes et des militants d’un parti qui se prétend écologiste faire tous les jours un éloge dithyrambique du sixième pays plus gros pollueur en CO2 (l’Allemagne). Ce lobby recourt à la théorie du complot, dénonçant une prétendue mainmise du Corps de Mines (c’est en fonction de leur seul classement que les X Mines sont recrutés au sein de Polytechnique) et s’insurge contre une filière décidée sans débat démocratique (mais il en est de même de la création du CNRS, ou de l’abolition de la peine de mort).
Il est vrai qu’une complète inculture en physique, largement dominante, ne facilite pas la compréhension de l’effet de serre, de son caractère cumulatif et de l’inéluctable emballement de ses conséquences, qui obligeront l’humanité à sortir des énergies fossiles, que cela plaise ou non.