La crise pétrolière: Analyse des mesures d'urgence 9782759803408

La première crise énergétique de 1974 a mis en lumière un sujet qui n'aura cessé d'être un point chaud de l�

136 71 4MB

French Pages 284 Year 2009

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

La crise pétrolière: Analyse des mesures d'urgence
 9782759803408

Citation preview

La crise pétrolière Analyse des mesures d’urgence

This page intentionally left blank

La crise pétrolière Analyse des mesures d’urgence

Bernard Durand

17, avenue du Hoggar Parc d’Activités de Courtabœuf, BP 112 91944 Les Ulis Cedex A, France

Couverture : Pascal Ferrari Mise en page : Exegraph Imprimé en France ISBN : 978-2-7598-0382-8 Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constiturait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences 2009

Remerciements

Une des difficultés des ouvrages de synthèse, c’est qu’ils demandent des connaissances précises dans un grand nombre de domaines dont l’auteur n’a pas toujours l’expérience suffisante. Cette difficulté est particulièrement présente quand on s’est proposé, comme c’est le cas ici, de débattre de la crise pétrolière et des problèmes qui lui sont liés. Dans ce domaine comme dans d’autres, il existe en effet bien des non-dits qui ne sont explicités nulle part, et rien ne remplace l’expérience personnelle pour être à même de porter un jugement sûr. Je remercie donc vivement ceux qui m’ont aidé de leur savoir et de leur expérience et m’ont ainsi évité de nombreuses embûches. Je pense plus particulièrement à Pierre Bacher, Daniel Ballerini, Pierre-René Bauquis, Xavier Chavanne, Roland Geoffrois, Jean Laherrère, Pierre Marion, Yves Mathieu, Christophe Maubay, Bernard Multon, Hervé Nifenecker, Georges Pelletier, Alain Quignard, Joachim Resch et Claude Roy, qui ont bien voulu me donner des informations et leur avis sur les aspects qui relèvent plus particulièrement de leur domaine de compétence. J’espère avoir assimilé correctement leurs remarques. Les jugements qui sont exprimés dans cet ouvrage sur l’intérêt des méthodes envisageables pour résoudre la crise pétrolière, et sur celui des diverses sources alternatives d’énergie, restent les miens. Je remercie également chaleureusement mes amis Philippe Beaudoin, JeanPierre Boisnard, Gilbert Caroff et Marcel Descamps pour les discussions fort utiles qui ont accompagné la rédaction de cet ouvrage.

This page intentionally left blank

Avant-propos

Cet ouvrage a pour but de fournir à des non-spécialistes des repères pour comprendre les raisons de la crise pétrolière actuelle, en prévoir les conséquences et juger de l’intérêt des moyens proposés pour y faire face. La première partie du chapitre 1 explique ce que sont le pétrole et son cousin, le gaz naturel, car la connaissance de leurs propriétés permet de mieux comprendre ce que peuvent être les moyens destinés à les remplacer. La crise pétrolière était annoncée depuis longtemps. Les géologues pétroliers ont donné l’alerte dès la fin des années 1980, quand il est apparu de façon indiscutable que les quantités de pétrole nouvellement découvertes déclinaient sans cesse et étaient devenues, en année moyenne, durablement inférieures aux quantités consommées. Il est regrettable qu’ils n’aient alors rencontré qu’indifférence, ou même hostilité. Ce n’est guère que depuis deux ou trois ans, quand le prix du pétrole a commencé à s’envoler, qu’ils ont véritablement commencé à être entendus ! Un temps précieux a ainsi été perdu, qui aurait pu être utilisé pour la mobilisation et l’action. L’incrédulité persiste néanmoins dans une large partie de l’opinion et revient en force à la moindre accalmie sur le front des prix. Fusent aussi de toutes parts les explications a posteriori, et les propositions pour faire face à la situation, dans un flou et une confusion qui résultent d’analyses et d’évaluations quantitatives très insuffisantes. Le terrain médiatique est accaparé, souvent avec véhémence, par les partisans et les adversaires de telle ou telle source d’énergie ou de telle ou telle technique prétendument salvatrice, sans que soit pour autant présenté un bilan raisonné et précis ni des possibilités réelles ni des inconvénients. Aucun miracle n’aura lieu ! La solution ne peut venir que d’une coopération active et beaucoup plus sincère que celle que l’on voit actuellement à l’échelle internationale, et, dans un premier temps, des efforts faits par les citoyens des pays industrialisés pour réduire leur consommation énergétique. Les pays d’Europe, bien plus exposés que d’autres parce qu’ils n’ont que peu de

8

La crise pétrolière

ressources sur leur sol, ont tout intérêt à construire rapidement une politique énergétique commune au service de leurs citoyens, ce qui suppose non seulement de dépasser les conflits d’intérêts et les postures idéologiques où ils se complaisent depuis tant d’années, mais aussi de développer beaucoup plus activement la recherche scientifique et technologique dans le domaine de l’énergie. Il est maintenant plus que temps de se mettre en mouvement !

Unités et équivalences énergétiques utilisées

• Le joule (J) : c’est l’unité d’énergie du système international d’unités (SI). Il s’agit d’une unité très petite : il en faut environ 418 500 sous forme de chaleur pour élever de 0 à 100 ˚C la température d’un kilogramme d’eau pure. • Le watt (W) : c’est l’unité de puissance du système SI : il vaut donc 1 joule par seconde (1 J/s). • Le wattheure (Wh) : c’est la quantité d’énergie délivrée ou utilisée en une heure, soit 3600 secondes, par un dispositif ayant une puissance de 1 watt. Il vaut donc 3600 joules. Cette unité, qui est donc une unité d’énergie, est utilisée principalement par les électriciens. • La tonne-équivalent-pétrole (tep) : 1 tep vaut approximativement 41,9 milliards de joules (41,9 gigajoules, GJ). C’est la quantité d’énergie chimique que contient une tonne de pétrole de qualité courante et qui est libérée lors de sa combustion. Cette unité est la plus fréquemment utilisée dans le monde pétrolier et par les économistes quand il s’agit d’évaluer les consommations et les productions d’énergie à l’échelle internationale. Dans le monde universitaire, on préfère utiliser l’exajoule (EJ), qui vaut 1018 joules, car la tep n’est pas une unité du système international d’unités. Un EJ vaut approximativement 23,8 tep. Les quantités d’énergie chimique ainsi libérables par une tonne de pétrole varient selon leur origine, jusqu’à 5 ou 6 % pour les plus courants, et la tep n’est donc qu’une valeur moyenne, qui a été fixée une fois pour toutes comme standard. Pour évaluer les réserves et la production de pétrole des gisements, on utilise non plus une unité de poids mais une unité de volume, le baril, qui vaut 159 litres.

10

La crise pétrolière

1 tep équivaut approximativement à 11,7 térawattheures (TWh) et par conséquent 1 kg de pétrole équivaut à 11,7 kWh. Inversement, 1 TWh équivaut à 0,086 tep et 1 kWh équivaut à 0,086 kilogramme-équivalentpétrole (kep) ou encore 86 gramme-équivalent-pétrole (gep). La quantité d’énergie libérée en moyenne par la combustion de 1000 m 3 de gaz naturel dans les conditions standard de température et de pression (1 atmosphère, 15 ˚C) équivaut en moyenne à 0,86 tep. Il y a bien sûr des variations très importantes en fonction de la composition du gaz naturel. Celle libérée par la combustion d’une tonne de bois a été fixée, assez arbitrairement elle aussi, car il y a ici de grosses variations selon la nature du bois et son état, à 0,23 tep pour le bois sec et 0,43 tep pour le bois déshydraté. Ces valeurs ne permettent donc d’évaluer que des ordres de grandeurs. Pour le lignite et le charbon bitumineux, il s’agit de 0,35 tep et 0,65 tep en moyenne respectivement. Là aussi, il y a de grosses variations selon l’origine. Une tonne de biodiesel vaut 0,9 tep et une tonne d’éthanol vaut 0,65 tep. L’utilisation d’une tonne d’uranium naturel dans les réacteurs nucléaires actuels équivaut à 10 000 tep, et 60 fois plus dans les réacteurs surgénérateurs. Cette valeur est aussi un ordre de grandeur, car elle dépend assez largement du type de réacteur et des procédés mis en œuvre dans ce que l’on appelle le cycle du combustible nucléaire.

Unités anglo-saxonnes Ces unités sont celles qui sont en usage dans les professions pétrolières, qui sont dominées de fait par la culture anglo-saxonne. • Le barrel (b), en français le baril (b) : unité de volume qui vaut 159 litres. • La British Thermal Unit (BTU), unité d’énergie qui vaut 1055,05 joules. 1 tep vaut approximativement 39,7 millions de BTU. On utilise aussi parfois, pour les très grandes quantités le Quad, qui vaut 1 million de milliards (en anglais, 1 quadrillion) de BTU, soit 1,055 exajoule (EJ). • Le Trillion of Cubic Feet (TCF), unité de volume pour le gaz. 1 TCF vaut environ 28 milliards de m3 mesurés en conditions standard, soit l’équivalent en énergie contenue de 166 millions de barils ou encore 22,7 millions de tonnes de pétrole (tep).

Bernard Durand

11

• Le barrel/day (b/d), en français le baril /jour (b/j) : unité de production de pétrole, 1 Mb/d représente une production d’environ 50 millions de tonnes par an. • Le dollar/million de BTU, unité de prix du gaz. 1 $/MBTU équivaut en moyenne à 39,7 $/tep d’équivalent énergétique. • Le dollar/1000 m3, unité de prix du gaz. 1 $/1000 m3 équivaut en moyenne à 1,16 $/tep d’équivalent énergétique.

Rappels • Les abréviations des multiples par mille des unités sont : k (kilo, 103) M (méga, 106) G (giga, 109) T (téra, 1012) P (péta, 1015) E (exa, 1018)

Exemples : 1 ktep = 1000 tep (103 tep) 1 Mtep= un million de tep (106 tep) 1 Gtep = un milliard de tep (109 tep) 1 kWh = 1000 Wh 1 MWh = 1 million de wattheures 1 GWh = 1 milliard de wattheures 1 TWh= 1 milliard de kilowattheures… • Énergie de combustion du carbone pur (sous forme de graphite) : 393 kJ par atome-gramme (12 g) soit 32,8 MJ par kilogramme. • Énergie de combustion de l’hydrogène (sous forme de gaz) : 286 kJ par mole (2 g) soit 143 MJ par kilogramme. (Dans les conditions standard et l’eau étant produite sous forme de gaz.) Note : pouvoir calorifique des combustibles

12

La crise pétrolière

La combustion par l’oxygène de l’air des combustibles contenant de l’hydrogène − ce qui est le cas de tous les combustibles carbonés courants, combustibles fossiles et biomasse − produit de l’eau qui, en se vaporisant, emmène sa chaleur de vaporisation. C’est pourquoi l’on distingue pour un combustible carboné son pouvoir calorifique inférieur (PCI), pour lequel cette chaleur est supposée n’être pas récupérée, et son pouvoir calorifique supérieur (PCS), qui inclut cette chaleur de vaporisation. Cette dernière est par exemple récupérée dans ce que l’on appelle les chaudières à condensation.

Sommaire

Avant-propos ...............................................................................

7

Unités et équivalences énergétiques utilisées ............................

9

Introduction .................................................................................

15

PREMIÈRE PARTIE Le pétrole : pourquoi la crise ? ..................

17

Le pétrole, qu’est-ce que c’est ? .................................................

19

Le pétrole, de quoi est-il fait ?................................................. Où trouve-t-on le pétrole ? ...................................................... Comment se forme le pétrole ?................................................ Comment trouve-t-on le pétrole ?............................................ Le pétrole, qu’en fait-on ? ....................................................... Le pétrole est-il dangereux ? ................................................... Pourquoi la crise ?.......................................................................

19 26 35 45 48 51 57

Le pétrole et le gaz, qui les produit et qui les consomme ?..... Comment les prix du pétrole sont-ils établis et pourquoi varient-ils autant ?............................................ Que sait-on des réserves de pétrole et de gaz ? ....................... Vers le troisième choc pétrolier ? ............................................ DEUXIÈME PARTIE La crise du pétrole : qu’y pouvons-nous ?

57 62 73 90 105

Que peut-on faire pour les transports ? ....................................

107

Qu’attendre des économies de carburants ? ............................ Qu’attendre des carburants alternatifs ? .................................. Qu’attendre des véhicules alternatifs ?.................................... Que conclure pour les transports ? ..........................................

111 116 159 169

14

La crise pétrolière

Que peut-on faire pour le secteur résidentiel et le secteur tertiaire ? ................................................................

177

Qu’attendre des nouveaux modes de construction ? ............... Qu’attendre des moyens de produire de la chaleur autres que le fuel et le gaz ?........................... Que conclure pour le secteur résidentiel et le secteur tertiaire ? ......................................................... Conclusion ...................................................................................

181

258 260

Lectures d’approfondissement ..................................................

273

Index.............................................................................................

277

187

Introduction

Le pétrole représente aujourd’hui 38 % de l’énergie primaire utilisée dans le monde, et son cousin le gaz naturel 22 %. C’est la disponibilité d’énergie sous forme d’un pétrole peu coûteux qui, en permettant un accroissement sans précédent des richesses matérielles à se partager, fut pour une large part à la source du développement économique, mais aussi des avancées sociales, que les pays industriels ont connu après la Seconde Guerre mondiale. Les citoyens de ces pays en ont pris tellement l’habitude qu’ils ne réalisent pas ce qu’ils lui doivent, et mesurent très mal l’importance des effets qu’aurait sur leur vie quotidienne un manque de pétrole. Au contraire, dans une attitude que l’on pourrait qualifier de freudienne, beaucoup n’ont pas de mots assez durs pour qualifier les compagnies pétrolières, qui pourtant les ont jusqu’à présent fidèlement approvisionnés. Mais le prix du pétrole vient de flamber, la pénurie est annoncée, et l’inquiétude pour l’avenir s’installe. En France comme dans bien d’autres pays très consommateurs, les conséquences économiques de l’augmentation brutale de son prix ont été très visibles : retour de l’inflation, déséquilibre de la balance commerciale, difficultés accrues pour les personnes ayant de faibles revenus, mais aussi pour les professions très consommatrices et les personnes habitant loin de leur lieu de travail et des services indispensables. Et si la crise économique en cours permet de faire une pause, ce n’est vraisemblablement qu’un recul provisoire ! Pourquoi cette crise pétrolière et comment peut-on y faire face ? Cet ouvrage se propose de l’expliquer à ceux dont le pétrole n’est pas un sujet familier d’étude. La première partie de cet ouvrage décrit tout d’abord ce qu’est le pétrole, quelle est sa composition et comment il se forme. On y étudie également ses relations avec son cousin, le gaz naturel. Car c’est des modes de gisement et des propriétés du pétrole et du gaz que dépend tout le reste : ressources, utilisations, possibilités de remplacement. On y analyse ensuite les principaux

16

La crise pétrolière

éléments de la crise en cours, en montrant comment la soif de pétrole des « pays émergents », mais aussi des grands pays producteurs, les limites physiques des possibilités de production, mais également la difficulté qu’auront les consommateurs des pays industrialisés à modifier leur mode de vie, risquent d’entraîner d’ici peu, si nous ne réagissons pas, un troisième choc pétrolier, plus important et beaucoup plus durable que les chocs précédents de 1973 et 1979. La deuxième partie détaille les moyens qui peuvent être mis en œuvre pour remédier à cette crise et évalue leurs chances de succès. L’accent est mis sur les transports et l’habitat. En effet, ces deux secteurs économiques sont responsables de l’essentiel de notre consommation actuelle de pétrole et de gaz. Mais ce sont aussi les secteurs où la responsabilité personnelle de chacun d’entre nous est la plus engagée, et pour lesquels la volonté personnelle des consommateurs-citoyens que nous sommes permettrait de diminuer le plus notre consommation. Cette crise va être profonde et cela d’autant plus que s’y ajoute le lancinant problème du réchauffement climatique. Il faudra beaucoup d’imagination créative pour la résoudre. Son issue dépendra pour beaucoup des capacités d’adaptation des consommateurs des pays riches, et dans un premier temps de la modération dont ils accepteront de faire preuve pour laisser le temps nécessaire à la mise en place de technologies alternatives, mais aussi de nouveaux modes de vie, plus sobres en énergie et plus respectueux de notre planète. La grande difficulté sera d’adapter suffisamment vite notre rythme de consommation aux rythmes possibles de la production du pétrole et de ses éventuels substituts. Notre pays, comme bien d’autres pays industriels, va avoir de grandes difficultés à s’adapter. Mais sa situation n’est pas la plus mauvaise, essentiellement parce qu’une bonne partie de son approvisionnement énergétique est d’origine nucléaire et ne dépend donc pas du pétrole et du gaz. Peut-être, en effet, nous sera-t-il possible d’utiliser un jour beaucoup plus largement l’électricité nucléaire dans les transports, secteur économique qui aura le plus à souffrir d’une crise pétrolière.

PREMIÈRE PARTIE

Le pétrole : pourquoi la crise ?

This page intentionally left blank

1

Le pétrole, qu’est-ce que c’est ?

1. Le pétrole, de quoi est-il fait ? Le pétrole extrait des gisements de pétrole est appelé par les professionnels huile, pétrole brut ou plus familièrement brut (oil, crude oil ou crude en anglais, la langue des pétroliers). Le pétrole brut a une composition qui peut varier largement d’un gisement à l’autre, et aussi à l’intérieur d’un même gisement, même si l’on y retrouve toujours les mêmes familles de constituants. En ce sens on peut dire qu’il n’y a pas un, mais des pétroles : les pétroles les plus courants sont des liquides de consistance huileuse, moins denses que l’eau, parfois limpides mais le plus souvent de couleur brun clair ou rougeâtre à brun foncé ou noir. Leur viscosité varie à peu près de celle de l’eau à celle du miel liquide. Leur densité varie de 0,6 à 0,9. Le cousin du pétrole brut est le gaz naturel. Celui-ci a dans la plupart des cas (on verra plus loin les exceptions) la même origine que lui. Dans les conditions du sous-sol, il se présente le plus souvent non pas à l’état gazeux, mais dissous dans le pétrole, ou sous forme d’une phase comprimée aux propriétés physiques d’un liquide, dont la densité varie de 0,2 à 0,4 environ selon sa composition. Certaines variétés de pétrole, les huiles extralourdes et les asphaltes (appelés aussi bitumes) sont à température ordinaire des liquides très visqueux. Leur viscosité, qui varie à peu près entre celle du miel liquide et celle du miel solide, diminue rapidement avec la température. Certains asphaltes sont même des solides cassants de couleur noire, dont la densité peut arriver à dépasser 1. Ces pétroles font partie de ce que l’on appelle les pétroles non-conventionnels, ou encore pétroles non-classiques, par opposition aux précédents. Cette appellation provient de ce qu’il faut pour les extraire des techniques plus complexes que pour les pétroles conventionnels (classiques). Mais avec l’évolution des technologies, la frontière entre les deux devient de plus en plus artificielle. La véritable frontière se situe maintenant entre les gisements dont on ne peut extraire le pétrole que par forage et ceux qui peuvent être exploités en carrières. Ces derniers sont les gisements de bitumes, ou les parties de ces gisements,

20

La crise pétrolière

situés à terre à une profondeur inférieure à 100 m environ : ils ne contiennent qu’une faible partie des réserves mondiales.

Figure 1.1 : Exemples de molécules d’hydrocarbures trouvées dans le pétrole et le gaz naturel. Les hydrocarbures sont des molécules composées uniquement de carbone et d’hydrogène. Le plus simple d’entre eux est le méthane, qui contient 1 atome de carbone et 4 atomes d’hydrogène. C’est le constituant principal du gaz naturel. On le note CH4. Le nombre d’agencements possibles entre le carbone et l’hydrogène croît très vite avec le nombre d’atomes de carbone. Sont représentés ici les principaux hydrocarbures présents dans le gaz naturel (encadré) : méthane (CH4), éthane (C2H6), propane (C3H8) et quelques hydrocarbures des pétroles.

Bernard Durand

21

Légende figure 1.1 (suite) On ne trouve pour l’essentiel dans les pétroles que trois familles structurales d’hydrocarbures parmi les différentes familles structurales possibles : – les hydrocarbures saturés linéaires, aussi appelés alcanes, hydrocarbures paraffiniques ou encore paraffines ; ils sont à chaîne droite (n-alcanes) ou branchée (isoalcanes). Les isoprènoïdes sont des isoalcanes dont la structure particulière, un branchement CH3 tous les 4 atomes de carbone, est héritée de molécules biologiques (voir figure 1.15) ; – les hydrocarbures saturés cycliques contenant au moins un cycle saturé avec ou sans chaînes droites ou ramifiées, appelés cycloalcanes, cyclanes ou encore naphtènes, dont les plus simples sont le cyclopentane(C 5H10) et le cyclohexane (C6H12) ; – les hydrocarbures possédant au moins un cycle benzénique avec ou sans chaînes et cycles saturés, appelés hydrocarbures aromatiques. Par simplification, on ne représente pas les atomes d’hydrogène, car on peut en retrouver facilement la position et le nombre sachant qu’un atome de carbone a toujours 4 liaisons avec les atomes de carbone ou d’hydrogène voisins, comme il est montré dans le cas du n-octane (C8H18). Il faut toutefois se rappeler qu’une liaison carbone-carbone dans un cycle aromatique (benzénique) doit être comptée une fois sur deux comme une double liaison, comme il est montré dans le cas du benzène, le plus simple des hydrocarbures aromatiques, de formule C6H6. La plupart des pétroles bruts contiennent une très forte proportion d’hydrocarbures. Ceux-ci sont des molécules composées uniquement d’atomes de carbone et d’atomes d’hydrogène (figure 1.1). La taille de ces molécules est très variable : leur nombre d’atomes de carbone est compris entre 4 et environ 40, et elles contiennent en moyenne un peu moins de deux atomes d’hydrogène par atome de carbone. Par le jeu des myriades de combinaisons possibles du carbone et de l’hydrogène, le nombre de molécules différentes pouvant exister dans ces hydrocarbures est de l’ordre des milliards ! Mais les pétroles contiennent aussi des molécules qui ne sont pas des hydrocarbures. Elles sont dites molécules hétéroatomiques ou encore NSO parce qu’elles contiennent non seulement du carbone et de l’hydrogène mais aussi de l’azote, du soufre et de l’oxygène ainsi que d’autres éléments moins fréquents. Certaines peuvent être de très petite taille et volatiles : elles sont alors des thiols (appelés aussi mercaptans), des phénols, ou des furanes1... Ce sont 1 Un thiol est une molécule contenant un groupement SH attaché à un atome de carbone. Un phénol est une molécule contenant un groupement OH attaché à un cycle aromatique (benzénique). Un furane est une molécule où un atome d’oxygène remplace un carbone dans un cycle aromatique.

22

La crise pétrolière

celles qui donnent leur odeur aux pétroles : la plupart des gens la jugent nauséabonde, mais elle est agréable au nez d’un professionnel endurci. La plupart de ces molécules hétéroatomiques sont toutefois de très grande taille et on les appelle alors résines et asphaltènes (figure 1.2). Certaines, appelées porphyrines, contiennent du vanadium et du nickel.

Figure 1.2. Résines et asphaltènes. Ce sont des molécules de très grande taille qui contiennent des hétéroéléments, essentiellement oxygène, soufre, azote. Les asphaltènes sont maintenues en pseudosolution dans le pétrole grâce aux résines qui font un « liant » entre elles et les hydrocarbures (a). Il est facile de faire précipiter les asphaltènes en ajoutant des hydrocarbures légers, hexane (C 6H14) par exemple, à une petite quantité de pétrole brut (b). Les molécules d’asphaltènes s’agglomèrent alors puis précipitent sous forme de particules noires. La composition moyenne d’un pétrole brut de qualité courante est celle indiquée sur la figure 1.3. Il est composé pour à peu près 60 % d’hydrocarbures saturés, pour 25 % d’hydrocarbures aromatiques et pour 15 % de résines et d’asphaltènes. Sa densité est de 0,85.

Bernard Durand

23

Figure 1.3. Proportions des différentes familles des principaux composés chimiques que l’on trouve dans un pétrole brut courant et exemples de molécules appartenant à ces familles. Le nombre d’atomes de carbone est indiqué à côté de leur structure. Les résines et les asphaltènes sont beaucoup trop complexes pour en faire l’analyse détaillée.

Mais les variations de composition peuvent être importantes d’un gisement à l’autre, et même souvent à l’intérieur d’un même gisement, en fonction de la variété des structures chimiques de ses molécules d’hydrocarbures mais aussi de la proportion de résines et d’asphaltènes qu’il contient (tableau 1.1). Tableau 1.1. Les grandes catégories de pétrole. Couleur

Apellation

Densité

% rés. et asph.

Pétrole léger

0,75

5

Pétrole courant

0,85

15

Noir

Huile lourde

0,95

25

Noir

Huile extralourde

1

35

Noir

Asphalte (bitume)

1,1

50

Transparent à brun clair Rougeâtre à noir

24

La crise pétrolière

Les résines et les asphaltènes, qui contiennent des hétéroéléments, sont de ce fait relativement moins riches en hydrogène que les hydrocarbures, et le rapport du nombre d’atomes d’hydrogènes au nombre d’atomes de carbone (rapport atomique H/C) dans un pétrole est donc d’environ 1,9 à 2. En première approximation, on considère que la formule chimique globale d’un pétrole courant, qui est essentiellement constitué d’hydrocarbures, est CH2. Pour un asphalte, le rapport atomique H/C est d’environ 1,5. Les proportions totales en poids des hétéroéléments, azote, soufre et oxygène, peuvent atteindre 10 %, avec de larges variations toutefois selon les origines. Il contient aussi quelques centaines de ppm (partie pour million) en poids de vanadium et de nickel. Ce déficit en hydrogène, cette forte teneur en hétéroéléments et sa forte viscosité, proche de celle d’un bitume routier, en font un produit beaucoup moins intéressant qu’un pétrole courant pour les raffineurs. Les molécules constitutives du pétrole sont insolubles dans l’eau, exception faite de quelques-unes des plus légères qui le sont un peu, le benzène (C6H6) en particulier. Eau et pétrole sont donc immiscibles. Les gisements de gaz naturel contiennent très souvent, en plus d’hydrocarbures de faible poids moléculaire, méthane (CH4), éthane (C2H6) et propane (C3H8), des quantités qui peuvent être très importantes d’azote (N2), de gaz carbonique (CO2), et d’hydrogène sulfuré (H2S) (tableau 1.2). Ils contiennent aussi parfois de petites quantités d’hélium qui provient de la désintégration des éléments radioactifs de la croûte terrestre: 90 % de l’hélium utilisé dans le monde provient actuellement du gisement de gaz géant de Hugoton près d’Amarillo au Texas. On commence actuellement à se préoccuper de l’épuisement de ces réserves d’hélium, car celui-ci a de nombreuses utilisations. Quelques petits gisements contiennent aussi un peu d’hydrogène. Ils peuvent également contenir des traces de composés organiques de mercure ou d’arsenic. Pétrole et gaz naturel sont largement solubles l’un dans l’autre, en fonction de leur composition et cela d’autant plus que la température et la pression sont élevées. Cela explique que de nombreux gisements de gaz naturel, comme on le verra plus loin, contiennent à l’état dissous des quantités parfois importantes d’hydrocarbures liquides. Inversement, de nombreux gisements de pétrole contiennent du gaz à l’état dissous.

Bernard Durand

25

Tableau 1.2. Composition de gaz naturels de différentes origines. (D’après Sokolov, 1974 et B. Durand in Rojey et al., 1994.) Gisements Kane (Ca, États-Unis)

Âge

CH4 C2-C6 CO2

Cénozoïque 99,30 0,40



N2

H2

H2S He

0,10

0,10



0,15

Sweetwater (Wyoming, Carbonifère 75,60 1,30 États-Unis)

2,70 20,20





0,75

Newago (Michigan, États-Unis)

0,40 12,40





1,10

Spence (In, États-Unis) Carbonifère 91,00 4,30

0,10

3,60





0,14

Bassin de Transylvanie (Roumanie)

Miocène

98-99 0,30

0,50

1-2







Kreesegopan (Hongrie)

Miocène

42-47

45-83

3-5

0,90





Carbonifère 85,50 1,50



Permien/ 81,30 3,50 Slochteren (Pays-Bas) Carbonifère

0,80 14,40







Lacq (France)

9,00



15,0



Permien/ jusq. jusq. jusq. jusq. Carbonifère 95,00 0,3-12 60,00 99,00 70,00 0-8



Plaine d’Allemagne du Nord

Jurassique 74,00 2,00



Curnato, Sakada et autres gisements de gaz Quaternaire 42-98 0,10 0,5-4,5 4-53 du Japon Angleterre orientale

Permien/ Carbonifère 90,00



Toulmazy (Volga-Oural, CEI) Sukovka (Sub-Caucase occcid., CEI)







10,00







1,60

4,20







Permien/ Carbonifère 82,10 0,30 10,30 6,80







39,50 49,80 0,10 10,60







76,00 17,00 5,00

1,00







Permien/ 92,50 1,70 Weedhorf (Allemagne) Carbonifère Haden (Allemagne)



Dévonien Crétacé

Plaine du Pô (Italie)

Pliocène supérieur

99,00 1,00











Plaine du Pô (Italie)

Miocène

90,0

jusq. 8,00











Hassi R’Mel (Algérie)

Trias

80,00 15,00



5,00







Píauti (Birmanie)

Trias

88,10 2,60

0,70

3,00





3.10–3

Ourengoï (Sibérie occid., CEI)

Crétacé

98,50 0,10

0,20

1,10





0,01

26

La crise pétrolière

2. Où trouve-t-on le pétrole ? On extrait le pétrole des pores et des fissures de roches sédimentaires de forte perméabilité que l’on appelle roches-réservoirs ou réservoirs (figure 1.4). Il s’agit surtout de grès et de calcaires fissurés ou alvéolaires. Leurs pores ne sont généralement visibles qu’au microscope (figure 1.5).

Figure 1.4. Carotte imprégnée de pétrole prélevée dans un réservoir gréseux. (Courtoisie société Total et C. Laffont.) Ne sont qualifiés de gisements de pétrole (de gaz) ou champs de pétrole (de gaz) que les réservoirs suffisamment vastes pour que le pétrole (le gaz) qu’ils contiennent soit économiquement exploitable. Certains peuvent être gigantesques : le plus grand gisement du monde, Ghawar en Arabie Saoudite, a une surface au sol d’un peu plus de 5000 km2. Les roches-réservoirs font partie d’ensembles de couches empilées de roches sédimentaires que l’on trouve dans les bassins sédimentaires. Ceux-ci ont des dimensions très variables et certains sont très vastes : le bassin de Sibérie occidentale en Russie couvre une surface de plus de 1 million de km2. Le plus vaste bassin français est le bassin de Paris, dont la surface est de 150 000 km2 environ.

2.1. Naissance, vie et mort d’un bassin sédimentaire Un bassin sédimentaire commence par être une large dépression de l’écorce terrestre que les eaux envahissent progressivement. La dépression se crée, puis

Bernard Durand

27

1 mm

Figure 1.5. Lame mince d’une roche-réservoir gréseuse vue au microscope. Le pétrole contenu est ici un asphalte (bitume), qui apparaît en noir. Les plages gris foncé sont de la résine synthétique injectée dans la roche avant examen pour maintenir sa cohésion lors de la taille de la lame mince et de son polissage. Les grains minéraux sont pour l’essentiel des grains de quartz. (Courtoisie C. Laffont, Institut français du pétrole.) s’approfondit très lentement sous l’effet des mouvements tectoniques qui déforment l’écorce terrestre au cours des temps géologiques. S’y accumulent des minéraux provenant de l’érosion des terres émergées, ou de la précipitation de sel, de gypse ou de carbonates…, ainsi que des débris organiques provenant des sols terrestres ou plus souvent d’organismes vivant dans le milieu de sédimentation (restes de microorganismes, pelotes fécales...). La nature et le lieu de dépôt de ces sédiments varient au cours du temps, en fonction de la nature des roches érodées mais aussi de la distance à la côte, de la puissance des fleuves ou des vents qui les apportent, ainsi que des transformations biologiques ou physicochimiques au cours du transport et dans le milieu de sédimentation. Il en résulte un empilement de couches de sédiments de nature différente que l’on appelle une série sédimentaire (figure 1.6). Les sédiments déjà déposés sont compactés puis lithifiés (transformés en pierre) par la pression qu’exercent sur eux le poids des sédiments qui se déposent au-dessus, et les transformations minéralogiques. L’épaisseur de ces séries dépasse rarement 5 km, mais peut atteindre 20 km, comme par exemple actuellement dans le bassin Sud de la mer Caspienne. La durée de leur formation se compte en dizaines ou en centaines de millions d’années.

28

La crise pétrolière

Les phénomènes tectoniques finissent un jour par faire remonter très lentement à la surface les sédiments ayant été déposés. C’est ce qu’on appelle une inversion tectonique. La mer est alors chassée du bassin et la sédimentation s’interrompt. Le bassin devient un bassin fossile, comme le sont par exemple en France le bassin de Paris et le bassin d’Aquitaine. Les sédiments ainsi amenés à la surface sont érodés et les produits de cette érosion sont entraînés par les rivières vers les bassins actifs. Les bassins sédimentaires où l’on trouve actuellement du pétrole, du fait de la très grande durée des phénomènes de formation du pétrole, sont presque tous des bassins fossiles, même s’ils se trouvent assez souvent en mer parce qu’ils ont été à nouveau recouverts par les eaux sous l’effet de nouveaux cycles tectoniques.

Figure 1.6. Exemple de bassin sédimentaire contenant des gisements de pétrole et de gaz. Les flèches 1, 2 et 3 indiquent les directions du déplacement du pétrole depuis la roche dont ils sont issus (roche-mère) jusqu’au réservoir qui les contient. Les zones de diagénèse, catagenèse et métagenèse correspondent aux stades successifs de la formation du pétrole. (D’après un sketch de G. Bessereau, Institut français du pétrole, à partir de l’exemple du Graben de Viking en mer du Nord.) Note : Un graben est un fossé d’effondrement résultant d’un étirement de la croûte terrestre, comme par exemple le fossé alsacien entre Vosges et Forêt Noire. (B. Durand dans Rojey et al., 1994).

Bernard Durand

29

Le pétrole est très souvent associé dans ces gisements à du gaz naturel, qui se trouve soit à l’état dissous dans le pétrole (c’est ce qu’on appelle du gaz associé) soit sous forme d’une phase séparée que l’on appelle gaz associé libre, gaz de couverture, ou plus souvent chez les pétroliers gas-cap (littéralement « chapeau de gaz » ; figures 1.6 et 1.7). Celui-ci est moins dense que le pétrole et par conséquent le surmonte dans la roche-réservoir. Sous l’effet de la pression qui règne à ces profondeurs, le gas-cap est le plus souvent une phase comprimée ayant les propriétés d’un liquide, de densité nettement plus faible (0,2 à 0,4) que le pétrole qu’il surmonte, mais la plupart des hydrocarbures qu’il contient passent à l’état gazeux une fois à la surface. Pour mieux comprendre ce phénomène, on se référera par analogie au butane des bouteilles à usage domestique : bien que le butane soit un gaz dans les conditions atmosphériques, il est à l’état liquide dans ces bouteilles parce qu’il s’y trouve sous une pression bien supérieure à la pression atmosphérique. Mais il existe aussi de nombreux gisements de gaz non associés à un gisement de pétrole. Le plus courant des hydrocarbures du gaz naturel est le plus simple d’entre eux, le méthane (CH4), mais l’éthane (C2H6), le propane (C3H8) et le butane (C4H10) sont fréquents (voir le tableau 1.2). Le gaz naturel contient aussi souvent, comme on l’a vu, de l’azote (N2), du gaz carbonique (CO2) ou de l’hydrogène sulfuré (H2S) en proportions importantes. Les gas-caps contiennent aussi très souvent du pétrole dissous, c’est-à-dire des hydrocarbures dont le nombre de carbones est au moins égal à 5 (ce que l’on note C5+). Ils sont inclus, ainsi que le propane et le butane sous forme liquéfiée, dans ce que l’on appelle les liquides de gaz naturel (LGN), en anglais Natural Gas Liquids (NGL). Le pétrole, si sa densité est inférieure à 1, ce qui est le cas général, repose sur une phase eau contenue dans la partie inférieure de la roche contenant le gisement. Cette partie de la roche qui contient l’eau est appelée aquifère (figure 1.7). Nous verrons plus loin que le pétrole et le gaz naturel ne se sont pas formés dans les gisements où on les trouve, mais dans des roches qui peuvent se trouver à des distances considérables de ces gisements. Ils s’accumulent dans des structures particulières du sous-sol que l’on appelle des pièges. Ceux-ci sont formés du réservoir, roche poreuse et perméable qui contient le gisement, et d’une roche imperméable (argile, sel, anhydrite…) située au-dessus, que l’on appelle couverture. Cette couverture empêche le pétrole, qui est en général moins dense que l’eau et insoluble dans celle-ci, de progresser vers la surface sous l’effet de la poussée d’Archimède. Le piège le plus classique est une

30

La crise pétrolière

Figure 1.7. Les différents modes d’association de l’huile et du gaz dans un gisement. 1– Huile sans gaz. 2– Huile sous-saturée en gaz. 3– Huile saturée en gaz et gas-cap. 4– Gaz saturé en huile et anneau d’huile. 5– Gaz sous-saturé en huile. 6– Gaz sec (sans huile). Le gaz dissous dans l’huile est appelé gaz associé ; le pétrole (huile) dissous dans le gaz est appelé LGN (liquides de gaz naturel). (D’après B. Durand in Rojey et al., 1994.) structure anticlinale, comme représenté sur la figure 1.7, mais il existe une très grande variété de structures de pièges (figure 1.8). Certains sont si efficaces qu’ils peuvent conserver le pétrole et même le gaz qu’ils contiennent pendant des millions d’années. S’il n’existe pas de pièges suffisants dans un bassin sédimentaire pour recueillir tout le pétrole et le gaz qui s’y forment, ceux-ci se déplacent vers la surface, où ils se dissipent lentement.

Bernard Durand

31

Figure 1.8. Quelques types de piège. a– Anticlinal ; b– Fermeture sur faille ; c– Piégeage sous dôme de sel (note : le sel ,roche plastique, moins dense que les roches qui le surmontent, se déforme et monte très lentement vers la surface en perçant ces roches, créant ainsi des pièges) ; d– Biseau stratigraphique ; e– Piège sous discordance ; f– Récif calcaire. Aucune échelle n’est indiquée, ces pièges ayant des dimensions très variables. (D’après B. Durand in Rojey et al., 1994 ; Perrodon, 1989, et Centre canadien d’information sur l’énergie, 2001.) On appelle province pétrolière un ensemble géographique où existent un ou plusieurs bassins pétrolifères ayant des caractéristiques géologiques semblables, ainsi que les mêmes modes de gisement du pétrole. Quand le gaz domine, on parle de province gazière. Les dimensions des provinces pétrolières et gazières sont très variables. Elles sont parfois à cheval sur plusieurs pays. Les grands gisements de pétrole conventionnel se trouvent principalement au Moyen-Orient (figure 1.9). Les huiles extralourdes se trouvent surtout au Venezuela dans ce que l’on appelle la ceinture bitumineuse de l’Orénoque. Il s’agit de gisements situés à quelques centaines de mètres de profondeur, qui fuient très lentement vers la

32

La crise pétrolière

surface. Leur partie la moins profonde, où se trouvent les huiles extralourdes, a été altérée par la circulation d’eaux météoriques qui y ont amené de l’oxygène et des bactéries « mangeuses de pétrole ». Les gisements de grès imprégnés d’asphalte appelés sables asphaltiques (en anglais tar sands), ou encore sables bitumineux, se trouvent essentiellement dans la province de l’Athabasca au Canada (Athabasca tar sands). Ce sont les restes d’anciens gisements de pétrole portés à la surface, altérés par les eaux de surface, d’où les hydrocarbures les plus légers se sont évaporés, en laissant derrière eux les résines et les asphaltènes. Une bonne partie des hydrocarbures plus lourds ont été oxydés par l’oxygène contenu dans les eaux de surface et se sont transformés en goudrons. Il s’agit d’une étape d’altération encore plus poussée que celle des huiles extralourdes du Venezuela. La partie la plus superficielle de ces gisements, soit au mieux 10 % des quantités en place, peut être exploitée en carrière avec un taux de récupération élevé. Le taux de récupération est beaucoup plus faible dans les parties profondes, qui ne peuvent être exploitées que par forages et par réchauffement à la vapeur d’eau pour en diminuer la viscosité et en permettre le pompage. Les quantités d’huiles extralourdes en place dans les gisements du Venezuela et d’asphaltes en place dans les gisements du Canada sont énormes, comparables aux quantités de pétrole conventionnel initialement en place dans les gisements du Moyen-Orient. Toutefois, les quantités que l’on peut espérer en récupérer sont bien plus faibles qu’au Moyen-Orient, et les techniques utilisées pour les extraire et les raffiner sont très consommatrices d’énergie. Cela, combiné à leur forte teneur en hétéroéléments et à leur très forte viscosité, en amoindrit considérablement l’intérêt. Les gisements de gaz conventionnel (classique) les plus importants se trouvent en Russie, en Iran et au Qatar. Comme pour le pétrole, il existe des gisements de gaz non conventionnel : gaz contenu dans les veines de charbon profondes, exploité en particulier aux États-Unis sous le nom de coal bed methane (CBM), gaz contenu dans des grès de très faible perméabilité (tights-sands), très abondant en particulier au Canada au pied des montagnes Rocheuses, côté Est, gaz d’aquifères profonds, comme par exemple en Louisiane aux États-Unis… Mais cela ne représente qu’une faible partie des réserves mondiales. On verra aussi qu’il existe du gaz sous forme d’hydrates de méthane, appelés aussi glaces de méthane, dans les zones de pergélisols ou au pied des talus continentaux. Mais ils sont dispersés dans les sédiments et on ne sait pas actuellement les exploiter.

Bernard Durand

33

Figure 1.9. Localisation des principaux gisements de pétrole et de gaz. (Courtoisie Y. Mathieu, Institut français du pétrole.) En noir : principaux gisements de pétrole et de gaz. En gris foncé : régions des bassins sédimentaires où il existe encore un potentiel de découverte, à terre (onshore). En gris clair : régions des bassins sédimentaires où il existe encore un potentiel de découverte en mer (offshore). La principale région pétrolière du monde est le Moyen-Orient (1), qui concentre les deux tiers des réserves pétrolières conventionnelles restant actuellement. Les principaux pays producteurs de cette région, par ordre d’importance décroissante de leurs réserves restantes, sont l’Arabie saoudite, l’Iran, l’Irak, le Koweït, les Émirats arabes unis, l’Oman et le Yémen. On y trouve sept des dix gisements ayant les plus grandes réserves restantes : Ghawhar en Arabie Saoudite, Greater Burgan au Koweït, Safanya en Arabie saoudite, Ahwaz en Iran, Rumaila en Irak, Zakum aux Émirats arabes unis, Shaybah en Arabie saoudite, qui produisent à eux seuls 14 % de la production mondiale actuelle de pétrole ! La principale province pétrolière d’Europe est la mer du Nord (2) entre la Norvège et l’Angleterre, maintenant en voie d’épuisement rapide. Le Canada (sables bitumineux de l’Athabasca (3)) et le Venezuela (ceinture bitumineuse de l’Orénoque (4)) possèdent les plus grandes réserves de pétrole non conventionnel. La Russie, surtout en Sibérie Occidentale (5), l’Iran dans le Zagros et dans le golfe Persique, et le Qatar dans le golfe Persique, possèdent les plus grandes réserves de gaz.

34

La crise pétrolière

Légende figure 1.9 (suite) Les dix plus grands gisements de gaz sont North Dome, à cheval entre le Qatar et l’Iran, Urengoy et Yamburg en Russie, Hassi R’mel en Algérie, Bovanenkov en Russie, Groningen aux Pays-Bas, Zaporlyarnoye en Russie, Rag-E-Safid en Iran, Astrakhan en Russie et Karachaganak au Kazakhstan. Il existe des roches appelées schistes bitumineux (voir plus loin) à partir desquels on peut produire artificiellement, par chauffage à haute température dans des fours en l’absence d’oxygène, de l’huile de schistes. Les États-Unis, avec les Green River Shales (6) possèdent les plus grands gisements de schistes bitumineux. Les hydrates de gaz se trouvent dans les pergélisols du Canada et de Russie, mais les plus grandes réserves se trouvent en mer près des côtes au pied des pentes continentales, plus particulièrement en Amérique du Nord et en Russie (figure 1.10). Très difficiles à produire et se trouvant à l’état trop dispersé dans les sédiments, il est très douteux qu’ils puissent un jour être récupérés 2. L’origine du gaz qu’ils contiennent peut être une fuite à la surface de gaz thermique formé à grande profondeur par cuisson de kérogène (voir plus loin), mais en général il s’agit de gaz bactérien formé naturellement par des bactéries par un processus identique à celui utilisé pour faire du biogaz dans les fermenteurs agricoles, à partir de substances organiques dissoutes dans l’eau des sédiments marins récents ou des sols ennoyés.

2

Pour expliquer cette situation, qui est très mal comprise par les non-spécialistes, faisons la comparaison avec les roches-mères de pétrole, que l’on décrit plus loin au paragraphe 1.3 « Comment se forme le pétrole ? ». Celles-ci contiennent, finement disséminés dans une matrice rocheuse imperméable, du pétrole et du gaz totalement inexploitables, appelés micropétrole. On ne peut exploiter le pétrole et le gaz que dans les roches poreuses et perméables où ils se stockent éventuellement au cours de leur migration. Les hydrates de gaz disséminés dans les sédiments se comparent au micropétrole des roches-mères. Dans leur cas, malheureusement, il s’agit de sédiments récents qui ne sont pas encore surmontés de roches poreuses et perméables susceptibles de le stocker, à l’exception de quelques lentilles sableuses de petites dimensions.

Bernard Durand

35

Figure 1.10. Localisation des gisements d’hydrates de gaz. En noir les gisements identifiés, en blanc les gisements probables. (D’après K. Kvenvolden, USGS.)

3. Comment se forme le pétrole ? Le pétrole provient de la transformation naturelle de débris organiques microscopiques accumulés dans certains sédiments argileux ou sédiments marneux. Ces débris proviennent essentiellement de restes de plancton végétal (phytoplancton) marin ou lacustre, de bactéries et de pelotes fécales. Y contribuent également, en quantités relatives très variables selon l’importance locale des apports en provenance du continent voisin, des restes de végétaux supérieurs et de sols terrestres amenés par les fleuves. Contrairement à une opinion fort répandue, le monde animal contribue assez peu à cette accumulation de débris organiques, et plutôt par les pelotes fécales que par les restes d’organismes. En effet les animaux ne constituent qu’une faible partie de la biomasse totale, qui est constituée à 90 % de végétaux inférieurs (algues unicellulaires, bactéries) et de végétaux supérieurs (arbres, plantes herbacées). Ces débris organiques ont été plus ou moins profondément remaniés et transformés par des microorganismes au cours du dépôt des sédiments au fond des océans, des mers et des lacs. Leur ensemble dans le sédiment est appelé kérogène (figure 1.11).

36

La crise pétrolière

Figure 1.11. Le kérogène, matière première de la formation du pétrole. Sur cette figure est visualisé en noir, grâce à une technique de microscopie électronique dite par électrons rétrodiffusés, le kérogène contenu dans une roche qui est à l’origine de la plus grande partie du pétrole trouvé en mer du Nord. La matière organique est ici constituée d’amas, de lamines, ainsi que de particules très fines et de quelques particules plus grossières. Le débris organique central sur la photo de gauche a une longueur d’un dixième de millimètre environ, ce qui donne l’échelle de ces micrographies. Le tout est dispersé dans une matrice minérale contenant surtout des argiles (en gris clair). La teneur en kérogène est de 3 à 4 % en poids de la roche pour le faciès de gauche et de 25 %, ce qui est une teneur exceptionnellement élevée, pour le faciès de droite. Comme pour toutes les roches à kérogène, la taille des éléments minéraux est beaucoup plus faible que celle des minéraux des roches réservoirs comme le montre la comparaison avec la figure 1.5. Contrairement aux roches-réservoirs, les roches à kérogène ont donc une perméabilité aux liquides extrêmement faible. (D’après S. Belin, 1992, thèse, université d’Orsay.) L’approfondissement des bassins sédimentaires provoque l’enfouissement progressif, extrêmement lent à l’échelle humaine (la vitesse d’enfouissement moyenne des sédiments qui remplissent actuellement le bassin de Paris dans sa partie centrale a été de l’ordre du millimètre par siècle), des sédiments à kérogène jusqu’à des profondeurs pouvant atteindre quelques milliers de mètres. Il en résulte une augmentation extrêmement lente de température, à raison de 30 ˚C en moyenne par kilomètre de profondeur (dans le cas du bassin de Paris, cela correspond à environ 0,3 ˚C par million d’années). Dans la plupart des cas, elle ne dépasse pas 150 ˚C, mais dans les bassins très profonds elle peut atteindre 200 ˚C et même plus. Il s’ensuit une cuisson du kérogène dont la durée se compte en dizaines voire en centaines de millions d’années. Cette cuisson commence à provoquer sa très lente transformation en pétrole et en gaz naturel dès que la température dépasse 50 ˚C environ (figure 1.12). Le phénomène s’accélère au fur et à mesure de l’augmentation de température.

Bernard Durand

37

Figure 1.12. Formation du pétrole dans un bassin sédimentaire. Les échelles de temps et d’espace ne sont qu’indicatives, vu la très grande variété des situations : les zones successives de profondeur appelées D, C et M correspondent à la diagenèse, au cours de laquelle le kérogène n’a pas encore formé de pétrole, à la catagenèse, au cours de laquelle se forment de l’huile puis du gaz « humide » (gaz et huile) et à la métagenèse, où ne se forme plus que du gaz « sec », autrement dit essentiellement du méthane (CH4). Les flèches notées 1 correspondent à l’expulsion de pétrole et de gaz hors des roches-mères qui leur ont donné naissance ; les flèches notées 2 à leur cheminement depuis la roche-mère jusqu’aux gisements ; les flèches notées 3 à leur fuite hors des gisements pour gagner d’autres gisements ou la surface. (D’après un sketch de A. Mascle, Institut français du pétrole, sur un exemple en mer du Nord.)

38

La crise pétrolière

Une fois formés dans le sédiment à kérogène, pétrole et gaz sont expulsés par la pression qui règne à ces profondeurs dans des drains naturels (fissures, failles, sédiments perméables...), puis cheminent vers des roches-réservoirs poreuses et perméables (figures 1.4, 1.5 et 1.13) surmontées de roches imperméables, les pièges (figures 1.6, 1.7 et 1.8) où ils s’accumulent pour former des gisements. Ceux-ci peuvent se trouver parfois très loin, jusqu’à 100 km et plus, du sédiment à kérogène qui a donné naissance au pétrole, sédiment que l’on appelle rochemère. Le déplacement de la roche-mère au réservoir est appelé migration. Les pressions qui règnent dans les fluides contenus par les roches-mères au moment de l’expulsion du pétrole et du gaz sont considérables et se situent entre la pression que l’on appelle géostatique, qui correspond à la pression due au poids de la colonne de sédiments située au-dessus, soit de 200 à 250 atmosphères (20 à 25 millions de pascals, MPa) par kilomètre de profondeur, car la densité des sédiments est de l’ordre de 2 à 2,5 et celle de la pression hydrostatique, qui correspond à la pression d’une colonne d’eau de la même hauteur, soit 100 atmosphères (10 MPa) par kilomètre. Elles sont supérieures à celles qui règnent dans les drains, qui sont voisines de la pression hydrostatique, et c’est la différence de pression entre les deux, qui peut donc atteindre 100 à 150 atmosphères (10 à 15 MPa) par kilomètre de profondeur, qui est le moteur de l’expulsion. Quand la profondeur des gisements ainsi formés devient grande, au-delà de 4000 à 5000 m environ, et donc leur température devient élevée, le pétrole qu’ils contiennent se transforme de plus en plus rapidement en gaz sous l’effet de la température. Il est donc improbable de trouver des gisements de pétrole très au-delà de ces profondeurs, sauf situation exceptionnelle, ni même de gisements de gaz. Ce dernier ne reste en effet pas forcément dans le gisement initial parce qu’il a plus de facilités que du pétrole à migrer vers la surface. Il se stocke alors dans les pièges rencontrés sur le trajet de sa migration. Une autre source de gisements de gaz est le gaz produit dans les roches-mères à partir du kérogène restant. La très grande majorité des gisements de pétrole et de gaz connus a été trouvée entre 2000 et 5000 m de profondeur. La profondeur moyenne des gisements de gaz est un peu plus grande que celle des gisements de pétrole. Étant donné la durée de la formation du pétrole, la roche-mère d’un gisement de pétrole s’est déposée évidemment bien avant le réservoir de ce gisement si celui-ci se trouve au-dessus de la roche-mère, ce qui est généralement le cas. À cause de la dérive des continents, la position géographique de ces deux roches au moment de leur dépôt peut avoir été très éloignée de leur position

Bernard Durand

39

Figure 1.13. Réservoirs et roches-mères. Carottes forées dans un réservoir gréseux imprégné de pétrole (à gauche) et dans une roche-mère argileuse (à droite) très riche en kérogène, qui apparaît ici sous forme de lamines noires plus ou moins épaisses. Échelle 1/3 environ. Les évidements dans les roches correspondent à des prélèvements de microcarottes pour des mesures des propriétés pétrophysiques. (Courtoisie C. Laffont.) actuelle. C’est ainsi que la roche-mère du principal gisement de pétrole d’Algérie, le gisement d’Hassi-Messaoud, s’est déposée au Silurien, il y a plus de 400 millions d’années, dans un bassin sédimentaire situé alors environ à l’emplacement de l’actuel Angola, tandis que la couverture de son réservoir, une épaisse couche de sel, s’est déposée au Trias il y a 250 millions d’années dans ce même bassin, alors qu’il se trouvait 3000 km plus au Nord, mais cependant encore 1000 km au Sud de sa position actuelle ! La formation de ce gisement de pétrole a commencé au Crétacé il y a 100 millions d’années et s’est poursuivie jusqu’au milieu du Tertiaire, il y a 30 millions d’années, à peu près à l’emplacement actuel du bassin. Une fois dans un gisement, l’histoire du pétrole n’est pas pour autant terminée. Il peut fuir du gisement pour alimenter des réservoirs situés plus près de la surface (figure 1.12). Il peut aussi être altéré dans son gisement de différentes façons, selon l’histoire géologique de son réservoir postérieurement à son remplissage (figure 1.14). Si le réservoir s’enfouit plus profondément, son

40

La crise pétrolière

contenu est soumis à une température croissante, et le pétrole qu’il contient va se transformer en pétrole plus léger, en gaz et en pyrobitume, comme cela se produit dans une raffinerie quand on procède au craquage d’une charge de pétrole, le pyrobitume étant appelé dans ce cas coke de pétrole. Ce phénomène de transformation d’une part en produits plus légers et d’autre part en produits plus lourds est appelé dismutation. Il peut être aussi envahi par du gaz : il y a alors précipitation de bitumes, de la même façon que l’ajout d’hydrocarbures légers dans un pétrole brut fait précipiter des asphaltènes. Le pétrole contenu dans le réservoir peut aussi être altéré par l’eau de son aquifère, qui est une eau chargée en sels (saumure). Le réservoir peut aussi se rapprocher de la surface. La température y diminue et il peut être envahi par des eaux peu profondes ou par des eaux météoriques : il s’altère alors en asphaltes sous l’effet du lessivage par les eaux, de l’oxygène dissous dans ces eaux et de sa consommation partielle par des bactéries. Le pétrole se transforme alors en huiles lourdes puis en asphaltes.

Figure 1.14. Transformations possibles du pétrole dans les gisements. (D’après J. Connan in B. Durand, 1987.) Les gisements finissent par se retrouver un jour à la surface sous l’effet des mouvements tectoniques et de l’érosion des roches qui se trouvent au-dessus d’eux. C’est pourquoi la majeure partie des gisements de pétrole formés dans des temps très anciens a aujourd’hui disparu par érosion et évaporation. Il en existe cependant encore, le record d’âge étant semble-t-il un gisement sibérien qui aurait environ 1 milliard d’années. Vu la très grande durée de la formation du pétrole, les sédiments à kérogène qui sont à l’origine des roches-mères du pétrole que nous exploitons actuellement se sont déposés dans des océans, mers et lacs ayant existé dans un passé très lointain.

Bernard Durand

41

L’origine organique du pétrole est attestée de différentes façons et notamment par l’existence dans les pétroles de molécules d’origine manifestement biologique, les biomarqueurs (figures 1.15 et 1.16). Les porphyrines citées plus haut, dont la structure chimique est héritée de manière évidente de la chlorophylle des plantes (figure 1.15), sont des biomarqueurs, mais les techniques modernes d’analyse chimique ont permis d’en mettre en évidence des milliers. Un schéma (figure 1.17) récapitule la formation du pétrole dans un bassin sédimentaire.

Figure 1.15. Exemple de biomarqueurs : porphyrines, pristane et phytane. La structure de la chlorophylle a, en haut, comporte un noyau dit tétrapyrrolique car il comporte quatre structures pyrrole. Au centre de ce noyau se trouve un atome de magnésium. Elle comporte également une chaîne latérale appelée chaîne phytyl. On retrouve dans les pétroles ces éléments structuraux, sous forme d’une part du noyau tétrapyrrolique contenant alors du vanadium ou du nickel, structures que l’on appelle porphyrines, et d’autre part des isoalcanes dits isoprénoïdes, caractérisés par une chaîne branchée tous les quatre atomes de carbone par un groupement CH3. Ces isoprénoïdes dérivent de la chaîne phytyl.

42

La crise pétrolière

Figure 1.16. Trois exemples de biomarqueurs. Les hopanes (2), qui dérivent d’une famille de molécules trouvées en particulier dans les membranes de bactéries (1). Les stéranes (4,) qui dérivent des stérols (3) dont l’exemple le plus connu est le cholestérol. Les carotanes (6), qui dérivent de pigments dont le plus connu est le carotène (5), qui donne entre autres leur couleur orange aux carottes.

3.1. Les schistes bitumineux Il existe des sédiments très riches en kérogène qui sont restés près de la surface : ils n’ont donc pas produit de pétrole. On les appelle des schistes bitumineux, en anglais oil shales. Il ne faut surtout pas confondre, comme il est si souvent fait, ces schistes bitumineux avec les sables bitumineux (asphaltiques), lesquels sont, comme on l’a vu, des gisements de pétrole altérés. En fait, contrairement aux sables bitumineux, les schistes bitumineux contiennent du kérogène et non pas du bitume. Et dans la plupart des cas, ce ne sont même pas des schistes. Cette appellation n’est donc pas très heureuse et prête effectivement à confusion. En chauffant les schistes bitumineux dans des fours à des températures variant de 400 à 800 ˚C selon les procédés, et en l’absence d’air, il est possible de produire

Bernard Durand

43

Figure 1.17. Exemple schématisé de la formation du pétrole dans un bassin sédimentaire. Les échelles de temps, de distance, de profondeur et de température ne sont qu’indicatives car elles sont sujettes à d’importantes variations selon la géométrie et l’histoire géologique des bassins et leur âge. T0 est la température au sol, g le gradient géothermique, c’est-à-dire l’accroissement de température par unité de profondeur et z est la profondeur. La zone immature, appelée aussi zone de diagenèse, correspond à des profondeurs où le pétrole n’a pas encore eu le temps de se former, faute d’une température suffisante. La zone à huile et à gaz humide, appelée aussi zone de catagenèse est celle où d’abord le pétrole (huile) domine. Lui succède une zone à gaz humide où huile et gaz coexistent, ce dernier se formant en particulier par destruction de l’huile antérieurement formée. Dans la zone à gaz sec, appelée zone de métagenèse, ne se forme plus que du gaz. (D’après B. Durand in Rojey et al., 1994.)

44

La crise pétrolière

industriellement à partir de ceux-ci de l’huile de schiste, en anglais shale oil, substance analogue au pétrole, mais moins intéressante car riche en hétéroéléments ; elle présente donc des difficultés de raffinage. On reproduit ainsi, mais à l’échelle de temps humaine, la transformation du kérogène en pétrole. Les quantités de ces schistes sont très considérables. Le gisement des Green River Shales dans le Colorado aux États-Unis contient au moins les deux tiers de ceux qui sont connus. Ils ont été exploités en carrières dans de nombreux endroits dans le monde, y compris en France, en Bourgogne, près de Dijon et d’Autun, et en Lorraine, près de Metz, à partir de la fin du XIXe siècle et jusqu’à peu après la Seconde Guerre mondiale. La production d’huiles de schiste n’est plus rentable actuellement et ne le sera peut-être plus jamais, compte tenu des énormes problèmes environnementaux qu’elle pose. Certains pays en développement (Brésil, Chine, Estonie…) en produisent encore, mais un développement important à l’échelle mondiale est peu probable. La compagnie Shell essaie cependant encore en ce moment de mettre au point des techniques de récupération satisfaisantes pour les Green River Shales.

3.2. Le gaz bactérien Il existe aussi en quantités très notables un gaz qui n’est pas produit par la cuisson géologique du kérogène, mais qui est produit par des bactéries vivant dans les sédiments fraîchement déposés. Ces bactéries se nourrissent de substances organiques dissoutes dans l’eau interstitielle. Ce mode de formation est le même que celui du biogaz produit par les fermenteurs agricoles. On l’appelle gaz bactérien ou gaz biogénique, tandis que le gaz issu de la dégradation thermique du kérogène est appelé gaz thermique. Il s’accumule parfois dans des sédiments poreux peu profonds, des sables par exemple, pour y former des gisements. Comme les autres gisements de gaz, les gisements de gaz bactérien ne peuvent se conserver à l’échelle des temps géologiques que s’ils sont préservés par une couverture de sédiments imperméables. Ils peuvent par le jeu des phénomènes tectoniques finir par être enfouis à des profondeurs importantes, plusieurs milliers de mètres par exemple dans la plaine du Pô en Italie du Nord, où ces gisements sont fréquents. Certains estiment que ce type de gaz représente 20 % des réserves de gaz actuellement exploitées. Ce gaz bactérien est aussi la source principale de ce que l’on appelle hydrates de gaz ou encore glaces de méthane, que l’on trouve à l’état dispersé dans les zones de pergélisols dans les zones arctiques du Canada et de Russie, mais aussi dans les sédiments récents au pied des talus continentaux (figure 1.10). Il s’agit de

Bernard Durand

45

cristaux formés à partir de molécules d’eau, lesquelles encagent des molécules de méthane (figure 1.18). Les quantités de gaz ainsi piégées sont impressionnantes, mais, à cause de leur mode de gisement, les quantités récupérables sont faibles, et il n’en existe à ce jour aucune exploitation industrielle. En effet, la concentration du gaz dans les gisements est extrêmement faible : à titre d’exemple, dans l’un des sites considéré parmi les plus favorables, au large des côtes américaines, elle n’est en moyenne que de 1/160 000 en poids dans les sédiments. La quantité d’énergie nécessaire pour leur extraction serait très largement supérieure à la quantité d’énergie récupérable, ce qui en condamne l’exploitation !

Figure 1.18. Structure cristalline d’une des formes possibles des hydrates de méthane.

Le pétrole et le gaz se renouvellent constamment dans la nature par le jeu des mécanismes qui ont été décrits ci-dessus, mais c’est à un rythme 100 000 fois plus faible que leur rythme de consommation par l’homme.

4. Comment trouve-t-on le pétrole ? L’industrie pétrolière est organisée en une suite d’opérations que l’on appelle la chaîne pétrolière. Il y a d’abord ce qu’on appelle l’Amont pétrolier : exploration pour trouver des gisements, forage puis production des gisements découverts. Il y a ensuite l’Aval pétrolier : transport, raffinage pour faire du pétrole des produits utilisables, puis distribution aux consommateurs.

46

La crise pétrolière

Une partie des opérations de l’Amont est confiée à des sociétés de service spécialisées, dont les plus importantes sont les compagnies occidentales Halliburton et Schlumberger. Les compagnies pétrolières ont la propriété des gisements et se réservent les activités stratégiques, en particulier la prise de permis pour la recherche de nouveaux gisements ainsi que l’extraction et la commercialisation du pétrole et du gaz extraits. Les plus puissantes actuellement ne sont plus les grandes compagnies occidentales, ExxonMobil, Royal Dutch Shell (Shell), British Petroleum (BP), Total et ChevronTexaco étant les cinq plus importantes d’entre elles, car elles ne contrôlent plus maintenant qu’environ 15 % des réserves pétrolières mondiales, mais les compagnies nationales des grands pays producteurs. Le pétrole est connu depuis la plus haute antiquité grâce à ce qu’on appelle des indices de surface (figure 1.19), c’est-à-dire des suintements ou des imprégnations dans des affleurements de roches poreuses ou fissurées. Ces indices proviennent de gisements peu profonds à la faveur de failles ou de drain de roches perméables. Un des plus célèbres est le bitume de Judée, qui servait dans l’antiquité à calfater les bateaux, mais aussi à des usages médicaux. À Trinidad et Tobago existe un lac de pétrole visqueux et à La Brea, près de Los Angeles, en Californie, on peut visiter un musée extraordinaire présentant les animaux s’étant piégés dans les marais de bitume des environs depuis environ 40 000 ans. Parmi les fameux indices de gaz, signalons le temple du feu à Bakou où l’on brûle depuis des siècles le gaz qui s’échappe des profondeurs, et les fuites de gaz du grand gisement de pétrole de Kirkouk en Irak qui s’enflamment spontanément par forte chaleur. Les indices sont en fait très nombreux et témoignent de la très lente dissipation en surface d’une partie du pétrole et du gaz formés en profondeur. Quand les besoins en pétrole sont devenus importants, on a foré tout d’abord à faible profondeur près de ces indices. En France, le petit gisement de Pechelbronn en Alsace a été découvert au début du XIXe siècle non loin d’un indice très connu de bitume, et à cette occasion a été foré en 1813 le premier puits d’exploration au monde, le puits n˚ 6, qui a atteint la profondeur de 42 mètres. On peut en voir une reconstitution dans la forêt bordant le village de Pechelbronn au Nord. L’industrie du pétrole ayant été très tôt dominée par les Anglo-Saxons, c’est cependant le forage du colonel Drake en Pennsylvanie en 1859, qui n’a atteint que 25 mètres de profondeur, qui a été retenu par les livres d’histoire comme étant le premier puits d’exploration.

Bernard Durand

47

Figure 1.19. Indice de surface. Le pétrole qui sourd lentement à la surface s’oxyde, s’évapore et se transforme ainsi en asphalte. Le phénomène est le même que celui qui transforme les rejets de pétrole en mer en résidus visqueux sur les plages, ainsi que celui qui a transformé les gisements de pétrole de l’Athabasca en sables asphaltiques. (Courtoisie C. Laffont.) Vers le milieu du XIXe siècle ont été découverts les gisements de Pennsylvanie aux États-Unis, et en Russie ceux de Bakou sur la mer Caspienne. Par la suite, le travail d’exploration a été confié à des géologues spécialisés. Ceux-ci ont dans un premier temps constaté que les gisements de pétrole se trouvaient souvent dans des structures anticlinales du sous-sol (figure 1.7) et ont donc recherché à travers le monde ce type de structures. Mais la plupart de ces anticlinaux ne contenaient que de l’eau. Cela a conduit les compagnies pétrolières à vouloir comprendre les mécanismes de la formation des gisements, tout particulièrement à partir des années 1960, quand la demande en pétrole a commencé à croître très fortement. Actuellement, l’exploration du pétrole est un travail d’équipe associant des géologues, qui décrivent la nature des roches observées sur le terrain ou traversées par les forages, les datent, et reconstituent l’évolution géométrique et thermique au cours des temps géologiques des bassins sédimentaires contenant ces

48

La crise pétrolière

roches, des géophysiciens, qui par des méthodes sismiques font une « échographie » en trois dimensions du sous-sol et détectent les structures favorables, et des géochimistes, qui reconstituent la lente histoire de la formation du pétrole et du gaz dans les roches à kérogène ainsi que de leur migration vers les réservoirs. Ils évaluent ainsi la probabilité que les pièges potentiels détectés contiennent effectivement du pétrole. Toutes ces données sont maintenant analysées et synthétisées, grâce à des simulations en trois dimensions sur des ordinateurs très puissants de l’évolution des bassins sédimentaires au cours des temps géologiques. Les puits d’exploration peuvent maintenant atteindre des profondeurs allant jusqu’à 7 ou 8 000 mètres. La Terre entière a maintenant été explorée, sauf le continent Antarctique, où cette activité est interdite par les conventions internationales et qui ne présente de toute façon a priori que peu d’intérêt car il ne s’y trouve que peu de bassins sédimentaires.

5. Le pétrole, qu’en fait-on ? On peut bien sûr brûler le pétrole brut dans une chaudière pour se chauffer. Mais on préfère le valoriser en produisant en raffinerie une variété de coupes pétrolières, dont chacune est d’un usage différent (figure 1.20). Ce sont, par poids moléculaire moyen croissant : – l’hydrogène, utilisé dans la raffinerie pour la désulfuration des coupes pétrolières qui contiennent du soufre, mais aussi en chimie ; – le gaz combustible, qui est du méthane (CH4) et de l’éthane (C2H6), utilisé en particulier pour les besoins énergétiques de la raffinerie elle-même (autoconsommation) ; – le propane (C3H8) et le butane (C4H10) pour faire le gaz de pétrole liquéfié (GPL) utilisé pour le chauffage, la cuisine ou les véhicules équipés à cet effet ; – le naphta pour la pétrochimie, les engrais, les pesticides ; – l’essence pour les véhicules ; – le carburéacteur pour les avions, appelé fréquemment kérosène (à ne pas confondre avec le kérogène qui est, comme on l’a vu, la matière première de la formation du pétrole dans la nature) ; – le gazole pour les véhicules ; – le fuel domestique pour le chauffage ; – le fuel lourd pour l’industrie, la production d’électricité, la propulsion des navires ; – le bitume pour les revêtements routiers ;

Bernard Durand

49

– les résidus de raffinage et le coke de pétrole, utilisés comme ajout à des combustibles divers, en particulier dans la fabrication du ciment ou dans la production d’électricité.

Figure 1.20. Le pétrole en raffinerie. Les coupes les plus lourdes (gazoles, fuels, bitumes, résidus pétroliers) concentrent les hétéroéléments, soufre, azote, oxygène contenus initialement dans les résines et les asphaltènes. Ces hétéroéléments sont un problème pour l’environnement, en particulier le soufre qui produit à la combustion de l’anhydride sulfureux (SO2), responsable de maladies pulmonaires et de ce qu’on appelle les pluies acides. Celles-ci sont entre autres responsables de l’acidification des lacs et de la corrosion des bâtiments construits en pierre calcaire. Dans les raffineries modernes, le soufre est extrait des coupes lourdes par des procédés de désulfuration qui utilisent l’hydrogène produit dans la raffinerie. Les proportions des coupes obtenues avec un pétrole conventionnel varient beaucoup en fonction de la composition du pétrole utilisé : par exemple, l’essence peut varier de 11 à 24 %, le carburéacteur de 8 à 12 %, le gazole de 20 à 27 % et les fuels (fuel domestique et fuel lourd industriel) de 21 à 55 % du poids initial de la charge de pétrole traitée.

50

La crise pétrolière

On produit le plus de coupes légères, les plus recherchées, avec les pétroles légers, qui valent donc le plus cher. À l’opposé, les asphaltes, qui ne produisent que peu de coupes légères au raffinage, contiennent beaucoup de soufre et demandent des procédés de raffinage spécialement adaptés, n’ont que peu de valeur. En moyenne mondiale, les principales utilisations du pétrole sont actuellement les suivantes, en pourcentage poids (figure 1.21) : • 52 % comme carburants pour les transports (30 % pour les véhicules particuliers, 14 % pour les transports routiers et 8 % pour l’aviation) ; • 35 % comme combustibles (chauffage domestique 15 %, production d’électricité 8 %, autoconsommation des raffineries 6 %, divers usages industriels pour le reste) ; • 7 % pour la pétrochimie (fabrication des matières plastiques, des produits pharmaceutiques, des engrais, des pesticides…) ; • 6 % pour faire des lubrifiants, des solvants et des bitumes routiers.

Figure 1.21. Principales utilisations du pétrole, en pourcentage selon la moyenne mondiale. En définitive, 87 % du pétrole est destiné actuellement à être brûlé pour fournir de l’énergie sous une forme ou une autre ! Et les transports, donc notre mobilité, dépendent à 98 % des carburants tirés du pétrole !

Bernard Durand

51

6. Le pétrole est-il dangereux ? Le pétrole brut ne présente pas de danger direct, sauf à le boire en grande quantité ! Il a même servi à des applications médicales en des temps anciens. Il contient cependant dans sa fraction légère du benzène, hydrocarbure réputé cancérigène à faible dose, qui a le mauvais goût d’être très volatil et d’avoir une solubilité non négligeable dans l’eau, ainsi que du toluène, à peine moins dangereux mais moins volatil et moins soluble dans l’eau. C’est la présence accidentelle de benzène dans de l’eau minérale qui, il y a quelques années, a coûté si cher à la société qui la commercialisait, après son interdiction temporaire aux États-Unis. Signalons en passant que le benzène est un constituant normal de l’essence, qu’il vaut donc mieux éviter de respirer en se servant à la pompe. Trop peu de précautions sont actuellement prises à cet égard dans les stations-services et leur voisinage (voir à ce sujet le numéro 441 d’octobre 2006 de la revue de consommateurs Que choisir ?). Il faut également signaler l’existence dans les fractions lourdes du pétrole de traces d’hydrocarbures polycycliques aromatiques qui sont potentiellement cancérigènes. Il vaut donc mieux éviter de s’en enduire, et un nettoyage avec des solvants risque de les faire pénétrer dans l’organisme. Mais le risque est insignifiant. Les marées noires sont constituées pour l’essentiel de fractions lourdes du pétrole, les fractions légères s’étant dissipées par évaporation dans l’atmosphère. Les plus connues ont été provoquées par le naufrage de pétroliers : les naufrages de l’Erika en 1999 et du Prestige en 2002 sont les plus récents ayant concerné la France. Mais certaines ont été provoquées par des installations pétrolières, comme celle de la plateforme P36 de la société Petrobras qui a fait naufrage en baie de Rio de Janeiro en 2000, ou la pollution de la baie de Guanabara, également près de Rio de Janeiro, en 2000, due à la rupture d’un oléoduc sous-marin. Récemment en France, à bien plus petite échelle heureusement, des fuites de stockages situés à terre ont eu lieu en 2007 au bec d’Ambès dans la Gironde et en 2008 à la raffinerie de Donges dans l’estuaire de la Loire. La toxicité chimique des marées moires est très faible, comme on vient de le voir. Mais elles sont très visqueuses, et par conséquent asphyxient la faune et la flore, avec les conséquences que l’on connaît sur la pêche, la conchyliculture, les animaux sauvages et bien sûr le tourisme. Mais les marées noires ne représentent en année moyenne qu’une très petite partie du pétrole rejeté à la mer. L’essentiel des rejets provient de la négligence ou de l’indifférence des particuliers et des entreprises, des bateaux de

52

La crise pétrolière

toute sorte et des installations portuaires, mais aussi de nettoyage de véhicules et des fuites d’installations situées à terre, dont les rejets sont amenés à la mer par le ruissellement des eaux, à l’occasion en particulier des orages. Mais ce constat n’a toujours pas réussi à faire se modifier sensiblement les comportements du plus grand nombre dans le sens d’une plus grande responsabilité individuelle. Contrairement à l’opinion courante, qui fait des marées noires le principal danger du pétrole, c’est lors de sa combustion, base de la majeure partie de ses utilisations, que le pétrole présente des dangers importants, dont la plupart des gens n’ont qu’une vague conscience. – Les rejets de gaz carbonique dans l’atmosphère dus à la combustion du pétrole représentent à l’heure actuelle presque 40 % des rejets de gaz carbonique dus aux activités humaines, dont la moitié est imputable aux transports, et donc augmentent de façon très sensible l’effet de serre. Cette proportion est même de 70 % actuellement en France. Mais il faut bien comprendre qu’il ne s’agit ici que d’une valeur relative : notre production électrique, essentiellement d’origine nucléaire et hydraulique, n’émet que peu de gaz carbonique ; la proportion qui dans les émissions de ce gaz en France est due aux utilisations du pétrole, carburant pour les véhicules et fuel domestique pour le chauffage principalement, est donc élevée. Dans les pays européens qui fabriquent leur électricité principalement avec du charbon, comme l’Allemagne, le Danemark, l’Espagne, la Grèce ou la Pologne, cette proportion est plus faible, mais leurs émissions de gaz carbonique sont bien plus fortes par habitant en valeur absolue. Cependant, le gaz carbonique n’est pas une molécule toxique, sauf à forte concentration dans l’atmosphère (> 5 %), auquel cas il peut provoquer des troubles respiratoires, et bien sûr l’asphyxie s’il chasse l’oxygène, comme cela se produit dans certaines grottes et s’est produit lors de l’éruption de gaz carbonique du lac Nyos qui a provoqué une tragédie au Cameroun en 1986 (1800 morts). – Les raffineries, les grosses installations utilisant du pétrole comme les centrales électriques au fuel ou les cimenteries, mais tout autant les véhicules, émettent une grande variété de polluants dangereux : • anhydride sulfureux (SO2), produit par la combustion du soufre contenu dans les coupes lourdes ; • oxydes d’azote (NOx), produits par réaction de l’oxygène sur l’azote aux hautes températures des dispositifs de combustion ;

Bernard Durand

53

• hydrocarbures volatils comme le benzène, ainsi que des aldéhydes volatils qui n’existent pas naturellement dans le pétrole mais qui sont formés lors de la combustion ; l’ensemble forme ce qu’on appelle les composés organiques volatils (COV) ; • oxyde de carbone (CO), produit par la combustion du carbone en déficit d’oxygène ; • hydrocarbures aromatiques polycycliques (HAP), suies (particules) produites entre autres par les moteurs diesel, mais aussi les centrales électriques utilisant du fuel ; • nickel et vanadium provenant des porphyrines, contenus dans les coupes lourdes (fuels, résidus du raffinage…). COV et NOx provoquent par réaction photochimique, en particulier à la périphérie des grandes villes, la formation d’ozone (O3), qui est un irritant respiratoire et un gaz à effet de serre (GES). Les études médicales menées depuis une trentaine d’années ont montré que ces polluants ont des effets importants sur la santé publique (asthme et autres maladies pulmonaires, cancers...), en particulier dans les grandes villes, où ces émissions sont les plus importantes. Les particules (suies) émises par les véhicules diesel auraient la plus grande responsabilité. Mais dans les pays d’Europe où l’on fabrique une grande part de l’électricité à partir de fuel, comme en Italie par exemple, ou de charbon, qui est encore plus polluant, comme en Allemagne, au Danemark, en Espagne, en Grèce et en Pologne entre autres, les centrales électriques ont sans doute une responsabilité encore plus grande. Cependant, la mortalité et la morbidité réelles qui en résultent sont très difficiles à cerner avec précision. Les études médicales laissent penser que la pollution automobile des années passées pourraient entraîner jusqu’à deux ou trois dizaines de milliers de morts prématurées chaque année rien qu’en France, soit bien plus que les morts prématurées dues aux accidents de la route. À l’échelle de l’Europe des 27, cela représenterait entre cinq et dix fois plus. Mais si l’on raisonne en années de vie perdues et non plus en mortalité annuelle, l’effet de la pollution ne serait qu’une fois et demie supérieur à celui des accidents de la route, car les victimes de la route meurent à un âge moyen qui est sensiblement inférieur à celui des victimes de la pollution. Il faut cependant rester prudent quant aux conclusions que l’on peut tirer de ces études : comme bien d’autres études sur les effets à long terme de faibles doses de produits toxiques (par exemple l’effet de la radioactivité à Tchernobyl ou

54

La crise pétrolière

l’effet des pesticides épandus par les agriculteurs), elles ne peuvent pas être fondées sur des méthodes statistiques car la mortalité qui en résulte n’est pas suffisamment importante pour apparaître de manière indiscutable sur des séries statistiques de la mortalité totale. D’autre part les facteurs entrant en jeu dans le déclenchement des maladies pulmonaires sont nombreux et leur importance relative est mal cernée, tandis que le temps nécessaire à l’apparition de ces maladies est important. On raisonne donc sur des modèles dont la validité est impossible à démontrer expérimentalement. Ces modèles permettent cependant de donner une idée de la limite supérieure du danger que représentent ces émissions. Les gros efforts consentis par les constructeurs sous la houlette de la Commission européenne laissent prévoir que la pollution des véhicules, hors gaz carbonique, sera négligeable une fois la flotte actuelle de véhicules entièrement renouvelée, soit dans 10 ans environ, et que ce problème s’atténuera donc rapidement ensuite. Le gaz naturel, malgré son appellation qui le rend sympathique, car tout ce qui est naturel est comme chacun sait excellent pour la santé, n’est pas toujours à l’état brut une substance sans danger, car il contient parfois, on l’a vu, de grandes quantités d’hydrogène sulfuré ainsi que de petites quantités de composés organiques de mercure ou d’arsenic. L’hydrogène sulfuré corrode les canalisations des installations d’extraction si elles ne sont pas faites d’aciers spéciaux. Le gisement français de Lacq, qui contient 15 % d’hydrogène sulfuré, n’a pu par exemple être exploité que lorsque les métallurgistes eurent réussi à créer des aciers résistants. Et l’hydrogène sulfuré est aussi un toxique mortel, heureusement facile à détecter grâce à son odeur, à de très faibles teneurs dans l’atmosphère. Le mercure est redoutable pour les installations d’extraction et les usines de traitement ou de liquéfaction du gaz, car il corrode les canalisations métalliques non protégées. C’est aussi un dangereux toxique du système nerveux. L’arsenic est comme chacun sait un poison dangereux. Ajoutons que le principal constituant du gaz naturel, le méthane, est un gaz à effet de serre dont l’activité est très supérieure à celle du gaz carbonique, et qu’il faut donc être très attentif à en éviter les fuites, de son extraction à son utilisation. Note : Pour comparer l’action des différents gaz à effet de serre (GES) sur le climat, on utilise la notion de pouvoir de réchauffement global (PRG), et en général le PRG à 100 ans : celui-ci est le rapport des effets sur le réchauffement climatique d’une masse du GES considéré et d’une même masse de gaz

Bernard Durand

55

carbonique, émises au même moment dans l’atmosphère, 100 ans après leur émission. Ce rapport est de 23 pour le méthane, ce qui signifie qu’un peu moins de 5 % poids de méthane ont le même effet que 100 % poids de gaz carbonique. Si l’on considère des durées plus courtes que 100 ans, le rapport est bien plus important, car le méthane a une durée de vie plus courte dans l’atmosphère que le gaz carbonique. Il est d’environ 60 à 20 ans. Bien sûr, le gaz naturel livré à l’utilisateur ne contient plus d’hydrogène sulfuré ni de composés organiques de mercure ou d’arsenic, et ne produit pas de SO2 lors de sa combustion comme le fait le fuel quand celui-ci n’a pas fait l’objet d’une désulfuration. Mais sa réputation d’énergie propre et sans danger est très surfaite. Tout comme le pétrole, il produit bien évidemment lors de sa combustion du gaz carbonique, quoiqu’en moindre proportion que le pétrole par unité d’énergie produite, 2,4 tonnes de CO2 par tep contre 3,13. Les émissions de CO2 dues à l’utilisation du gaz naturel représentent ainsi en France de l’ordre de 100 millions de tonnes par an, un peu plus du tiers de celles dues au pétrole ! Sa combustion produit aussi des NOx. En effet, ces oxydes d’azote se forment par combinaison de l’azote et de l’oxygène de l’air au contact des surfaces portées à haute température. La combustion du gaz naturel en produit tout autant que celle du pétrole. Se forment également des suies, que l’on observe facilement sur le fond des casseroles mises au-dessus des brûleurs mal réglés, et des hydrocarbures aromatiques polycycliques que l’on ne voit pas. L’explosion de conduites de distribution de gaz naturel (une par mois en moyenne en France) provoque également fréquemment des morts chez les utilisateurs et des destructions matérielles importantes : parmi les explosions récentes particulièrement meurtrières, celle de Dijon en décembre 1999 a fait 11 morts et 3 blessés ; celle de Mulhouse en décembre 2004 a fait 18 morts et 14 blessés ; en juillet 2004, celle de Ghislenghien dans le sud de la Belgique a fait 18 morts et 133 blessés ! Il n’est peut-être pas inutile de dire ici un mot des risques physiques courus par les professionnels pour mettre à la disposition des consommateurs le pétrole, le gaz naturel et leurs produits dérivés. Ces professionnels paient, sans que cela se sache parce que les médias n’en parlent que très peu, un lourd tribut sous des formes diverses : explosion de plateformes d’exploitation, d’usines de liquéfaction, de raffineries, de stockages, d’oléoducs ou de gazoducs 3

La combustion d’un charbon vapeur de qualité moyenne, tels que ceux utilisés pour la production d’électricité, produit à peu près deux fois plus de CO2 par quantité d’énergie produite que le gaz naturel.

56

La crise pétrolière

(exemples du naufrage dans une tempête de la plateforme Ocean Ranger sur le gisement d’Hibernia au large des côtes du Labrador, 84 morts en 1982 ; de l’incendie de la plateforme Piper-Alpha en Mer du Nord, 167 morts en 1988 ; de l’explosion d’une partie de l’usine de liquéfaction de gaz de Skikda en Algérie, 27 morts en 2004 ; de l’incendie des raffineries de Feyzin en France, 18 morts en 1966, et d’Esmeraldas en Equateur, 20 morts en 1998 ; de l’explosion du stockage de pétrole de Bucenfield au nord de Londres, 40 blessés en 2005, et d’un gazoduc en Arabie Saoudite, 16 morts en 2007…). Ces risques physiques existent également pour les particuliers quand ils se trouvent non loin de ces installations. Parfois ils en sont malheureusement les responsables. Rappelons par exemple la série d’accidents très graves provoqués depuis 1998 par les prélèvements sauvages de pétrole des populations voisines des oléoducs autour de Warri au Nigéria. Ces prélèvements ont entraîné des explosions et des incendies ayant entraîné la mort d’au moins 1000 personnes en quelques années, ainsi que la pollution de zones immenses. Rappelons encore que récemment, l’explosion d’un camion-citerne de carburant accidenté au Kenya a entraîné la mort de 110 personnes qui s’étaient rassemblées pour récupérer le carburant. La mortalité qui résulte de ce type d’accidents est estimée entre 5000 et 10 000 morts par an dans le monde. La pollution associée est souvent considérable et durable.

2

Pourquoi la crise ?

1. Le pétrole et le gaz, qui les produit et qui les consomme ? D’après la revue de la compagnie pétrolière British Petroleum (BP), la BP Statistical review of world energy (accessible sur www.bp.com), qui est la référence la plus fréquemment utilisée, les pays producteurs de pétrole ont produit au total 3,906 milliards de tonnes de pétrole en 2007. Presque 45 % de la production totale a été assurée par un cartel de pays producteurs fondé en 1960, l’Organisation des pays exportateurs de pétrole (OPEP), en anglais Organization of petroleum exporting countries (OPEC), qui comprend actuellement douze pays (tableau 2.1). Tableau 2.1. Les pays actuels de l’OPEP. Les 12 pays de l’OPEP Pays arabes

Autres pays

Algérie

Angola

Arabie saoudite

Équateur

Émirats Arabes Unis

Iran

Irak

Nigéria

Koweït

Venezuela

Libye Qatar Production 2007 : 1618 Mt, soit 43 % de la production mondiale (3906 Mt).

Par opposition, les autres pays producteurs sont appelés pays NOPEP. Les dix premiers pays producteurs ont produit 2427 Mt, soit 62 % de la production mondiale (tableau 2.2).

58

La crise pétrolière

Tableau 2.2. Les dix premiers producteurs de pétrole en 2007 (Mt). En gras, les pays OPEP. (Source BP.) Arabie saoudite Russie États-Unis Iran Chine Mexique Canada Émirat Arabes Unis Venezuela Koweït

493 491 312 212 187 173 159 136 134 130

Production mondiale 2007 : 3906 Mt.

Les pays consommateurs sont bien sûr plus nombreux que les pays producteurs : tout le monde ou presque consomme en effet du pétrole. Mais sur une consommation totale de 3953 Mt en 2006, les dix premiers pays consommateurs en ont consommé 2325 Mt, soit 59 % (tableau 2.3). Dans les statistiques de la BP, cette consommation comprend aussi la consommation de carburants de synthèse. C’est pourquoi elle est supérieure à la production de pétrole naturel, indiquée sur le tableau 2.2. Tableau 2.3. Les dix premiers consommateurs de pétrole en 2007 (Mt). (La consommation mondiale comprend ici les carburants de synthèse.) (Source BP.) États-Unis

943

Chine

385

Japon

229

Inde

129

Russie

126

Allemagne

113

Corée du Sud

108

Canada

102

Arabie Saoudite

99

France

91

Consommation mondiale 2007 : 3953 Mt.

Bernard Durand

59

On observe que la plupart des grands pays consommateurs produisent beaucoup moins qu’ils ne consomment. Deux exceptions sont la Russie et le Canada. Les pays les plus consommateurs sont essentiellement les grands pays industrialisés, auxquels sont maintenant venus se joindre la Chine, l’Inde et l’Arabie saoudite. Ce déséquilibre entre producteurs et consommateurs est la source d’un intense commerce mondial (tableaux 2.4 et 2.5), et les exportations représentaient 1984 Mt de pétrole, soit 51 % de la production mondiale, en 2007. Les dix premiers exportateurs exportaient 1622 Mt et les dix premiers pays importateurs en importaient 1665 Mt. Tableau 2.4. Les dix premiers exportateurs de pétrole en 2007 (Mt). En gras, les pays OPEP. (Source BP.) Arabie saoudite Russie Iran Venezuela Koweït Émirat Arabes Unis Nigéria Norvège Mexique Algérie Exportations mondiales 2007 :1984 Mt.

394 365 137 119 116 114 110 109 84 74

Tableau 2.5. Les dix premiers importateurs de pétrole en 2007 (Mt). (Source BP.) États-Unis Japon Chine Allemagne Corée du Sud Inde France Italie Espagne Pays-Bas

632 229 198 112 108 91 90 77 79 49

60

La crise pétrolière

La précision des valeurs ci-dessus ne doit pas faire illusion, car celles-ci varient sensiblement selon les sources. Mais ces variations d’une source à l’autre ne modifient pas le tableau général. La consommation de pétrole augmente sans arrêt, mais de façon irrégulière : de 1996 à 2006, elle est passée selon la BP de 3480,5 Mt à 3914,1 Mt, soit une augmentation de 12,5 % et l’équivalent d’un accroissement de 1,2 % par an. En ce qui concerne le gaz, les dix premiers pays producteurs produisaient 63 % de la production mondiale en 2007 et les dix premiers pays consommateurs en consommaient 59 % (tableaux 2.6 et 2.7). Tableau 2.6. Les dix premiers producteurs de gaz en 2007 (Mtep). (Source BP.) Russie États-Unis Canada Iran Norvège Algérie Arabie Saoudite Royaume-Uni Chine Turkménistan Soit 63 % d’une production mondiale de 2645 Mtep.

547 499 165 101 81 75 68 65 62 61

Tableau 2.7. Les dix premiers consommateurs de gaz en 2007 (Mtep). (Source BP.) États-Unis Russie Iran Canada Royaume-Uni Japon Allemagne Italie Arabie Saoudite Chine Soit 59 % d’une consommation mondiale de 2634 Mtep.

596 395 101 85 82 81 75 70 68 63

Bernard Durand

61

Le commerce mondial représente ici une proportion plus faible de la production que dans le cas du pétrole, 25 % au lieu de 51 %, car les principaux pays producteurs sont aussi de gros consommateurs. 28 % des importations se font maintenant sous forme de gaz naturel liquéfié (GNL), qui est transporté par des navires méthaniers et non par gazoduc. L’Europe des 27 est la principale région importatrice, tandis que la Russie est le plus grand pays exportateur (tableaux 2.8 et 2.9). Tableau 2.8. Les dix premiers importateurs de gaz en 2007 (Mtep). (Source BP.) États-Unis 96 Japon 81 Allemagne 62 Italie 62 Ukraine 41 France 38 Corée du Sud 33 Espagne 32 Turquie 32 Royaume-Uni 17 Soit au total 462 Mtep, représentant 70 % des importations mondiales et 25 % de la consommation mondiale.

Tableau 2.9. Les dix premiers exportateurs de gaz en 2007 (Mtep). (Source BP.) Russie 152 Canada 81 Norvège 77 Algérie 53 Turkménistan 41 Trinidad et Tobago 35 Qatar 35 Nigéria 32 Indonésie 30 Malaisie 26 Soit au total 565 Mtep représentant 85 % des exportations et 21 % de la consommation mondiale.

62

La crise pétrolière

La consommation de gaz naturel a augmenté de 27 % de 1996 à 2006, soit l’équivalent d’un rythme annuel de 2,4 %, deux fois celui du pétrole. Et ce rythme de consommation a actuellement tendance à s’accroître plus vite que celui du pétrole. Notons que 50 % de la production mondiale de pétrole est assurée par seulement 120 gisements, soit moins de 1 % du nombre de gisements connus. La plupart de ces gisements ont été découverts dans les années 1960 ou au début des années 1970. La situation est analogue pour les gisements de gaz.

2. Comment les prix du pétrole sont-ils établis et pourquoi varient-ils autant ? 2.1. Les marchés pétroliers Comme celui des fruits et légumes, le prix du pétrole est gouverné par la loi de l’offre et de la demande sur des marchés. Les prix varient selon la qualité : plus un pétrole est léger, et par conséquent plus il contient d’hydrocarbures et moins il contient d’éléments nuisibles, soufre en particulier, et plus il vaut cher. C’est ainsi que le brut léger et peu soufré de certains gisements algériens ou des gisements de la mer du Nord vaut plus que le pétrole lourd et soufré de beaucoup de gisements du Moyen-Orient. Cependant, certains pétroles lourds non soufrés, parce qu’ils permettent de faire des quantités importantes de diesel et de fuel lourd non soufrés, sont de plus en plus appréciés. Pour une même qualité, les prix varient peu d’un marché à l’autre, en particulier parce que le transport du pétrole par oléoduc (pipeline) ou pétrolier (tanker) est peu coûteux, de l’ordre de 6 euros par tonne en moyenne. Il existe donc peu ou prou un marché mondial unique. Il n’en est pas de même pour le gaz dont le transport, par navire méthanier ou gazoduc, est en moyenne dix fois plus coûteux par quantité d’énergie transportée. Le transport par méthanier, le plus coûteux, consomme en moyenne à peu près 20 % de l’énergie initialement contenue dans le gaz, entre l’usine de liquéfaction, le transport et la regazéification, dont presque la moitié pour le transport. Il existe donc pour ce dernier des marchés régionaux où les prix peuvent être sensiblement différents en fonction des distances à parcourir entre producteurs et utilisateurs. Les trois principaux sont le marché américain, le marché européen et le marché Asie-Pacifique. Le prix du pétrole y est évalué en dollars par baril. Le baril, en anglais barrel, est une unité de volume qui vaut 159 litres. Comme il s’agit d’une unité de

Bernard Durand

63

volume, il faut connaître la densité du pétrole pour traduire cette unité en unité de poids ! Or cette densité est, on l’a vu, largement variable selon les pétroles. Si l’on en croit les données de production mondiales publiées en barils mais aussi en tonnes par la BP Statistical review of world energy, il faut actuellement en moyenne environ 7,3 barils pour faire une tonne, ce qui correspond à une densité moyenne du pétrole brut produit de 0,86. Cette unité vient, dit-on, des débuts de l’industrie du pétrole aux États-Unis, où, faute de récipients métalliques spécialisés, on utilisait des barils à harengs de 159 litres de contenu pour le stockage. 100 dollars par baril représentaient fin 2007 environ 560 euros par tonne. La production d’un pays est souvent exprimée en barils par jour (b/j) (en anglais barrels per day, b/d). 1 million de b/j représente environ 50 millions de tonnes par an, selon les statistiques de la BP. Le baril est l’unité utilisée dans les statistiques internationales pour évaluer les réserves et les productions de pétrole, non seulement à cause de la domination des Anglo-Saxons sur la culture pétrolière, mais aussi parce qu’il s’agit d’une unité de volume, plus facile à mesurer à la sortie d’un puits qu’un tonnage. Le prix du gaz est évalué en dollars par million de British Thermal Unit (BTU), ou en dollars par 1000 m3. La BTU vaut 1055,05 joules. C’est encore une de ces unités bizarres qui sont imposées au monde par les Anglo-Saxons: une tonne-équivalent-pétrole (tep)4 en vaut 39,7 millions. Par conséquent, 1 dollar/million de BTU équivaut à 39,7 dollars par tep ou encore 5,4 $/bariléquivalent-pétrole. 1000 m3 de gaz ont un contenu énergétique équivalent à 0,86 tep. 1 dollar/ 1000 m3 équivaut donc à 1,16 dollar/tep. Une unité de volume très utilisée dans les statistiques internationales pour évaluer les réserves de gaz est le « cubic feet », ou plus exactement le trillion of cubic feet (TCF) qui vaut environ 28 milliards de m3. Gaz et pétrole relèvent du même « business », et sur les marchés régionaux du gaz, les prix du gaz sont indexés de fait sur ceux du pétrole, même si l’on pratique plus souvent sur ces marchés que sur les marchés pétroliers les contrats à long terme. En effet, le gaz est handicapé par la nécessité de construire pour 4 Rappel : Une tonne de pétrole de qualité moyenne libère lors de sa combustion, sous forme de chaleur, une quantité d’énergie de 41,9 milliards de joules (41,9 GJ). Cette quantité est ce qu’on appelle la tonne-équivalent pétrole (tep), utilisée pour établir les comptabilités énergétiques à l’échelle des pays et du monde. Le joule est l’unité d’énergie utilisée par les physiciens : il en faut à peu de choses près 418 500 pour porter de 0 à 100 ˚C 1 litre d’eau pure.

64

La crise pétrolière

son transport des équipements très coûteux : gazoducs, navires méthaniers… Il est donc intéressant pour un pays producteur de cofinancer ces équipements avec les pays consommateurs et de s’assurer des débouchés stables sur la base d’un contrat d’approvisionnement à des prix convenus à l’avance, pour des durées importantes. Certaines qualités de pétrole servent de référence dans le commerce international : – Le Brent est le pétrole de la qualité la plus courante de la mer du Nord. Il est coté sur le marché de Londres, le London Stock Exchange (LSE). – Le Light Sweet Crude (LSC) et le West Texas Intermédiate (WTI) sont les qualités les plus courantes aux États-Unis et sont cotés sur le marché de New York, le New York Mercantile Exchange (Nymex). – Le Dubaï est la qualité de référence au Moyen-Orient. Les prix de ces pétroles sont habituellement proches les uns des autres, mais diffèrent cependant de quelques dollars par baril. Il est donc utile quand on parle de l’évolution des prix de préciser auxquels de ces bruts on se réfère. Les produits raffinés vendus en Europe sont cotés sur le marché de Rotterdam. Comme pour le pétrole brut, la valeur d’une coupe pétrolière est d’autant plus grande qu’elle est plus demandée et que l’offre en est plus faible. Ceci explique que le prix de marché de ces coupes puisse être parfois plus élevé ou moins élevé que le prix du pétrole pourrait le faire supposer. Début 2008 par exemple, le prix de l’essence et encore plus celui du gazole ont augmenté plus vite que celui du pétrole parce que les raffineries ne suffisaient pas à la demande. Les bénéfices du raffinage ont en effet pendant longtemps été trop faibles pour encourager la construction de nouvelles raffineries. C’est ainsi que le prix de marché est actuellement plus élevé pour le gazole que pour l’essence. C’est le contraire pour les prix à la pompe en France, à cause des différences de taxation. Cette situation durera tant que de nouvelles raffineries ne seront pas construites, ce qui prendra des années. D’autre part, si le prix technique des carburants varie en fonction de la difficulté à les produire, cette difficulté augmente si l’approvisionnement en pétrole des raffineries, comme c’est de plus en plus le cas, comprend une proportion de plus en plus importante de pétroles lourds. Enfin signalons que les prix indiqués par la presse généraliste sont ceux du marché spot, c’est-à-dire sur un marché où l’on achète une quantité de pétrole au prix du moment, lui même fonction de l’offre et de la demande du moment,

Bernard Durand

65

comme un consommateur achèterait des légumes sur un marché de quartier. Mais il existe un marché à terme, beaucoup plus complexe, où l’on s’engage par contrat à acheter une quantité de pétrole pour une date ultérieure et pour un prix fixés par le contrat. L’acheteur doit laisser un dépôt de garantie, et s’il change d’avis avant la date fixée, doit payer la différence de prix qui résulte de la différence des cours. Le marché à terme est donc par nature un marché qui se prête à la spéculation.

2.2. Le rôle de l’OPEP Mais les marchés pétroliers n’ont été libres qu’au tout début de leur fonctionnement. Les grandes compagnies pétrolières occidentales, qui ont découvert la plupart des gisements et ont longtemps dominé la production mondiale, se sont entendues en 1927 pour contrôler l’offre en fonction de la demande et donc contrôler les prix. Elles ont aussi cherché à obtenir la meilleure récupération possible du pétrole contenu dans les gisements qu’elles exploitaient. Les prix relativement bas ainsi pratiqués ont permis après la Seconde Guerre mondiale, pendant environ trente ans, le remarquable développement économique des pays occidentaux (les Trente Glorieuses). Les grands pays producteurs du Moyen-Orient, qui s’estimaient lésés par ces pratiques, ont formé en 1960 un cartel, l’Organisation des pays exportateurs de pétrole (OPEP), Organization of petroleum exporting countries (OPEC) en anglais. Ils ont ensuite été rejoints par quelques pays hors Moyen-Orient. L’OPEP régule l’offre de pétrole par une politique de quotas attribués à chaque pays du cartel en fonction des réserves pétrolières déclarées par ces pays. Ces quotas sont éventuellement modifiés en fonction de la demande mondiale et de la situation pétrolière de ces pays. Les coûts de revient hors taxes du pétrole extrait des gisements en exploitation étaient, il n’y a pas si longtemps encore, en moyenne de 3 dollars le baril en Arabie saoudite, et d’un peu plus de 10 dollars le baril en mer du Nord (figure 2.1). Le coût d’un baril produit à partir des sables bitumineux de l’Athabasca était d’environ 20 dollars. D’autre part, certains anticipaient en 1995 que la proportion du pétrole extractible à moins de 5 dollars le baril serait sans doute encore d’au moins 50 % de la production annuelle encore possible en 2015 (figure 2.2). Mais les coûts de revient de ces gisements, exprimés en dollars 2008, sont d’ores et déjà devenus sensiblement supérieurs, par le jeu de la dévaluation de

66

La crise pétrolière

Figure 2.1. Coûts de revient d’un baril de pétrole en 2006. Ces coûts sont ici montrés pour différentes origines de pétrole et décomposés en coût d’exploration, coût de développement, c’est-à-dire le coût de la reconnaissance et de l’équipement du gisement après sa découverte, et en coût de production proprement dit, c’est-à-dire d’extraction et de conditionnement du pétrole. (D’après Y. Mathieu, 2006, Institut français du pétrole.) fait du dollar, de la nécessité de multiplier les équipements pour maintenir la production, et de l’augmentation du coût de ces équipements. Et il s’agit là des gisements actuellement en production, alors que les gisements en développement et les découvertes futures, surtout situées dans des environnements ou des zones difficiles, ne seront productibles qu’à des prix très supérieurs. Les ordres de grandeur à prévoir pour ces futures productions sont, en dollars actuels, d’environ 20 à 40 dollars le baril au Moyen-Orient et en Afrique du Nord, 30 à 50 en offshore profond, 60 à 80 en offshore très profond et dans l’Arctique, 40 à 80 pour les huiles lourdes et les sables bitumineux et 100 pour les huiles de schiste produites à partir des schistes bitumineux. Les prix du marché, fixés par la politique choisie par l’OPEP mais en fonction des aléas de l’économie mondiale, sont actuellement pour les gisements en production, et seront encore longtemps complètement déconnectés des coûts de revient, même augmentés des coûts de transport, des taxes et des frais de commercialisation, et cela quelle que soit l’origine du pétrole ! Mais la baisse des prix du pétrole provoquée fin 2008 par la crise des subprimes va provoquer, si elle dure, un déclin de l’exploration en zones difficiles et

Bernard Durand

67

Figure 2.2. Proportions de la production annuelle anticipée en 1995 pour 2015, en fonction de leur coût. (D’après J.-M. Amouroux in Bobin et al., 1997.) du développement des gisements très coûteux à exploiter. Les grandes compagnies pétrolières occidentales ne peuvent plus guère actuellement développer de nouveaux projets si le prix du marché du pétrole devient inférieur à moins de 40 dollars le baril ! Malgré son coût pour les consommateurs, la restriction de l’offre imposée par l’OPEP s’est révélée positive en freinant très sensiblement les consommations et donc l’épuisement du pétrole et en permettant le développement d’autres sources d’énergie. Elle a aussi permis l’exploitation de gisements qui n’auraient pas été rentables autrement. D’autre part, grâce à ces prix élevés, la plus grande partie du pétrole peut pour l’instant être produite par des pays n’appartenant pas à l’OPEP, dits pays NOPEP, qui ont des coûts de revient moyens nettement plus élevés que ceux des pays de l’OPEP. Mais les pays NOPEP ne peuvent fournir à eux seuls la demande mondiale, il s’en faut de beaucoup. Il suffit donc aux pays de l’OPEP de tourner plus ou moins le robinet pour faire fluctuer les prix. Ces pays sont appelés pour cela des pays régulateurs (en anglais swing producers). Nous verrons cependant que, depuis quelque temps, il n’existe plus qu’un seul véritable swing producer, l’Arabie saoudite, devenue le seul pays à pouvoir encore faire diminuer les prix en augmentant de manière significative la production

68

La crise pétrolière

mondiale. Les autres pays ont presque tous atteint le maximum de leur capacité de production et ne peuvent donc que la diminuer. Ce fait nouveau est, comme nous le verrons plus loin, d’une extrême importance. Les réserves de pétrole des pays NOPEP sont environ trois fois plus faibles que celles des pays de l’OPEP. Et puisque ce sont ceux qui ont la production pour l’instant la plus importante, ce sont bien sûr eux qui épuisent le plus rapidement leurs réserves. Les pays de l’OPEP vont donc être de plus en plus les maîtres du marché. La production OPEP devrait donc incessamment dépasser la production NOPEP. Observons que si les prix du pétrole avaient été gouvernés par le marché et non par un cartel, ce sont les gisements des pays de l’OPEP qui auraient été exploités en premier, parce que leurs prix de revient sont de loin les plus bas. Mais la consommation de pétrole aurait été beaucoup plus importante, à cause du gaspillage qu’entraînent des prix bas, et l’essentiel de leurs réserves serait d’ores et déjà épuisé. Les prix auraient progressivement augmenté, permettant l’exploitation du pétrole des pays NOPEP. Ceux-ci contrôleraient actuellement la situation, mais les réserves mondiales ne seraient sans doute plus que le tiers de ce qu’elles sont actuellement. Les rejets de gaz carbonique dans l’atmosphère auraient aussi été plus importants. Contrairement à ce que beaucoup imaginent, les grandes compagnies pétrolières occidentales, Exxon-Mobil, Royal Dutch Shell, BP, Total, ChevronTexaco, ENI, Repsol…, n’ont plus d’influence sur les prix parce qu’elles ne contrôlent plus actuellement que 15 % des quantités de pétrole et de gaz mises sur le marché. Le reste est contrôlé par les compagnies nationales des grands pays producteurs : Aramco, Gasprom, KOC, NIOC, Pemex, PDVSA, Sonatrach, Statoil-Hydro, Petrochina… D’autre part, ces grandes compagnies occidentales ont à faire face, lorsqu’elles cherchent à accroître leurs réserves, aux compagnies des grands pays émergents, en particulier chinoises, qui sont maintenant capables de mettre beaucoup plus d’argent qu’elles dans les appels d’offres pour les permis d’exploration. En fonction de tout cela, essayons d’interpréter les fluctuations majeures du prix spot du pétrole depuis 1960, date de la création de l’OPEP (figure 2.3). Les principales fluctuations de prix ont été les chocs pétroliers de 1973 et 1979, pendant lesquels les prix ont augmenté de façon spectaculaire et brutale, et le contre-choc pétrolier de 1986, où ils ont chuté considérablement. Des hausses moins importantes coïncident avec les deux guerres du Golfe. Une baisse très

Bernard Durand

69

Figure 2.3. Évolution du prix spot du pétrole brut de 1960, date de la création de l’OPEP, à début 2009, en dollars courants et en dollars 2004, puis en dollars 2008 de 2004 à 2009 (référence Brent). notable s’est produite lors de la crise asiatique de 1997 et 1998. À partir de 2003, on a observé une hausse considérable et qui semblait ne devoir jamais connaître de fin, puis une baisse brutale mi-2008, suivie d’une reprise chaotique. Le choc pétrolier de 1973 est lié à la guerre du Kippour opposant Israël aux pays arabes et celui de 1979 à la révolution iranienne. L’OPEP s’est alors servie du pétrole comme arme politique, et a fait augmenter les prix du pétrole par restriction de l’offre. À cette époque, les États-Unis étaient encore le plus gros producteur de pétrole mondial, mais leur production avait commencé à décliner irrémédiablement depuis 1972. Ils ne pouvaient donc compenser les baisses de production décidées par l’OPEP. Les conséquences sur l’économie des pays occidentaux ont été spectaculaires : les prix du pétrole ont été multipliés par trois en 1973, puis encore par deux en 1979 ! En France, en 1981, l’inflation a atteint 16 %, tandis que 5 % du Produit Intérieur Brut (PIB) était consacré aux importations de pétrole. Le contre-choc de 1986 provient de la réaction des grands pays consommateurs, qui ont compris dès 1973 le risque couru : ils ont alors fait des efforts d’économie de pétrole et entrepris de lui substituer d’autres sources d’énergie. La France a par exemple remplacé le pétrole par le nucléaire pour produire l’électricité, tandis que la plupart des autres grands pays européens et les États-Unis ont eu pour cela recours surtout au charbon et/ou au gaz naturel, dont ils avaient des réserves importantes. D’autre part, de grands efforts d’exploration ont été faits par les pays NOPEP, qui ont conduit à la découverte

70

La crise pétrolière

de nombreux gisements. C’est donc la diminution de la demande de pétrole adressée à l’OPEP et l’augmentation importante de la production NOPEP qui ont fait baisser durablement les prix. Les hausses ayant accompagné les guerres du Golfe sont dues à des achats de précaution des pays consommateurs, qui ont craint de manquer de pétrole, et à la spéculation sur ces craintes. La crise asiatique est appelée ainsi parce qu’elle s’est déclenchée dans des pays asiatiques dont les banques avaient accordé des créances douteuses, qu’elles ne pouvaient plus recouvrer. Ce mécanisme est le même que celui qui entraîne en ce moment le monde entier dans la crise bancaire connue sous le nom de crise des subprimes. Celle-ci a en effet son origine dans l’accumulation de créances accordées par les banques aux ménages américains pour acheter des maisons. Ces créances étaient gagées par des prises d’hypothèques sur la valeur de ces maisons, sans cesse croissante tant que le marché était à la hausse. Elles ont été masquées dans le bilan des banques par un mécanisme crapuleux dit de titrisation5. L’impossibilité pour les ménages de rembourser des dettes devenues trop importantes, faute d’une croissance suffisante de leur revenu, a été le déclencheur de cette crise, qui s’est transformée en une crise générale du crédit à l’échelle mondiale. Si la hausse des prix du pétrole n’est pas la cause initiale de cette crise, qui est une conséquence d’un découplage croissant entre l’économie financière et l’économie réelle, elle en a accéléré le déclenchement : en effet, elle a provoqué un transfert très rapide et très important de richesse de pays très consommateurs, dont le fonctionnement de l’économie reposait pour certains, au premier rang desquels les États-Unis, sur un usage immodéré du crédit, vers des pays producteurs à très fort taux d’épargne. Ces derniers, qui ne pouvaient faire des investissements à la hauteur de ces sommes sur leur marché intérieur, ont cherché à faire fructifier cette épargne en la plaçant dans les banques des pays consommateurs. Ces dernières ont donc pu disposer de sommes considérables, qu’elles ont placées en créances qui ne pouvaient être remboursables qu’à condition qu’une croissance importante du PIB des pays débiteurs permette de le faire. Mais la croissance de ce PIB a été pratiquement enrayée par l’augmentation brutale du prix du pétrole. La crise asiatique a entraîné une récession à l’échelle mondiale pendant deux ans environ et une diminution de la consommation de pétrole. Un désaccord 5

Ce mécanisme consiste à incorporer une petite proportion de créances douteuses dans des titres bancaires qui ont dans un premier temps de forts rendements. Ils sont donc très attractifs pour les « investisseurs », mais leur caractère très risqué est difficile à détecter.

Bernard Durand

71

au sein de l’OPEP avait empêché celle-ci d’anticiper cette récession et de maintenir les prix par réduction de l’offre. La crise des subprimes, par la récession mondiale qu’elle apporte bien plus importante que lors de la crise asiatique et sans doute plus durable, car la première économie du monde, les États-Unis, est cette fois durement touchée, entraîne une baisse des cours, surtout parce que les « investisseurs » sont obligés de vendre leurs achats spéculatifs pour se procurer des liquidités, mais aussi bien sûr parce que la demande diminue. Mais l’OPEP, instruite par l’expérience, ne laissera sans doute pas très longtemps filer autant ceux-ci qu’elle l’a fait lors de la crise asiatique, et réduira sans doute sa production de manière importante.

2.3. Les rôles de la spéculation et du cours du dollar dans la fixation des prix La spéculation joue un rôle important dans la fixation des prix du pétrole, dont elle amplifie les hausses et les baisses en en tirant bénéfice. De plus, comme c’est le cas des autres matières premières, le pétrole a servi dans un premier temps de valeur refuge aux « investisseurs », dans un contexte où les marchés boursiers étaient orientés à la baisse et où les placements en actions présentaient un risque important de dépréciation. Cela a induit une demande artificielle sur le pétrole et fait donc monter encore plus les prix. Mais avec la crise économique, ces investisseurs se débarrassent maintenant de leurs achats en matières premières, faisant ainsi baisser très fortement les prix, parce qu’ils ont besoin de liquidités (cash). C’est pourtant une erreur de raisonnement de croire que l’augmentation des prix du pétrole qui vient d’être observée a eu essentiellement comme moteur la spéculation, à moins d’inclure les producteurs eux-mêmes dans les spéculateurs. Car le phénomène spéculatif est indissociable du fonctionnement actuel des marchés, et il est pris en compte par ceux qui règlent en définitive le niveau des prix par les quantités de pétrole qu’ils offrent en fonction de la demande, c’est-à-dire les producteurs de pétrole de l’OPEP. C’est la difficulté physique que ces derniers ont de faire croître l’offre au rythme de la demande, ou les restrictions volontaires qu’ils apportent à leur production, qui sont les causes premières de l’augmentation des prix, et non la spéculation. Celle-ci se contente de prélever une dîme, jusqu’à 40 dollars par baril prétendent certains, sur les fluctuations des prix de marché, à la hausse comme à la baisse, et on comprend que les pays producteurs préféreraient encaisser cette dîme plutôt

72

La crise pétrolière

que de la laisser aux spéculateurs. Il est sûr en tous cas que la spéculation n’aurait jamais pu à elle seule provoquer l’augmentation rapide et presque continue des prix du pétrole que nous avons connu de 2003 à 2008. Le cours du dollar a également un effet sur les prix, car le pétrole est payé aux pays producteurs en dollars. Ceux-ci se prémunissent dans la mesure du possible contre la chute du dollar par une restriction de l’offre, de manière à provoquer une hausse compensatoire des prix. La hausse de l’euro, qui est dans une large mesure la contrepartie de la baisse du dollar, atténue dans une certaine mesure les effets de cette hausse pour les consommateurs de la zone euro. Mais les producteurs intègrent aussi cette donnée dans leur stratégie, car la zone euro consomme à peu près autant de pétrole que les États-Unis. La protection que procure l’euro est donc toute relative ! Nous allons voir que, contrairement aux fluctuations précédentes, la hausse constatée de 2003 à 2008 n’a été due que secondairement à la situation économique et politique mondiale. Le phénomène principal a été l’apparition d’un fait nouveau : depuis quelques années, les pays producteurs ont dû faire face à la difficulté croissante d’ajuster le rythme de leur production à l’augmentation de la demande (figure 2.4). 91 89

Millions de barils/jour

87 85 83 81 79 77 73

2000 T1 2000 T2 2000 T3 2000 T4 2001 T1 2001 T2 2001 T3 2001 T4 2002 T1 2002 T2 2002 T3 2002 T4 2003 T1 2003 T2 2003 T3 2003 T4 2004 T1 2004 T2 2004 T3 2004 T4 2005 T1 2005 T2 2005 T3 2005 T4 2006 T1 2006 T2 2006 T3 2006 T4 2007 T1 2007 T2 2007 T3 2007 T4 2008 T1 2008 T2 2008 T3 2008 T4

75

Figure 2.4. Fluctuations de la production (en trait pein) et de la demande (en tiretés) de pétrole, constatées de 2000 à 2007, estimées de 2007 à 2008. On constate les difficultés de l’ajustement de la production à la consommation et donc de reconstitution des stocks tout au cours de cette période. La production inclut la production de pétroles artificiels tels que ceux dérivés du charbon et du gaz, et des biocarburants (voir le chapitre 3). (D’après l’Energy Information Administration, EIA.)

Bernard Durand

73

La crise financière fait, mais pour un temps, baisser la demande et donc les prix, comme cela a été le cas, avec moins d’ampleur, lors de la crise asiatique. Mais nous approchons aussi du moment où le rythme de la production sera obligé de décroître pour des raisons physiques sur lesquelles l’homme n’aura pas de prise ! Pour bien faire comprendre tout cela, il faut tout d’abord expliquer ce que l’on sait des réserves de pétrole et de leurs limites.

3. Que sait-on des réserves de pétrole et de gaz ? 3.1. Qu’appelle-t-on réserves ? Établissons tout d’abord la distinction entre réserves et ressources. Les ressources de pétrole sont les quantités totales de pétrole qui sont accumulées dans les gisements déjà connus et dans ceux qui sont encore à découvrir. Mais ces quantités, appelées aussi quantités de pétrole en place, ne sont pas exactement connues, ne serait-ce que parce qu’une partie se trouve dans des gisements encore inconnus, mais aussi pour des raisons exposées plus loin. D’autre part, une partie seulement en est exploitable car : – le coût d’exploitation peut être trop élevé par rapport au prix du marché ; – les quantités d’énergie nécessaires à cette exploitation peuvent être prohibitives ; or des ressources énergétiques n’ont aucun intérêt si les quantités d’énergies nécessaires pour les mettre sur le marché sont supérieures à l’énergie qu’elles contiennent ; à quoi sert en effet de produire un baril de pétrole s’il faut l’équivalent de deux barils pour cela ? – il est physiquement impossible d’extraire la totalité du pétrole en place. C’est pourquoi il ne faut prendre en considération que les réserves de pétrole, qui sont des ressources accessibles avec les technologies et aux prix de marché du moment. Ces réserves peuvent évoluer dans le temps en fonction de l’évolution des technologies d’exploitation et de celle des prix de marché et des taxes, ainsi bien sûr que de la découverte de nouveaux gisements. Elles ne peuvent être connues qu’avec une marge importante d’incertitude, marge qui peut jouer en notre faveur, mais aussi en notre défaveur. Pour comprendre les raisons de ces incertitudes, il faut savoir comment le montant des réserves est estimé et pour cela considérons tout d’abord la figure 2.5. Si un gisement de pétrole a été détecté, c’est en général en forant une structure du sous-sol qui a été « vue » par des méthodes sismiques, puis reconnue par un ou deux forages de découverte (figure 2.5 en haut). Les méthodes sismiques

74

La crise pétrolière

réalisent une « échographie » du sous-sol et permettent donc de se faire une première idée des dimensions et de la géométrie du gisement. Une bonne connaissance de la géologie locale permet d’affiner ces informations. Les données recueillies lors des forages de découverte donnent une première idée de l’importance du contenu, en particulier l’épaisseur des zones traversées qui sont imprégnées de pétrole, et son débit lors d’essais de production. Mais on comprend bien qu’il s’agit là de méthodes qui ne donneront jamais qu’une estimation très approximative des quantités de pétrole en place. Pour préciser l’estimation, il faut recourir à des forages de délinéation (figure 2.5 en bas). On comprend immédiatement sur cette figure que selon le nombre de forages effectués, et l’idée que l’on se fait de la structure géologique du gisement, l’estimation des quantités de pétrole en place peut être extrêmement différente. Or on ne peut pas multiplier indéfiniment les forages, qui coûtent extrêmement cher. Et il faut prendre la décision d’exploiter ou non le gisement ! Il faut donc faire une estimation du contenu du gisement à partir des informations disponibles. Les données recueillies par forage ne donnant qu’une représentation très locale du gisement. Cette estimation ne peut se faire que par une extrapolation par des méthodes statistiques utilisant les données disponibles de toute nature et un modèle géologique du gisement. Par nature, ces méthodes statistiques ne peuvent que définir des probabilités d’existence et ont une marge d’incertitude, qui diminue avec le nombre de forages réalisés et de données recueillies. Une fois les quantités de pétrole en place estimées, il faut les affecter d’un taux de récupération, compte tenu des technologies disponibles, coefficient qui n’est bien sûr pas le même pour tous les compartiments du gisement, de manière à estimer le contenu récupérable. Une première estimation des réserves est donc la somme des produits de l’estimation des quantités en place par l’estimation des taux de récupération pour chaque compartiment. Il faut bien entendu, pour passer à l’estimation réaliste des réserves, ne considérer que les quantités dont le coût d’extraction, augmenté des taxes, du prix de transport et des bénéfices est inférieur au prix du marché. Finalement, le contenu récupérable d’un gisement dans des conditions économiques n’est connu avec une bonne précision que lorsqu’il a été complètement exploité.

Bernard Durand

75

Figure 2.5. Deux interprétations géométriques de la forme de corps gréseux et de leurs porosités, selon que leur ensemble a été reconnu par deux forages (en haut) ou neuf forages (en bas). Après avoir réalisé ces neuf forages, on dispose aussi d’un modèle géologique de cette répartition parce que l’on a compris le mode de dépôt des corps gréseux, ce qui permet de mieux reconstituer la forme de ces corps. Mais on comprend bien qu’il reste une marge d’incertitude, qui pourrait être diminuée grâce à de nouveaux forages ! Il s’agit là d’un ensemble se trouvant à faible profondeur, mais il est transposable à la répartition de corps gréseux situés à plus grande profondeur et contenant du pétrole. Les plus grandes quantités de pétrole pourraient alors se trouver dans les zones en noir, qui ont la plus forte porosité. Cette figure montre des différences considérables de la géométrie des corps poreux entre les deux interprétations : cela se traduirait dans le cas d’un gisement de pétrole par un écart considérable dans les estimations de réserves. Elle montre aussi l’importance de l’expertise géologique pour faire de bonnes estimations. (Courtoisie C. Ravenne, Institut français du pétrole.)

76

La crise pétrolière

On distingue différentes classes de réserves en fonction de leur probabilité d’existence : – les réserves 1P, dites encore P90 ou réserves prouvées, qui sont les quantités dont la probabilité que les quantités récupérées soient supérieures aux quantités estimées est supérieure à 90 % ; – les réserves 2P ou P50, pour lesquelles cette probabilité n’est que de 50 %, et dont les quantités sont donc supérieures aux réserves prouvées ; – les réserves 3P ou P10, pour lesquelles cette probabilité n’est que de 10 %, et dont les quantités sont donc supérieures aux réserves 2P. Au cours de l’exploitation, on réévalue constamment les réserves initiales du gisement en fonction des quantités déjà exploitées, de l’évolution des technologies et de celle des prix du marché. Il faut bien entendu faire cette réévaluation par les mêmes méthodes statistiques et la rapporter à l’année de la découverte ou de la mise en exploitation du gisement, en intégrant toutes les données recueillies pendant la vie du gisement. C’est ce qu’on appelle l’actualisation des réserves (en anglais back-dating). Sinon, on aboutira à une addition avec des réserves déjà comptabilisées et donc une augmentation continuelle des réserves. Cette augmentation est illusoire, car elle n’a pas de réalité physique. Il faut ensuite déduire les quantités déjà produites pour estimer les réserves restantes. Ceci ne tient évidemment pas compte des gisements encore à découvrir, pour lesquels aucune estimation de ce type ne peut évidemment être faite. Les réserves dites prouvées, qui sont celles qui font l’objet des statistiques officielles, ne concernent donc que les gisements déjà connus. Les évaluations des réserves des gisements encore à découvrir font l’objet d’autres méthodes, trop longues à expliquer ici. Elles sont forcément encore plus imprécises. Plus simplement, on peut distinguer pour un gisement, pour une province pétrolière, pour un pays ou pour le monde, les réserves prouvées qui sont celles des gisements connus, et les réserves à découvrir qui proviendront : – de la découverte de nouveaux compartiments ou de satellites de gisements déjà connus ; – de gisements encore à découvrir dans des zones nouvelles. Ces réserves à découvrir deviendront progressivement des réserves prouvées. La plus grande partie des quantités de pétrole en place dans les gisements est destinée à y rester. En effet, des forces considérables de capillarité et d’adhésion

Bernard Durand

77

aux minéraux des réservoirs s’opposent à l’extraction, et l’énergie qui serait nécessaire pour extraire tout le pétrole en place serait bien plus grande que l’énergie qu’il contient. D’autre part, la géologie de certains gisements fait qu’une partie de leur contenu est inaccessible. Le rapport des quantités récupérées en fin d’exploitation aux quantités initialement en place s’appelle, comme on l’a vu, le taux de récupération. Il est très variable selon les gisements, de 10 à 80 % environ selon la géologie des gisements. On cite en général une moyenne de 35 %, mais cette valeur n’est qu’indicative étant donné la variété des situations et des modes de calcul possibles, et de l’incertitude sur les quantités de pétrole en place. Le taux de récupération s’est notablement amélioré au cours du temps grâce au progrès technologique, mais ne s’améliorera que lentement maintenant, contrairement à ce qui est régulièrement annoncé, sauf dans les pays où les technologies de production modernes sont encore peu développées. En effet, c’est la géologie du gisement qui gouverne pour l’essentiel le taux de récupération final et l’homme ne peut rien changer à cette géologie. Et l’augmentation du taux de récupération, s’il permet sur le moment une augmentation de la production, n’augmente pas toujours les réserves. Il se traduit bien souvent par un déclin plus rapide de la production un peu plus tard. Ces faits sont mal compris des non-spécialistes, et en particulier des économistes, dont beaucoup semblent penser qu’il suffira d’y mettre le prix pour faire croître régulièrement chaque année le taux de récupération, par analogie avec ce qui se passe pour les gisements métalliques. Or, pour les raisons exposées plus haut, l’augmentation des prix, au-delà d’un seuil qui a été largement dépassé, a beaucoup moins d’influence sur l’augmentation des réserves d’un gisement de pétrole que sur celles d’un gisement métallique, pour lequel il est possible d’exploiter des teneurs plus faibles quand les prix augmentent, tandis que la notion de teneur n’a de sens pour un gisement de pétrole que lorsqu’il s’agit d’une exploitation à ciel ouvert, comme c’est le cas par exemple d’une partie des bitumes du Canada. Mais l’essentiel des réserves de pétrole est exploitée par pompage à partir de forages : ce sont les caractéristiques physiques du pétrole et du milieu poreux où il se trouve, et la mécanique des fluides en milieu poreux, qui gouvernent pour l’essentiel les possibilités d’extraction. Et, malgré la formidable augmentation des prix que nous avons connue en quelques années, on constate effectivement que le déclin des provinces pétrolières en fin de vie n’a pas été enrayé. Le discours si souvent entendu selon lequel il suffirait chaque année d’une augmentation de 1 % du taux de récupération des gisements connus pour produire

78

La crise pétrolière

une quantité supplémentaire équivalente à un ou deux ans de la production mondiale est certes mathématiquement correct, mais n’a pas de sens physique. On entend également souvent dire que l’augmentation actuelle des prix va permettre la mise en exploitation de gisements déjà connus, mais qui étaient jusqu’alors trop coûteux à exploiter. C’est vrai, dans la mesure cependant où il ne faudra pas plus d’énergie pour produire ces gisements que l’énergie que l’on peut en extraire. Mais les augmentations de réserves que cela permettra sont très limitées, car, à l’exception des gisements de sables bitumineux canadiens exploitables en carrière, il s’agit de petits gisements dont le contenu est au total faible. D’autre part, on tire d’autant plus de pétrole d’un gisement qu’on le tire lentement. Or on cherche actuellement à le tirer de plus en plus vite pour rentabiliser les investissements et augmenter les profits, ce qui annule une partie du bénéfice de l’augmentation des taux de récupération. Il ne faut donc que peu compter maintenant sur les progrès technologiques et sur l’augmentation des prix pour faire croître les réserves prouvées d’un gisement de pétrole ! Les forces qui s’opposent à l’extraction sont beaucoup plus faibles dans le cas d’un gisement de gaz, dont le taux moyen de récupération est de l’ordre de 80 %. Mais, contrairement au pétrole, ce taux ne peut guère être amélioré par des progrès techniques. Le progrès technologique ne peut donc permettre pratiquement aucune augmentation des réserves prouvées d’un gisement de gaz en exploitation ! Un élément très important pour l’avenir est la vitesse à laquelle les réserves peuvent être extraites, que l’on peut exprimer par la proportion des réserves extraite chaque année du gisement, appelée ici capacité de production. Cette capacité est fonction des caractéristiques du gisement, mais aussi des investissements qui ont été réalisés pour le produire. Elle varie actuellement entre 1 % et 10 % environ. En d’autres termes, on met de 10 à 100 ans pour « vider » un gisement de ses réserves. Mais elle est plus proche de 10 ans que de 100 ans pour les gisements récemment mis en exploitation. En effet, la lourdeur des investissements et les exigences de rentabilité sont devenues telles qu’il est nécessaire de vider aussi vite que possible le gisement pour obtenir la rentabilité demandée par les marchés financiers. La connaissance de ces capacités de production, c’est-à-dire du débit des « robinets » qui approvisionnent le monde en pétrole, est un élément essentiel du débat actuel sur l’avenir du pétrole. Le problème central est que les gisements actuellement en exploitation ont dans leur grande majorité atteint le

Bernard Durand

79

maximum possible de leur débit ou sont déjà en déclin. Pour accroître la production, ou du moins la maintenir, il faudrait que les débits des gisements connus mais pas encore en production, ou ceux des gisements encore à découvrir, puissent compenser ce déclin. L’avis de la très grande majorité des experts est que cela ne sera pas le cas.

3.2. Quel est l’ordre de grandeur des réserves ? Le montant des réserves de pétrole n’est pas connu exactement, on vient de le voir, pour des raisons physiques (figure 2.6). Mais il l’est aussi pour des raisons politiques. Les déclarations de réserves prouvées que la Security and Exchange Commission (SEC), le gendarme de la Bourse de New York, impose aux compagnies qui y sont cotées, sont supérieures à la réalité parce que tous les acteurs de la saga pétrolière veulent se faire plus beaux qu’ils ne le sont pour des raisons diverses : les compagnies pétrolières pour rassurer leurs actionnaires, faire monter le prix de leurs actions en bourse ou faire des emprunts ; les organisations internationales pour ne pas inquiéter les consommateurs et faire tourner la machinerie économique mondiale, mais aussi parce qu’elles dépendent des gouvernements pour leur financement. Un exemple classique de « trucage » consiste à rapporter les réévaluations de réserves non pas à l’année de mise en production du gisement, mais à l’année de la réévaluation, alors que cette réévaluation devrait être toujours « actualisée » à l’année de mise en production. Sans cette actualisation, on aboutit comme on l’a dit plus haut à des valeurs de réserves qui paraissent croître continuellement ! Les économistes, qui n’ont guère de connaissances dans ce domaine, utilisent généralement ces données, les seules à être déclarées, que l’on peut qualifier de politiques. Les gouvernements des grands pays producteurs, qui ont aussi les plus grandes réserves, truquent également les données : un exemple classique est celui des pays de l’OPEP, où les quotas de production sont attribués en fonction des réserves. En 1990 et 1991, ces réserves ont été révisées beaucoup plus en raison d’un bras de fer entre ces pays pour obtenir le quota le plus favorable qu’en fonction des réalités physiques. Et l’on observe effectivement que depuis, les déclarations de réserves sont restées identiques, alors qu’une grande partie du pétrole des gisements connus a été extraite, et qu’il y a eu très peu de nouvelles découvertes. Ces mauvaises manières sont dénoncées régulièrement par des géologues pétroliers, par exemple ceux qui ont fondé l’Association for the Study of

80

La crise pétrolière

Peak Oil and Gas (ASPO, www.aspofrance.org). Certains d’entre eux, appartenant souvent à de grands groupes pétroliers, ont patiemment collecté pendant des années les données physiques disponibles sur les gisements et ont pu arriver à des estimations des réserves restantes dans les gisements connus plus réalistes que les données politiques sur lesquelles raisonnent les gouvernements et les grandes organisations internationales. Selon la figure 2.6, les réserves de pétrole conventionnel et de LGN restant à exploiter dans les gisements connus diminuent en fait depuis 1980, et sont actuellement d’environ 125 milliards de tonnes, à comparer avec une consommation qui a été en 2007 de 3,9 milliards de tonnes. Mais il faut y ajouter les réserves de pétrole non conventionnel, huiles lourdes et asphaltes en particulier, les quantités que l’on peut espérer produire avec les progrès du taux de récupération et celles contenues dans les gisements à découvrir. On arrive ainsi à environ 160 milliards de tonnes. Si l’on tient compte de l’incertitude qui existe sur le calcul des réserves, on peut estimer que les réserves qui nous restent à exploiter sont comprises entre 140 et 180 milliards de tonnes, soit entre 35 et 45 années de la consommation annuelle actuelle. Le cas des réserves des gisements d’asphaltes canadiens est intéressant à observer : certains annoncent jusqu’à 20 milliards de tonnes de réserves. Mais ces estimations ne tiennent pas compte par exemple du fait que pour extraire ces bitumes, il faut d’abord les réchauffer avec de la vapeur d’eau pour en diminuer la viscosité, et que pour cela on utilise actuellement de grandes quantités de gaz, dont il faudrait déduire l’énergie de l’énergie récupérable des bitumes pour connaître le bilan énergétique réel de l’opération. Bien d’autres opérations sont nécessaires à la production de produits pétroliers commercialisables à partir de ces bitumes, opérations qui sont consommatrices d’énergie ! Considérées du point de vue du bilan énergétique net, les réserves de bitumes ne dépassent probablement pas 4 à 5 milliards de tonnes-équivalent-pétrole (tep), et ces bitumes contribuent actuellement beaucoup moins à la production mondiale d’énergie qu’il n’apparaît dans les bilans officiels ! Une autre limitation est la quantité d’eau qui est nécessaire à la production de vapeur et au nettoyage des installations, sans parler des problèmes environnementaux que cela entraîne ! Quant aux réserves encore à découvrir, même s’il est très incertain d’en anticiper les quantités, elles sont très probablement bien moins importantes que les réserves connues. En effet, on constate que les nouvelles réserves découvertes par l’exploration diminuent en année moyenne depuis 1965 et que le

Bernard Durand

81

Figure 2.6. Comparaison des estimations de réserves réelles restantes (2P actualisées) de pétrole conventionnel et de pétrole extrait du gaz naturel (LGN), les huiles lourdes et les asphaltes étant exclus, et des déclarations de réserves prouvées, y compris cette fois les huiles lourdes et les asphaltes. Cette courbe met en évidence deux « trucages » parmi d’autres dans les déclarations de réserves prouvées (d’après J. Laherrère) : 1- L’augmentation pour des raisons politiques des réserves prouvées du Moyen-Orient : elle correspond à un bras de fer entre les membres de l’OPEP pour obtenir les quotas de production les plus élevés possibles sur la base de leurs réserves « prouvées ». 2- L’ajout récent d’asphaltes des gisements canadiens qui sont beaucoup plus proches d’un bitume routier que d’un pétrole courant. Ces asphaltes demandent beaucoup d’énergie pour être exploitées et produiront moins de coupes pétrolières utilisables qu’un pétrole conventionnel ! Il faudrait pour rester cohérent diviser par deux les quantités annoncées. On voit sur cette figure qu’en ce qui concerne le pétrole conventionnel (en excluant donc les asphaltes des réserves prouvées) les déclarations de réserves prouvées ont dépassé l’estimation des réserves 2P actualisées, qui leur sont pourtant supérieures par définition, dès 1995 ! cumul de ces nouvelles réserves avec les réactualisations des réserves des gisements en exploitation est maintenant devenu très largement inférieur à la consommation (figure 2.7).

82

La crise pétrolière

Figure 2.7. Quantités de pétrole découvertes annuellement de 1900 à 2008 (courbe noire), en milliards de barils, et consommation de pétrole (courbe grise) pendant la même période, en millions de barils par jour. Bien noter qu’il ne s’agit ici que du pétrole conventionnel, qui ne comprend donc ni les huiles extralourdes, ni les asphaltes des sables bitumineux, ni les liquides de gaz naturel. Depuis 1980, les nouvelles découvertes ont représenté en année moyenne une partie de plus en plus faible de la consommation. Les courbes en pointillés représentent, pour les découvertes, les prévisions de découverte en année moyenne, et pour la production, les prévisions d’évolution, pour des réserves ultimes (pétrole déjà consommé + réserves prouvées + réserves à découvrir) de 2000 milliards de barils, soit 273 milliards de tonnes. (D’après Laherrère et Wingert, 2008.)

L’estimation moyenne des réserves de gaz est de 180 000 milliards de m 3, ce qui représente en contenu énergétique 150 milliards de tonnes d’équivalent pétrole (150 Gtep), soit des quantités très voisines des estimations faites pour le pétrole. Mais la consommation de gaz naturel étant sensiblement plus faible que celle de pétrole, les réserves de gaz devraient durer un peu plus longtemps que celles de pétrole si cette situation se maintient.

Bernard Durand

83

3.3. Où se trouvent les réserves ? Les trois quarts des réserves prouvées de pétrole conventionnel contenues dans les gisements actuellement connus se trouvent dans neufs pays, dont un seul, la Russie, n’appartient pas à l’OPEP. La répartition entre pays OPEP (figure 2.8) et pays NOPEP est d’environ 70 % et 30 %. Les pays du MoyenOrient, OPEP (Arabie saoudite, Iran, Irak, Koweït, Émirats arabes unis) et NOPEP (Syrie, Oman, Yémen…) possèdent 60 % des réserves.

Figure 2.8. Les neuf pays possédant 75 % des réserves de pétrole, et le montant de leurs réserves en milliards de barils. (Courtoisie Y. Mathieu, Institut français du pétrole.)

Outre la Russie et certains pays de l’ex-Union soviétique (Azerbaïdjan, Kazakhstan), les grands pays NOPEP sont : les États-Unis, le Mexique, la Chine, le Canada, la Norvège, le Royaume-Uni et maintenant le Brésil, qui a fait ces dernières années des découvertes substantielles. Comme pour toutes les réserves de matières premières, l’essentiel d’entre elles se trouve dans un petit nombre de gisements : c’est ainsi que 50 % des réserves initialement contenues dans les gisements de pétrole conventionnel se trouvaient dans seulement 53 gisements sur un total de plus de 12 000 gisements connus (tableau 2.10).

84

La crise pétrolière

Tableau 2.10. Répartition des réserves initiales (Q champ) en fonction du nombre de champs, en millions de barils (Mb), et réserves initialement contenues, en milliards de barils. (Courtoisie X. Chavanne ; source, IHS Energy.) Nombre Qchamp moyen Réserve Part de la de champs par champ en Mb initiale totale réserve mondiale Plus de 5000 Mb 53 16 500 875 50 % Entre 5000 et 2000 119 3 100 175 10 % Entre 2200 et 1000 119 1 475 175 10 % Entre 1000 et 383 298 585 175 10 % Entre 383 et 130 800 585 175 10 % Moins de 130 11150 15,5 175 10 % Gamme de Qchamp

15 % des réserves mondiales de pétrole se trouvaient initialement dans seulement cinq champs, tous découverts avant 1970, par ordre d’importance décroissante de leurs réserves restantes : Ghawar en Arabie saoudite, Greater Burgan au Koweït, Safaniya en Arabie saoudite, Samotlor en Russie et Ahwaz en Iran. Leur production a représenté en 2007 11 % de la production mondiale. Les réserves restantes de gaz se trouvent à 60 % dans seulement quatre pays, la Russie, l’Iran, le Qatar et l’Arabie saoudite, et à 80 % dans 13 pays (figure 2.9).

3.4. Comment les réserves évoluent-elles au cours du temps ? Les gisements d’une substance exploitée ne sont bien sûr pas éternels ! Les quantités qu’ils contiennent étant finies, les quantités restant à exploiter diminuent forcément au fur et à mesure de l’exploitation. Cependant, au début de l’exploitation d’un gisement, les réserves prouvées, comme les réserves à découvrir, augmentent, à cause des progrès effectués dans la connaissance de la structure géologique du gisement et des progrès des techniques d’exploitation. Puis les réserves à découvrir diminuent, pendant que les réserves prouvées continuent d’augmenter et que se multiplient les sites d’exploitation. Enfin, réserves prouvées et réserves à découvrir diminuent simultanément. Dans la dernière phase, qui est celle du déclin, la production est obligée de diminuer malgré tous les progrès technologiques. Cela ne signifie pas que le gisement a été entièrement vidé de son contenu, mais que la vitesse à laquelle les réserves restantes peuvent être exploitées diminue.

Bernard Durand

85

Figure 2.9. Pays possédant les plus grandes réserves de gaz et montant de leurs réserves en milliards de m3. De ces pays, un seul se trouve en Europe de l’Ouest, la Norvège. (Courtoisie Y. Mathieu, Institut français du pétrole.) Pour expliquer de manière imagée comment la vitesse de production d’une substance utile augmente puis décroît avec le temps, nous ferons la comparaison avec l’extraction de la chair d’un crabe : le mangeur commence par les pinces, d’où il extrait rapidement une grande quantité de chair avec peu d’efforts. Puis il passe aux pattes, pour lesquelles la vitesse d’extraction est plus faible. Mais pour extraire la chair du corps, où se trouve en fait la moitié de la chair, il lui faut faire de plus en plus d’efforts et utiliser des instruments de plus en plus compliqués pour obtenir des quantités qui sont de plus en plus faibles par unité de temps. Et bien qu’il reste encore un peu de chair, la vitesse de l’extraction finit par devenir si faible et si peu rentable que le mangeur abandonne la partie. La production annuelle commence donc par augmenter lentement, puis s’accélère. Quels que soient le rythme de production et les technologies mises en œuvre, elle finit un jour par connaître un pic, bien avant que le gisement soit totalement épuisé, puis décline (figure 2.10).

86

La crise pétrolière

Figure 2.10. Évolution au cours du temps des réserves et de la production d’une substance utile : réserves ultimes, réserves à découvrir, réserves prouvées, production cumulée, production annuelle. La production annuelle est indiquée à une échelle plus grande que celle des autres catégories. Un exemple en France est celui de la production de charbon (figure 2.11). Celui-ci a commencé vers 1750 à remplacer dans les forges le bois de feu et le charbon de bois, qui commençaient à manquer. Sa production s’est amplifiée avec le développement de la civilisation industrielle et l’invention de la machine à vapeur. Une meilleure connaissance des gisements connus, la découverte de nouveaux gisements, l’accroissement de la productivité due en particulier à la mécanisation ont permis une croissance rapide de la production. Elle n’en a pas moins connu un maximum en 1958, suivi d’un déclin rapide. L’activité a complètement cessé fin 2005. Un exemple pétrolier en Europe est celui de l’évolution de la production de la mer du Nord, principale province pétrolière d’Europe occidentale (figure 2.12). Cette production a connu une croissance très rapide à partir de 1975, portée par les extensions de gisements, la découverte de nouveaux gisements et les progrès technologiques, malgré une pause en 1988 due à un blow-out6 d’un

6

Un blow-out est l’expulsion violente hors d’un forage d’une partie des fluides d’un gisement se trouvant à une pression anormalement élevée, qui n’a pas pu être compensée à temps par une augmentation de la densité de la boue de forage.

Bernard Durand

87

Figure 2.11. Historique de la production de charbon en France. Le pic de production a été atteint en 1958 avec un tonnage d’un peu moins de 60 millions de tonnes, soit l’équivalent énergétique d’environ 40 Mtep. Le déclin a duré un peu moins de 50 ans, avec un léger ralentissement dû au premier choc pétrolier en 1973. (D’après B. Durand, 2008.) forage sur le gisement de Piper, qui a entraîné l’incendie de la plateforme Piper-Alpha en mer du Nord britannique. Ce blow-out, provoqué par une erreur humaine, a entraîné une chute de pression dans le gisement de Piper et la nécessité de le repressuriser pour en continuer l’exploitation7. La production est entrée dans sa phase de déclin en 2000, malgré la mise en œuvre des plus récentes technologies d’extraction (figure 2.12) et l’augmentation des prix du pétrole n’y a rien fait !

3.4.1. Le pic de Hubbert Il est donc certain que la production de tout gisement de pétrole passera un jour par un pic. Celui-ci se produira d’autant plus tôt que le rythme annuel de production représente une proportion plus élevée des réserves initiales. Il en résulte que la courbe de production d’un ensemble de gisements suit, avec un temps de retard, la courbe des quantités de réserves découvertes. Et puisque la 7

Ce très grave accident a causé 167 morts.

88

La crise pétrolière

Figure 2.12. Évolution au cours du temps de la production de la mer du Nord (pétrole + LGN, Royaume-Uni + Norvège) et prédiction de l’évolution de cette production pour des réserves ultimes de 63 Gb. La production, malgré tous les efforts, décline très rapidement depuis 2000. (Courtoisie J. Laherrère.) courbe de découverte des réserves mondiales est passée par un pic en 1965, la courbe de la production mondiale passera également par un pic. Mais peut-on pour autant prévoir avec précision à quelle date aura lieu ce pic ? En 1956, le géologue pétrolier américain King Hubbert, après avoir étudié les réserves et les rythmes de production des différents gisements américains, a conclu que le déclin des gisements se produisait quand environ la moitié des réserves initiales avait été produite. Il en a déduit que la production américaine de pétrole déclinerait 33 ans après l’année du maximum de découvertes de pétrole, c’est-à-dire à partir de 1970. C’est ce qui s’est produit, à deux années près, puique ce déclin a commencé en 1972 et ce géologue, déjà célèbre chez les géologues pétroliers pour ses travaux sur la circulation de l’eau et du pétrole dans les bassins sédimentaires, est devenu célèbre chez les politiciens américains. Il est très cité dans les débats actuels sur l’avenir du pétrole. La reconstitution attentive de l’histoire de la production de nombreux gisements mondiaux a confirmé dans ses grandes lignes l’analyse de Hubbert : effectivement le déclin intervient pour un gisement de pétrole quand à peu

Bernard Durand

89

près la moitié des réserves qu’il contenait initialement a été extraite. Mais ces réserves peuvent avoir dans un premier temps été sous-estimées, et s’accroître par la suite des quantités découvertes grâce à une meilleure connaissance du gisement ainsi que de celles récupérables grâce au progrès des technologies d’extraction. D’autre part, l’analyse de Hubbert a un caractère plus pragmatique que scientifique. La prévision du moment où se produira le déclin, très incertaine au début de l’exploitation, se précise donc au cours du temps. Dans un certain nombre de cas, c’est après avoir atteint le pic de production que l’on s’est rendu compte de sa réalité. Le pic intervient relativement plus tard dans le cas d’un gisement de gaz, mais il est plus brutal, car si le taux de récupération du pétrole est bien plus faible pour le pétrole que pour le gaz, il est améliorable au cours du temps grâce à la technologie, tandis que le taux de récupération d’un gisement de gaz, très important dès l’origine, ne peut sensiblement augmenter. Bien des provinces pétrolières ou même des pays tout entiers sont déjà en phase de déclin : on a vu le cas de la mer du Nord, dont la production diminue depuis 2000, et celui des États-Unis, dont la production diminue depuis 1972… C’est aussi le cas pour l’Iran, où la production décline depuis 1975. Il en est de même du Mexique, qui a atteint un pic vers 2004. La Russie, après avoir atteint un premier pic en 1988 du fait de la décroissance de consommation liée à la crise économique à partir de 1989, va incessamment atteindre un deuxième et dernier pic, lié celui-là à l’épuisement de ses gisements. Le pic de l’Arabie saoudite est annoncé pour peu avant 2030. La France, à sa modeste échelle, a connu deux pics de production, l’un à 3 millions de tonnes en 1966, correspondant aux découvertes faites principalement dans le bassin d’Aquitaine, l’autre en 1988, à 3,3 millions de tonnes, correspondant essentiellement aux découvertes faites ensuite dans le bassin Parisien. Dans ces productions sont inclus les liquides de gaz naturel (LGN) contenus pour l’essentiel dans le gisement de gaz de Lacq près de Pau. La France n’extrait plus actuellement que moins d’un million de tonnes de pétrole de son sol (figure 2.13). Observons encore que la qualité des réserves restantes diminue au cours de l’exploitation, car c’est la partie la plus légère du pétrole qui est la plus facile à extraire : le pétrole extrait en fin d’exploitation est donc plus lourd et donc de moindre valeur que celui extrait en début d’exploitation. La conséquence de ce phénomène est l’alourdissement progressif de la production mondiale.

90

La crise pétrolière

Figure 2.13. Évolution au cours du temps de la production française de pétrole et de LGN (courbe noire) en millions de barils par an. En superposition est représentée l’évolution des quantités découvertes (courbe grise) avec un décalage de sept ans, qui correspond à peu près au temps qui a été nécessaire à la mise en production des gisements découverts. Il existe une étroite corrélation entre le rythme de production et le rythme des découvertes. (D’après J. Laherrère.) Celui-ci entraîne un enchérissement des procédés de raffinage, et donc des produits de ce raffinage, carburants en particulier.

4. Vers le troisième choc pétrolier ? 4.1. Quand le Peak Oil mondial aura-t-il lieu ? Avant de débattre de cette question, soulignons que le Peak Oil, c’est-à-dire le moment où la production annuelle de pétrole sera obligée de décliner, ne concerne que le pétrole. Celui-ci est une substance naturelle, qui comprend, comme on l’a vu, le pétrole conventionnel et le pétrole non conventionnel (huiles extralourdes et asphaltes), ainsi que les hydrocarbures liquides dissous dans le gaz naturel, que l’on appelle liquides de gaz naturel (LGN, en anglais liquids of natural gas, LNG). Or des hydrocarbures liquides peuvent être pro-

Bernard Durand

91

duits artificiellement à partir de diverses substances autres que le pétrole : schistes bitumineux (huile de schistes), gaz naturel (GTL), charbon (CTL) et biomasse (BTL). L’ensemble de ces liquides est appelé XTL. Cependant, même s’il s’agit de substituts au pétrole et que l’automobiliste ne voit pas la différence lorsqu’il se sert à la pompe, il ne s’agit pas de pétrole. Nous décrirons les XTL dans la deuxième partie de cet ouvrage, et nous verrons alors s’il est possible d’en produire à un débit suffisant pour compenser le déclin progressif des quantités de pétrole produites. Cette distinction entre pétrole et « pétroles artificiels » doit rester constamment présente à l’esprit, car un certain nombre de malentendus sur l’avenir du pétrole viennent actuellement de cette confusion. Quand nous parlerons du Peak Gas, c’est également du gaz naturel qu’il s’agira, qu’il soit conventionnel ou non conventionnel, à l’exclusion des gaz produits artificiellement, comme par exemple le gaz produit par la fabrication du coke de charbon, ou le gaz produit par les aciéries (gaz de hauts-fourneaux). Les réserves pétrolières restant dans les gisements actuellement connus sont probablement comprises entre 140 et 180 milliards de tonnes (Gt). La valeur moyenne, 160 Mt, représente à peu près quarante ans de la consommation actuelle. Si la consommation mondiale continue d’augmenter au rythme moyen de 1,2 % par an, cela ramène cette durée à trente ans environ. Si les réserves sont augmentées par des découvertes significatives, quelques années peuvent être gagnées. Mais ces raisonnements sont simplistes : la production ne va pas, on l’a vu, augmenter continuellement pour s’interrompre brutalement passés ces délais ! Elle va passer, bien avant ces trente ou quarante ans, par un pic correspondant à peu près au moment où la moitié des réserves initiales actualisées aura été consommée, puis elle déclinera tout au long de ce siècle et peut-être plus. À quelle date précisément le Peak Oil qui marquera le déclin obligé de la production pétrolière mondiale, quels que soient les efforts réalisés pour la maintenir, aura-t-il lieu ? Cela dépendra des nouvelles découvertes à venir, du rythme de consommation et des augmentations de production, qui seront rendues possibles par les progrès technologiques et les investissements correspondants. Notre problème est un problème de robinet analogue à ceux qui ont fait la gloire du certificat d’études : étant donnée une baignoire initialement pleine

92

La crise pétrolière

de pétrole remplie par un robinet mais vidée plus rapidement par la bonde, à quel moment ne restera-t-il que la moitié du pétrole contenu initialement, en fonction des débits du robinet et de la bonde ? À cet égard, la figure 2.7 donne une information fondamentale : la baignoire se vide plus rapidement par la bonde qu’elle ne se remplit par le robinet depuis plus de vingt ans, et le phénomène s’accélère sans cesse. Beaucoup pourtant refusent encore de reconnaître ce fait et les conséquences qu’il va avoir sur l’économie mondiale. La date du Peak Oil et la forme exacte qu’il prendra font l’objet de nombreuses études et controverses : la grande majorité des prévisionnistes le situent maintenant entre 2010 et 2030, bien qu’il existe des « hyperoptimistes », qui l’envisagent beaucoup plus tard, et d’autres qui pensent que nous venons de l’atteindre. Les hyperoptimistes sont plutôt des économistes, qui s’imaginent que l’augmentation du prix du pétrole se traduit par une augmentation plus ou moins proportionnelle des réserves. Si cela est vrai dans une certaine mesure pour des réserves de métaux, l’uranium par exemple, car les augmentations de prix permettent de les extraire des gisements connus à partir de minerais de teneurs plus faibles, c’est inexact pour le pétrole, pour lequel la notion de teneur n’a guère de pertinence, comme nous l’avons expliqué plus haut. Il est pourtant facile d’observer que les réserves mondiales ont en fait diminué malgré l’énorme augmentation des prix qui a eu lieu depuis 2003. En mer du Nord (figure 2.12) ou en France (figure 2.13) et pour bien d’autres exemples, la production a continué de décliner inexorablement malgré les augmentations de prix. Le dogme implicite de ces économistes est qu’il existe d’incroyables quantités de « pétrole cher », c’est-à-dire de pétrole à découvrir, récupérable si l’on y met le prix. Ont-ils seulement réalisé que les augmentations de prix seront incapables de créer le moindre gisement de pétrole ou de gaz dans le sous-sol ? Les pessimistes sont plutôt des géologues pétroliers, beaucoup plus au fait de la réalité des gisements. La figure 2.14 montre le scénario de l’évolution de la production pétrolière mondiale considéré en 2006 comme le plus probable par l’Institut français du pétrole (IFP). Il est basé sur l’hypothèse d’une croissance de la demande mondiale, qui devrait maintenant atteindre 1,5 % par an en année moyenne jusqu’au Peak Oil, mais en l’absence de crise économique majeure (le cas de la crise économique actuelle sera traité dans la deuxième partie). Cette production inclut les pétroles conventionnels, les liquides de gaz naturels (LGN), ainsi que la contribution attendue des réserves supplémentaires apportées par les huiles extralourdes, les asphaltes, les découvertes en zone difficile (mer profonde, zones polaires) et le progrès technologique, dont l’ensemble est désigné ici par l’appellation pétrole « high tech ».

Bernard Durand

93

Production Mb/j 120

1er scénario : probable

100 0,6 %

80

1,4 %

60

Hi

gh

Te ch

3% 40 6%

40 1070 Gbi Production cumulée fin 2004

20

2%

1070 Gbi Réserve 2005

20 0 1950 1960 1970 1980 1990 2000 2010 2020 2030 2040 2050

Production Mb/j 120

2e scénario : possible

100

ech hT

Hig

80 60 40 20

1070 Gbi Production cumulée fin 2004

1200 Gbi Réserve 2005

0 1950 1960 1970 1980 1990 2000 2010 2020 2030 2040 2050

Figure 2.14. Scénario probable de la production mondiale de pétrole avec les investissements actuels jusqu’en 2050 et scénario possible dans le cas d’investissements beaucoup plus importants, en millions de barils par jour (Mb/j). Le pétrole « high tech » est constitué du pétrole issu de la récupération assistée, de la récupération intensive, des découvertes restant à faire, des huiles extralourdes et des sables bitumineux. Il représenterait dans le cas du scénario probable des réserves d’environ 550 milliards de barils (Gb) (ou 76 Gt), et 650 milliards de barils (Gb) (ou 90 Gt) dans le cas du scénario possible. Ces scénarios supposent un accroissement annuel moyen de la demande de 1,5 % jusqu’au Peak Oil, et l’absence de crise économique majeure d’ici là, ce qui vient d’être démenti par les faits. Le cas de la crise économique est abordé dans la deuxième partie. (Courtoisie Y. Mathieu, Institut français du pétrole.) La moitié des réserves initiales réactualisées des gisements actuellement en production ayant été consommée en 2008, la production commencerait déjà à décliner si un petit répit n’était apporté par les réserves de gisements découverts ces dernières années et actuellement en cours d’équipement, ce qui permet de repousser le pic de production à 2010. Ensuite, de nouvelles réserves apportées par le pétrole high tech, découvertes en zones difficiles, production

94

La crise pétrolière

des huiles lourdes du Venezuela et des asphaltes du Canada, progrès des taux de récupération du pétrole… devraient permettre de maintenir la production à peu près au niveau de celle de 2010, soit environ 85 millions de barils par jour (4,2 Gtep) pendant une petite vingtaine d’années, avec une production en dents de scie due aux aléas des prix et des investissements. La production déclinerait inexorablement ensuite à un rythme de 2 % par an, car l’Arabie saoudite atteindrait alors son Peak Oil. La production serait ramenée en 2050 à 50 Mb/j, soit 2,4 Gt, au lieu de 4 en 2007. Un scénario possible envisagé par l’IFP, si d’énormes investissements étaient faits dans les prochaines années par les pays producteurs pour développer le pétrole high tech, est une augmentation sensible après 2010 des possibilités de production, mais à un rythme nettement plus lent qu’avant 2010, jusqu’à 100 Mb/j (5 Gtep) environ en 2030, suivie d’un déclin plus rapide que dans le scénario probable. En effet, comme on l’a signalé, le progrès technologique ne permet pas en réalité d’augmenter sensiblement les réserves, mais seulement les vitesses de production pendant quelque temps. Ces scénarios indiquent aussi quelle serait alors la production possible de carburants à partir de pétrole (à l’exclusion donc des carburants de synthèse) : dans le scénario probable, le déclin serait en 2015 de 30 % par rapport à la production actuelle ; dans le scénario possible, il ne serait que de 15 %. La figure 2.15 est le scénario proposé en 2006 par l’ASPO, qui n’est pas très différent du précédent. Il est un peu plus optimiste que celui de l’IFP pour les quantités produites jusqu’en 2010, mais il est plus pessimiste pour la suite puisqu’il prévoit que le pétrole high tech ne pourra être produit à un rythme suffisant pour compenser le déclin du pétrole. Il prévoit que les huiles extralourdes et les asphaltes vénézuéliens et canadiens, même si leur contribution relative augmentera significativement, n’atteindront pas un débit suffisant pour freiner véritablement la tendance au déclin, et que les nouvelles découvertes (pétrole polaire et gisements en mer profonde) ne joueront pas un rôle majeur. En d’autres termes, l’ASPO prévoit un véritable pic du pétrole et non un plateau comme dans le cas précédent. Observons à ce propos que jusqu’à présent les déclins constatés des provinces pétrolières se sont effectivement traduits par une décroissance rapide et non par un plateau. Le scénario de l’ASPO a aussi l’intérêt de prédire la courbe de production du gaz, conventionnel et non conventionnel (gaz des veines de charbon, gaz de réservoirs très peu perméables...). Cette production ne croîtrait plus qu’assez

Bernard Durand

95

Figure 2.15. Prévision faite en 2006 par l’ASPO de l’évolution probable de la production de pétrole et de gaz jusqu’en 2050, en milliards de barils d’équivalent pétrole. (Courtoisie J. Laherrère.) lentement après 2010 et plafonnerait vers 2025, avant de connaître une décroissance très rapide à partir de 2040. Vers où les tendances géopolitiques nous poussent-elles ? Il serait possible de reculer notablement la date du pic du pétrole en nous astreignant dès maintenant à consommer beaucoup moins de pétrole. Ce serait d’autant plus notre intérêt que la relève du pétrole dans ses utilisations actuelles par d’autres sources d’énergie n’est pas prête et ne le sera sans doute pas véritablement avant le milieu de ce siècle, comme nous le verrons dans la deuxième partie. Si nous nous refusons à le faire, nous allons dans peu de temps voir arriver un nouveau choc pétrolier, qui sera durable et sans recours cette fois. Et c’est très vraisemblablement ce qui va se passer, sous l’effet de tendances géopolitiques qui ont peu de chances de se modifier dans les années à venir, avec plusieurs facteurs en cause, décrits ci-après : – Une demande très soutenue des grands pays très peuplés dits « émergents » (Chine, Inde, Russie, Mexique, Brésil, Afrique du Sud principalement), qui ont un besoin très important de pétrole à cause de leur passage rapide à la civilisation de l’automobile.

96

La crise pétrolière

– La fuite en avant des grands pays consommateurs occidentaux, et en particulier du premier consommateur de la planète, les États-Unis, qui ne font aucun effort sérieux pour réduire leur consommation. – Le développement rapide de ceux des grands pays producteurs très peuplés qui cherchent à gérer la manne financière qui leur arrive au bénéfice de leur population : c’est le cas par exemple à des degrés divers de l’Algérie, de l’Arabie saoudite, du Brésil, de l’Iran, du Mexique, de la Russie et du Venezuela. Ils consacrent donc une partie plus importante de leur production à leurs besoins intérieurs. Et comme, pour des raisons de politique intérieure, les prix des carburants sur leurs marchés intérieurs sont très inférieurs aux prix mondiaux (tableau 2.11), cela fait exploser leur consommation et n’incite pas leurs citoyens aux économies de pétrole. Déjà dans ces pays la consommation de pétrole augmente plus rapidement qu’en Chine ou en Inde. D’autre part le souci de conserver le plus longtemps possible l’avantage que leur procure des réserves importantes poussera les pays producteurs au protectionnisme : ils bénéficient actuellement d’une rente qu’ils souhaitent aussi durable que possible. Pourquoi produire encore plus de pétrole, ce qui aura pour effet d’accélérer le déclin de leurs réserves, mais aussi de faire baisser les prix et donc leurs revenus ? Ils préfèreront donc limiter leur production, ce qui est de nature à reculer un peu la date du Peak Oil. Mais ils en réserveront aussi une part de plus en plus grande à leur consommation intérieure. Cela limitera les quantités de pétrole mises sur le marché mondial, qui amorceront donc un déclin avant que ne se produise le Peak Oil, et les prix de marché seront alors vigoureusement poussés à la hausse. Les conséquences pour les pays dépourvus de ressources comme les pays européens risquent d’être dramatiques. Il y a là toutefois pour les pays producteurs un délicat exercice d’équilibrisme, car leurs revenus dépendent de leurs ventes aux grands pays consommateurs : ils ont donc intérêt à préserver la bonne marche de l’économie mondiale. Ils chercheront donc à maintenir les prix aussi haut qu’il est possible sans étrangler la clientèle. D’autre part, ils chercheront comme maintenant à investir leurs pétrodollars excédentaires pour en tirer un revenu. Ils les placent actuellement principalement dans les banques des États-Unis, qui les redistribuent dans ce pays sous forme de crédits à la consommation. Cela peut déboucher sur une grave crise économique si les débiteurs deviennent insolvables, comme l’a démontré actuellement la crise des subprimes, qui est une crise provoquée à l’origine par l’incapacité des Américains de rembourser les emprunts contractés auprès des banques pour acheter leur maison. Et l’augmentation

Bernard Durand

97

Tableau 2.11. Prix de l’essence à la pompe dans quelques pays, en dollars par gallon, fin mars 2008. Les prix de l’essence ne pouvaient alors, sans subventions par rapport au prix de marché, être inférieurs sur le marché mondial à 3,8 dollars le gallon (un gallon vaut 3,78 litres), soit 1 dollar ou 0,65 euro par litre. Les pays pour lesquels le prix de l’essence était le moins élevé étaient des pays gros producteurs de pétrole dont les prix sur le marché intérieur dépendent plus du coût de production que du prix de marché mondial, et des pays où ce prix était subventionné pour des raisons politiques. Le champion dans ce domaine était le Venezuela, gros producteur dont les coûts de production sont en moyenne de 8 dollars par baril, ce qui correspond à un prix de revient de l’essence de 0,25 dollars par gallon, mais qui subventionne l’essence pour la rendre accessible à sa population pauvre. (Source : AIRINC.) Pays les plus chers 1 Bosnie-Herzégovine 2 Érythrée 3 Norvège 4 Royaume-Uni 5 Pays-Bas 6 Monaco 7 Islande 8 Belgique 9 France 10 Allemagne 11 États-Unis

10,86 9,58 8,73 8,38 8,37 8,31 8,28 8,22 8,07 7,86

Pays les moins chers 1 Venezuela 0,12 2 Iran 0,40 3 Arabie saoudite 0,45 4 Libye 0,50 5 Swaziland 0,54 6 Qatar 0,73 7 Bahreïn 0,81 8 Égypte 0,89 9 Koweït 0,90 10 Seychelles 0,96 3,45

très rapide des prix du pétrole a joué un rôle d’accélérateur en diminuant encore la solvabilité des emprunteurs ! Cette crise des subprimes a eu un précédent en 1997-1998 lors de la crise asiatique, provoquée elle aussi par une accumulation de crédits accordés par des banques asiatiques à des clients incapables de les rembourser, mais elle est beaucoup plus importante car elle concerne la plus importante économie de la planète. L’énormité des investissements à réaliser pour augmenter finalement de peu la production s’impose de toute façon d’ores et déjà à la grande majorité des pays producteurs. Il n’y a plus guère que l’Arabie saoudite à pouvoir augmenter encore sa production de manière significative à un coût raisonnable !

98

La crise pétrolière

Ce qui signifie que la marge de manœuvre que se réservent actuellement les pays producteurs en se refusant à augmenter leur production alors qu’ils le pourraient encore est devenue très étroite ! Avant mi-2008, l’offre n’était plus que de 1 ou 2 % au-dessus de la demande. La situation est donc très tendue, à la merci d’une rupture momentanée d’approvisionnement résultant d’un conflit local, d’une grève, ou d’un accident industriel ou climatique provoquant l’arrêt durable d’un moyen de production ou de transport important. Elle était exploitée par la spéculation qui anticipait des prix de plus en plus élevés et cela faisait automatiquement monter les prix. Or cette montée des prix, qui résultait de la forte tension sur la demande et de l’insuffisance croissante de l’offre, n’avait pas réussi avant la crise à faire décroître la consommation. Jusqu’à présent, la baisse de consommation entraînée par la crise a été faible, moins de 3 % en moyenne d’une année sur l’autre à l’échelle mondiale, même si elle a été sensiblement plus forte dans certains pays, les États-Unis en particulier. Ce qui signifie que même si la diminution annoncée de production des pays producteurs pour essayer de faire remonter les cours augmente leur marge de manœuvre pour le futur, cette marge de manœuvre va quand même rester très étroite. La demande des pays émergents et des grands pays producteurs entraînera probablement à nouveau les cours à un niveau élevé une fois passée la crise économique actuelle, sauf si se produisait un désastre à l’échelle mondiale, chose qu’il ne faut évidemment pas souhaiter. La prochaine bulle spéculative, après celle de l’immobilier américain, pourrait bien être celle du pétrole, et les effets en seraient encore plus graves ! Cette situation va aussi entraîner une compétition croissante pour l’approvisionnement en énergie, qui prendra diverses formes : on observe par exemple de la part de la Chine des efforts de séduction auprès des gouvernements des pays producteurs africains, avec des accords de troc « pétrole contre investissements en infrastructures ». Des tensions existent aux frontières ou à l’intérieur de certains pays pour l’appropriation de zones pétrolifères ou supposées l’être, ou pour le contrôle des voies d’approvisionnement : Russie/Canada pour les réserves supposées de l’océan Arctique, Chine/Vietnam et Chine/Japon pour le contrôle de gisements de pétrole sous-marin en mer de Chine, Iran/Qatar pour le partage des réserves de gaz dans le golfe Persique, conflits entre les populations du nord et du sud du Soudan et entre celles du nord et du sud du Nigéria pour l’appropriation des gisements de pétrole situés au sud de ces pays. Bras de fer entre la

Bernard Durand

99

Russie et l’Ukraine, le Turkménistan et la Géorgie, pour le contrôle des gazoducs et des oléoducs. On peut craindre un accroissement des pressions musclées des grands pays consommateurs sur les pays producteurs. Les États-Unis sont déjà installés en Irak, mais aussi, on l’oublie trop souvent, au Qatar. Compte tenu de tous ces éléments, il semble bien que sur la lancée actuelle le Peak Oil se produira dans moins de dix ans, et le Peak Gas cinq à dix ans après, à condition toutefois que la consommation de gaz ne croisse pas considérablement du fait de nouvelles utilisations, ce qui rapprocherait cette date. Cela pourrait bien se produire, comme on le verra plus loin. L’imminence du Peak Oil signifie que dans un avenir maintenant très proche, les quantités de pétrole qui pourront être mises sur le marché seront chaque année un peu plus faibles et cela de façon inéluctable car il s’agit d’un phénomène physique qu’il n’est pas dans le pouvoir des hommes de changer. Nous serons donc dans l’obligation de consommer moins et encore beaucoup plus cher car la demande potentielle deviendra alors très supérieure à l’offre possible, sauf bien sûr si d’ici là nous avons été capables de l’économiser ou de trouver des substituts au pétrole, dans des proportions très substantielles.

4.2. Quelles conséquences pour les pays grands consommateurs ? Avant même que le pic ne soit atteint, les quantités disponibles sur le marché mondial vont diminuer sensiblement, et les prix du pétrole reprendront leur augmentation. La grave crise économique actuelle n’est qu’un interlude, qui fait diminuer brutalement la demande et donc les prix, comme cela a été le cas pendant la crise asiatique. Et les prix risquent d’être rapidement bien plus élevés que mi-2008. Voici brièvement décrites les conséquences prévisibles dans les grands pays consommateurs dépourvus de ressources, s’ils s’obstinent, comme actuellement, à ne rien faire pour éloigner la date de ce pic et en diminuer l’intensité. • Pour le quotidien des personnes Grandes difficultés pour ceux qui habitent loin de leur lieu de travail et des services essentiels (médecine, éducation, alimentation). Ceci conduira à une désertification des banlieues et à une crise de l’immobilier à cause de la perte de valeur des habitations. Augmentation des prix de toutes les formes d’énergie, parce que le prix du pétrole leur sert de prix directeur. Si de 2002 à 2008 le prix du baril a été multiplié par cinq, il en est de même du prix du m3 de gaz. Le prix de l’électricité (sauf

100

La crise pétrolière

en France où il dépend peu du prix des combustibles fossiles) et celui du charbon ont été multipliés par presque trois. Le prix de l’uranium a été multiplié par six. Ces prix ont provisoirement chuté depuis mi-2008, comme celui du pétrole. Plus généralement, augmentation de tous les prix, parce que tout notre système économique repose sur de bas prix de l’énergie. L’inflation repartira, comme cela a été le cas pendant les deux premiers chocs pétroliers, les salariés voulant récupérer par des augmentations de salaires leur pouvoir d’achat érodé par l’augmentation des prix. Cela sera désastreux pour tous ceux dont les revenus ne suivront pas l’augmentation du coût de la vie, comme les retraités. Il y aura aussi transfert de consommation vers l’achat de carburants au détriment des autres biens de consommation. • Pour les transports Augmentation importante du coût du transport, conduisant à une désorganisation des plateformes industrielles et commerciales actuelles : en effet, leur fonctionnement repose sur une logistique très élaborée et le parcours de très longues distances. Cela n’est possible que grâce à un bas coût du pétrole. Le transport aérien sera le plus menacé, en l’absence actuelle de substitut crédible au pétrole pour faire voler les avions. • Pour l’agriculture et la pêche Augmentation des prix des produits alimentaires de base, car les produits alimentaires sont maintenant au moins autant faits de pétrole que de nature : pour produire du blé ou du maïs dans les grands pays producteurs il faut presque autant d’énergie sous forme de pétrole et de gaz (pour faire rouler les tracteurs, irriguer, chauffer les serres, fabriquer les engrais et les pesticides…) que d’énergie contenue dans le produit. Et il en faut encore bien plus pour conditionner les produits et les acheminer au consommateur. Le retour aux pratiques culturales d’avant la Seconde Guerre mondiale ferait baisser la production agricole française de 80 % ! • Pour le tourisme Augmentation du prix des déplacements touristiques, qui ne deviendront accessibles qu’à quelques uns, et récession pour les pays et les régions dont l’économie repose sur le tourisme, ce qui est le cas de nombreuses régions françaises. • Pour la richesse des pays consommateurs Siphonage au profit des pays producteurs, et déséquilibre croissant de la balance commerciale, qu’il faudra rétablir par un travail accru à l’exportation,

Bernard Durand

101

dans un contexte de compétition mondiale avec les grands pays nouvellement industrialisés (Chine, Inde, Brésil) pour la conquête des marchés. Nous n’en sommes actuellement qu’aux prémisses de ces difficultés : en effet, les prix du pétrole n’ont encore dépassé, en monnaie constante, que brièvement les niveaux du deuxième choc pétrolier (figure 2.3) et les économies occidentales ont sensiblement diminué leur dépendance au pétrole à la suite des deux premiers chocs pétroliers. La crise pétrolière qui mûrit actuellement est une crise annoncée depuis longtemps. Voici en effet vingt ans que des géologues pétroliers en Europe et aux États-Unis alertent à ce sujet les responsables politiques et les médias. Des associations internationales ont même été créées pour cela, comme l’ASPO (Association for the Study of Peak Oil and Gas, voir par exemple les sites www.peakoil.com et www.aspofrance.org). Elles n’ont commencé à être écoutées que lorsque le prix du pétrole a commencé à être très élevé, il y a deux ou trois ans. Mais les médias n’ont toujours pas jugé bon de consacrer à ce sujet des émissions grand public soigneusement documentées. Certains économistes ont dans ce domaine joué un rôle particulièrement néfaste, en soutenant contre toute évidence qu’il n’y aura aucun problème d’approvisionnement en pétrole avant longtemps, et que l’on aurait bien tort de se faire du souci ! Cet aveuglement a entraîné pendant longtemps dans l’opinion publique, qui ne demandait qu’à les croire, la conviction que la montée du prix du pétrole n’avait que des causes politiques et spéculatives, qu’elle était provisoire et que les rumeurs de pénurie étaient répandues pour alimenter la spéculation. Faute d’informations adéquates, le grand public n’a pas encore vraiment compris qu’en réalité la spéculation s’alimentait aux perspectives physiques de pénurie. Il est urgent d’informer maintenant les citoyens et de chercher des remèdes, car beaucoup de temps a été perdu. La hausse des prix du pétrole se traduit bien sûr mécaniquement par une hausse du prix de revient des carburants pétroliers et du fuel domestique : le prix technique du gazole est à peu près de 30 % supérieur à celui du pétrole. Si de plus il y a insuffisance des capacités de raffinage, ce qui est pour l’instant le cas aux États-Unis, où les investissements nécessaires n’ont pas été faits faute de marges financières suffisantes pour l’industrie du raffinage, ou si des raffineries deviennent indisponibles pour une raison ou une autre, comme cela s’est produit lors du passage du cyclone Katrina à la Nouvelle-Orléans, ou encore si la demande de gazole croît plus rapidement que l’offre, comme c’est

102

La crise pétrolière

le cas en Europe, où la motorisation diesel gagne en ce moment rapidement du terrain, les prix peuvent être encore supérieurs sur les marchés de produits pétroliers, tel que celui de Rotterdam. Cette hausse est pour des raisons psychologiques le plus durement ressentie là où les taxes intérieures sur les produits pétroliers sont faibles, comme c’est le cas aux États-Unis, car elle est alors très importante en valeur relative, mais les sommes prélevées sur les consommateurs n’en sont pas moins en valeur absolue encore supérieures dans les pays européens, où la TVA sur les carburants est forte. Contrairement à ce qui est souvent dit, les dépenses de carburant pèsent à peu près de la même façon sur les ménages quels que soient leurs revenus. C’est ainsi qu’en 2006, selon l’INSEE, les dépenses de carburants représentaient en France 3,3 % du revenu des 10 % de ménages aux revenus les plus faibles, contre 2,8 % du revenu pour les 10 % de ménages aux revenus les plus élevés. Bien sûr le service rendu n’a pas été le même, les ménages les plus riches ayant de plus grosses voitures et bien souvent deux sinon trois voitures. Plus généralement, les dépenses dues aux transports (carburants, achats et entretien d’automobiles, transports en commun, voyages...) représentaient 11 % et 16 % du revenu de ces deux catégories respectivement. Mais les dépenses énergétiques liées à l’habitat, indexées de fait sur les prix du pétrole, étaient de 7,2 % et de 3,4 %. On voit donc ici l’importance de l’habitat dans les consommations énergétiques et leur caractère difficilement compressible pour les personnes les moins favorisées. Pour l’ensemble des ménages, les dépenses pour l’énergie en 2006 atteignaient donc 10,5 % du revenu pour les 10 % des ménages ayant les plus faibles revenus et 6,2 % pour les 10 % de ménages ayant les revenus les plus élevés, la moyenne étant de 7,3 %. En 1985, année qui en France a été du point de vue des dépenses énergétiques des ménages la plus critique du deuxième choc pétrolier, les dépenses pour l’énergie ont atteint environ 10,2 % du revenu moyen des ménages. Mais en 1981, notre facture énergétique a représenté 5 % du PIB et l’inflation a atteint 16 %. Le doublement du prix du pétrole en 2008 par rapport à 2006 a fortement alourdi les dépenses pour l’énergie en 2008 et leur part dans le revenu des ménages est sans doute en moyenne devenue voisine de 10 %, comme en 1985, et de 15 % pour les 10 % des ménages les moins riches. Avant même d’avoir abordé les véritables rampes du prochain pic pétrolier, notre facture

Bernard Durand

103

énergétique est, en euros de 2007, devenue un peu supérieure mi-2008 à celle de 1981 (figure 2.16). Sa part dans le PIB ne sera cependant encore que de l’ordre de 3 % en 2008 au lieu de 5 %, le niveau de vie ayant sensiblement augmenté depuis cette époque. On a observé en 2007 une augmentation sensible de l’inflation, mais elle a été loin d’atteindre le niveau de 1981. La crise économique a fait redescendre les prix au niveau de 2006 et a donc apporté de ce point de vue un soulagement, mais pour combien de temps ?

Figure 2.16. Facture énergétique de la France en milliards d’euros, de 1970 à 2008, année au cours de laquelle cette facture énergétique a représenté environ 3 % du PIB. Elle en avait représenté 5 % en 1981. (Source : Observatoire de l’énergie.)

This page intentionally left blank

DEUXIÈME PARTIE

La crise du pétrole : qu’y pouvons-nous ?

This page intentionally left blank

3

Que peut-on faire pour les transports ?

Il y a trois façons complémentaires de réduire cette crise : augmenter l’offre de pétrole et de gaz, réduire leur demande, ou leur trouver des substituts. Ne nous faisons pas d’illusions, cela sera très difficile. L’augmentation de l’offre se heurtera très rapidement à des limites physiques. Les investissements dans la recherche de nouveaux gisements se sont considérablement accrus depuis quelques années, mais ils n’ont eu jusqu’à présent qu’assez peu de succès : malgré les communiqués triomphalistes qui ont lieu dans les médias dès qu’une découverte de quelque importance a eu lieu, récemment dans le golfe du Mexique aux États-Unis, puis dans le bassin offshore de Campos au Brésil, le ratio quantités découvertes sur quantités consommées (figure 2.7) continue en moyenne de décroître. La seule politique qui vaille pour l’avenir est donc la réduction de la demande et la recherche de substituts. Il vaut mieux s’y atteler le plus tôt possible, contrairement à la politique qu’ont suivi jusqu’à présent les États-Unis, qui consiste à chercher à augmenter l’offre coûte que coûte, et à s’arc-bouter pour ne pas avoir à réduire leur demande ! Les principales utilisations du pétrole et du gaz sont la fabrication de carburants pour le transport et la production de chaleur dans les bâtiments du secteur résidentiel et du secteur tertiaire (chauffage, eau chaude sanitaire, cuisson des aliments). Ces utilisations représentaient en 2005 en France respectivement à peu près 45 % et 35 % de la consommation énergétique finale1 cumulée de 1

La consommation finale d’énergie, appelée aussi énergie finale, est la quantité d’énergie qui parvient aux consommateurs et leur est facturée. Si l’on y ajoute les pertes d’énergie dues à la transformation d’énergie en énergies utilisables par les consommateurs, par exemple la transformation de chaleur (combustibles fossiles, énergie nucléaire) en électricité, mais aussi au transport et à la distribution, on obtient la consommation d’énergie primaire, appelée aussi énergie primaire. Dans les pays riches, l’énergie finale représente environ 60 % de l’énergie primaire. Autrement dit, il y a 40 % de pertes, qui sont dues principalement à la production d’électricité, dont le rendement énergétique global n’est que de l’ordre de 30 % à 40 %. La perte n’est que d’environ 15 % pour le pétrole et le gaz, de l’exploration à la mise à la disposition du consommateur, en passant par le raffinage et la distribution.

108

La crise pétrolière

pétrole et de gaz naturel (tableau 3.1), soit au total 80 % ! Les émissions de CO2 dues à la consommation de ce pétrole et de ce gaz naturel représentaient pour ces secteurs respectivement 35 % et 25 % de nos émissions totales de CO2, soit au total 60 % de ces émissions !

Tableau 3.1. Consommations françaises d’énergie finale par nature et par secteur de 1973 à 2005, en millions de tep (Mtep). Les corrections climatiques consistent à corriger les consommations dues au chauffage en fonction des écarts de température constatés pour l’année par rapport aux températures moyennes observées sur une longue période. Ce tableau ne prend en compte de manière explicite les énergies renouvelables (ENRt et déchets provenant de la biomasse) que pour ce qui concerne la production de chaleur et la production de carburants pour les transports. Celles qui servent à produire de l’électricité sont comptées dans la rubrique électricité. (Source : Observatoire de l’énergie.) Unité : million de tep Énergie x secteur CHARBON Sidérurgie Industrie Résidentiel et tertiaire dont : corrections climatiques Agriculture Transports

1973 1979 1985 1990 1995 2000 2002 2003 2004 2005 9,47 2,63 5,56 –0,34 – 0,03

8,35 1,75 3,90 –0,07 – –

6,38 3,46 2,63 –0,21 – –

5,51 2,90 1,86 0,17 – –

4,99 1,96 1,28 0,09 – –

5,07 1,67 0,69 0,04 – –

4,82 1,27 0,48 0,06 – –

4,62 1,30 0,43 0,01 – –

4,57 1,35 0,41 0,02 – –

4,42 1,34 0,36 –0,01 – –

Total charbon 17,69 14,00 12,47 10,27 8,23 7,43 6,57 6,35 6,33 6,12 dont : corrections climatiques –0,34 –0,07 –0,21 0,17 0,09 0,04 0,06 0,01 0,02 –0,01 PÉTROLE Sidérurgie Industrie dont : corrections climatiques Résidentiel et tertiaire dont : corrections climatiques Agriculture Transports

2,33 21,79 –0,34 32,52 –1,56 2,85 25,71

1,66 19,33 –0,09 27,63 –0,41 2,94 30,95

0,39 9,58 –0,24 18,94 –1,52 2,68 33,12

0,30 9,10 0,24 18,14 –1,68 2,71 41,01

0,12 8,26 0,12 17,23 0,92 2,55 44,52

0,08 6,96 0,09 15,88 1,18 2,43 48,17

0,08 6,29 0,11 16,04 1,57 2,39 49,58

0,06 6,15 0,02 15,42 0,30 2,23 49,03

0,04 6,19 – 15,21 0,06 2,33 49,37

0,04 6,04 – 14,96 0,05 2,23 48,88

Total pétrole 85,20 82,51 64,71 71,26 72,68 73,52 74,38 72,89 73,14 72,15 dont : corrections climatiques –1,90 –0,50 –1,76 1,92 1,04 1,27 1,68 0,32 0,06 0,05

Bernard Durand

109

Unité : million de tep Énergie x secteur GAZ Sidérurgie Industrie dont : corrections climatiques Résidentiel et tertiaire dont : corrections climatiques Agriculture Transports

1973 1979 1985 1990 1995 2000 2002 2003 2004 2005 0,28 3,49 –0,34 5,49 –0,21 0,04 0,01

0,32 6,38 –0,09 9,18 –0,12 0,07 –

0,34 7,76 –0,24 11,74 –0,88 0,11 –

0,25 8,87 0,24 14,06 1,23 0,16 –

0,13 10,03 0,12 15,97 0,81 0,20 –

0,07 12,33 0,09 20,11 2,02 0,29 –

0,15 13,74 0,11 21,83 2,91 0,32 0,03

0,14 13,51 0,02 20,38 0,53 0,30 0,04

0,17 13,78 – 20,58 0,12 0,33 0,04

0,13 14,17 – 20,75 0,10 0,34 0,05

Total gaz 8,75 15,95 19,95 23,34 26,33 32,80 36,07 34,37 34,90 35,44 dont : corrections climatiques –0,21 –0,12 –0,88 1,23 0,81 2,02 2,91 0,53 0,12 0,10 ÉLECTRICITÉ Sidérurgie Industrie Résidentiel et tertiaire dont : corrections climatiques Agriculture Transports

1,00 6,22 5,09 – 0,10 0,55

1,08 7,10 8,79 –0,03 0,13 0,59

0,86 7,44 12,39 –0,33 0,12 0,64

0,90 9,03 15,68 0,56 0,18 0,71

0,90 9,81 18,28 0,36 0,21 0,74

0,96 10,96 20,68 0,47 0,23 0,90

0,97 11,01 21,35 0,60 0,26 0,93

1,00 10,86 22,19 0,12 0,29 1,02

1,01 10,94 22,91 0,03 0,28 1,05

0,87 10,81 23,44 0,02 0,29 1,03

Total électricité 12,96 17,69 21,45 26,50 29,94 33,73 34,52 35,36 36,19 36,44 dont : corrections climatiques – –0,03 –0,33 0,56 0,36 0,47 0,60 0,12 0,03 0,02 ENRt et déchets Industrie Résidentiel et tertiaire dont : corrections climatiques Agriculture Transports

1,36 7,56 –0,30 0,04 –

1,35 7,44 –0,21 0,04 –

1,46 8,31 –0,62 0,04 –

1,64 9,54 0,70 0,04 –

1,71 9,22 0,52 0,05 0,16

1,28 9,66 0,77 0,05 0,35

1,26 9,42 1,02 0,06 0,35

1,28 8,94 0,19 0,06 0,35

1,25 8,75 0,03 0,06 0,35

1,26 8,73 0,04 0,06 0,42

8,96 8,83 9,81 11,22 11,14 11,34 11,09 10,63 10,41 10,47 Total ENRt et déchets dont : corrections climatiques –0,30 –0,21 –0,62 0,70 0,52 0,77 1,02 0,19 0,03 0,04

C’est donc dans les transports et le bâtiment que l’effort principal doit être fait. Ce sont aussi les domaines où la responsabilité des consommateurs est directement engagée par leurs choix personnels. Leur comportement face aux problèmes que nous décrivons ici est donc un élément clé de leur résolution. Un effort important est aussi à faire dans le domaine de la production d’électricité pour les pays, de loin les plus nombreux, qui produisent la plus grande partie de leur électricité avec des combustibles fossiles : en moyenne mondiale, l’électricité est actuellement produite à 41 % avec du charbon, à 21 % avec du gaz naturel et à 7 % avec du fuel lourd. 70 % de la production annuelle

110

La crise pétrolière

de charbon, mais aussi 30 % de celle de gaz naturel et 10 % de celle de pétrole y sont actuellement consacrées. Au total, 68 % de l’électricité est donc produite avec des combustibles fossiles, le reste se répartissant en parts à peu près égales entre hydraulique et nucléaire. L’électricité produite par l’éolien, le solaire et la géothermie ne représente pour l’instant que 0,5 % du total. Cette contribution des combustibles fossiles dans la production d’électricité a tendance à s’accroître. Cela pose à l’échelle mondiale un gros problème d’épuisement des combustibles fossiles et d’émissions de gaz à effet de serre. Nous ne traiterons ici qu’en filigrane de ce problème, qui concerne peu la France puisque son électricité est pour l’essentiel de l’électricité décarbonée, électricité nucléaire pour 78 % et hydroélectricité pour 12 %. En ce qui concerne les transports, ils dépendent actuellement à 98 % des carburants pétroliers ! La France a consommé 49 Mt de ces carburants en 2007, soit 31 % de sa consommation finale d’énergie, dont 48 % pour les véhicules particuliers, 32 % pour les véhicules utilitaires sous forme d’essence et de gazole, 14 % pour les avions, sous forme de kérosène, et 5 % pour les navires, sous forme de fuel lourd ! Elle possède environ 60 véhicules pour 100 habitants. Ce secteur économique est aussi responsable dans notre pays de 35 % des émissions de gaz carbonique ! Si l’ensemble des pays de la planète devait être équipé à la fin de ce siècle en véhicules au même niveau que la France, le nombre total de véhicules passerait de 900 millions aujourd’hui à environ 6 milliards, ce qui serait certes une aubaine pour les constructeurs. Mais si la consommation unitaire de carburants des véhicules devait rester ce qu’elle est actuellement, soit environ 10 l/ 100 km en moyenne mondiale pour l’ensemble des véhicules particuliers et des véhicules utilitaires, il faudrait alors consommer chaque année environ 12 milliards de tonnes de carburants (soit 24 milliards de tonnes de pétrole), au lieu de deux actuellement, ce qui est strictement impossible. Une petite partie du chemin peut être faite en convertissant une part plus grande du pétrole en carburants. Actuellement, cette part est de 52 %. Il est possible de l’augmenter jusqu’à 65 % environ en convertissant en carburants le naphta, le fuel domestique, le fuel lourd et les résidus pétroliers par des modifications des procédés de raffinage, et cela se fait de plus en plus. Mais le prix à payer est une autoconsommation et des émissions de CO2 plus importantes des raffineries, un prix de revient plus élevé et la disparition des usages non énergétiques du pétrole, qui représentent actuellement 13 % de ses utilisations.

Bernard Durand

111

En fait, pour ne pas dépasser ces deux milliards de tonnes, le seul véritable moyen serait que la consommation unitaire moyenne des véhicules descende au fur et à mesure de l’augmentation du nombre de véhicules jusqu’à moins de 2 l/100 km ! Et comme une consommation de deux milliards de tonnes de carburants par an ne sera de toutes façons pas très longtemps tenable, comme on l’a vu, ces 2 l/100 km sont encore bien trop, si l’on reste sur une base uniquement pétrolière ! Que faire alors pour garder une mobilité durable dans les pays déjà équipés, ou l’obtenir pour l’ensemble de la population à l’échelle de la planète ?

1. Qu’attendre des économies de carburants ? Dans l’immédiat, la meilleure réponse possible à une pénurie de carburants est de faire des économies de carburants. Cette solution a en outre l’avantage de réduire les émissions de gaz à effet de serre et autres polluants et donc de préserver la planète. Dans quelle mesure est-ce possible ? Voici quelques pistes : Changer les comportements individuels Réduire de 10 % sa vitesse moyenne sur ses trajets habituels fait économiser 20 % de carburant. Conduire souplement, avec le minimum nécessaire de freinages et d’accélérations, avec des pneus bien gonflés et une voiture bien entretenue, n’utiliser la climatisation que lorsque c’est vraiment nécessaire, encore 5 %. Tout cela est ce qu’on appelle maintenant l’écoconduite. D’autre part, la diminution de vitesse peut amener un changement dans l’imaginaire des consommateurs, et les détourner des véhicules puissants et rapides pour s’intéresser en priorité à des véhicules « intelligents », moins lourds et moins rapides. Les déplacements obligés représentent en moyenne pour l’ensemble des conducteurs moins de la moitié des distances parcourues en voiture. Les autres, même s’il ne s’agit pas forcément toujours de déplacements de confort, peuvent donc être sensiblement réduits sans grands dommages. Ne pas prendre sa voiture pour des déplacements pouvant être faits à pied ou en bicyclette et ne pas faire de déplacements pour le simple plaisir de rouler auraient un effet sensible. La distance moyenne parcourue par véhicule en France, qui est actuellement de 14 000 kilomètres, pourrait être réduite de 5 % sans beaucoup d’efforts. Augmenter le rendement des véhicules à moteur thermique Il existe une marge notable d’amélioration du rendement des moteurs thermiques qui équipent actuellement nos véhicules, c’est-à-dire du rendement de la

112

La crise pétrolière

transformation de l’énergie de combustion des carburants en énergie mécanique. – Les véhicules équipés de moteurs diesel consomment de 15 à 20 % moins que ceux équipés de moteurs à essence. Leur généralisation provoquerait donc une diminution sensible de consommation. Cela est déjà largement fait en France. Mais la fabrication du gazole est un peu plus coûteuse en énergie que celle de l’essence. On perd donc de ce côté un peu de ce que l’on a gagné de l’autre ! Et que faire de l’essence produite par les raffineries ? Déjà en France on exporte une grande partie de cette essence et on importe du gazole (14 millions de tonnes en 2006 !). Ce ne serait plus possible si le monde entier en faisait autant. D’autre part, les moteurs diesel produisent beaucoup plus de suies (particules) que les moteurs à essence et cela pose un problème de santé publique auquel les constructeurs essayent tant bien que mal de remédier à l’aide des filtres à particules (FAP). – Le downsizing consiste à diminuer la cylindrée des moteurs et à les suralimenter avec un turbocompresseur pour garder la même puissance. Cela permettrait de gagner environ 20 % de consommation pour les moteurs à essence. Les véhicules ainsi équipés devraient à performances égales être moins lourds et consommer moins que les véhicules diesel. Certaines marques automobiles commencent à proposer ces modifications. Mais le diesel peut reprendre l’avantage s’il devient possible de faire du downsizing avec les moteurs diesel. – La combustion homogène consiste à alimenter les cylindres de façon à diminuer le plus possible les variations spatiales du rapport air/carburant à l’intérieur de la chambre de combustion. On obtient ainsi une combustion plus complète et donc une diminution de la consommation qui peut atteindre 10 %. Les émissions de polluants sont également réduites. – Le remplacement des arbres à cames par des systèmes électromagnétiques de commande des soupapes, le système Start-Stop, qui consiste à permettre d’arrêter sans dommages le moteur pendant la durée d’un feu rouge ou d’un embouteillage ainsi que les récupérateurs d’énergie de freinage, peuvent amener à eux deux des réductions de consommation de 10 à 30 % selon les trajets. – Les véhicules hybrides sont des véhicules dans lesquels un moteur électrique est adjoint à un moteur thermique et le relaie dès que la vitesse descend sous un certain seuil, actuellement 40 km/h environ. Ce moteur électrique s’alimente alors sur une batterie, qui est ensuite rechargée par le moteur thermique. Ce système permet de faire

Bernard Durand

113

quelques kilomètres en ville en mode électrique pur, de récupérer de l’énergie au freinage ou dans les descentes et de ne pas consommer d’énergie à l’arrêt aux feux rouges ou dans les embouteillages. Ce sont donc les véhicules thermiques qui ont, en ville, le meilleur rendement pratique de transformation de l’énergie du carburant en énergie mécanique transmise aux roues, de l’ordre de 30 %. Les avantages des véhicules hybrides sont en revanche beaucoup moins évidents sur des trajets routiers, où les diesels les plus récents sont aussi avantageux, tout en étant bien moins chers. Les hybrides n’existent actuellement qu’en version essence. Des versions diesel sont en cours de réalisation, ce qui améliorera encore le rendement. Les batteries, lourdes, coûteuses, et assez peu durables et fiables constituent actuellement le point faible de ce type de véhicules. Mais des batteries au lithium, beaucoup plus légères que les batteries cadmium-nickel actuellement utilisées, sont en train de voir le jour. Diminuer le poids des véhicules La consommation des véhicules croît bien évidemment avec leur poids, quel que soit le type de motorisation ! Or leur poids moyen a beaucoup augmenté depuis vingt ans, sous l’effet d’une demande accrue de sécurité et de confort, mais aussi de visibilité de statut social, qui est instinctivement assimilé par beaucoup à l’importance du véhicule et à sa vitesse de pointe. Ce n’est pas un hasard si les SUV et les lourdes voitures de luxe représentent les créneaux les plus porteurs des constructeurs automobiles. Cette course au poids et à la puissance a jusqu’à présent annulé l’effet des améliorations des motorisations faites pour diminuer la consommation. Ce mouvement doit donc être inversé. Cependant, les véhicules particuliers circulant en France ont une consommation moyenne inférieure à la moyenne mondiale: 7 l/100 km au lieu de 9 l/ 100 km. Cela est dû à un usage privilégié des véhicules à moteur diesel et au coût élevé des carburants, qui a conduit les constructeurs français à proposer de préférence des modèles peu consommateurs. Utiliser des pneus verts Une partie notable de la consommation des véhicules est due à la nécessité de vaincre les forces de frottement sur la route. La diminution de ces forces de frottements, en jouant sur la conception des pneus, pourrait réduire de 2 % environ la consommation. Il reste à vérifier que ces modifications ne se feront pas au détriment de la sécurité.

114

La crise pétrolière

La compétition pour faire des véhicules à faible consommation est d’ores et déjà bien engagée entre les principaux constructeurs, sous la pression de la Commission européenne, qui veut faire baisser les émissions de CO 2 des véhicules particuliers. Celle-ci est liée bien évidement à leur consommation : par litre de consommation de carburant aux 100 km, un véhicule émet à peu près 25 g de CO2 par kilomètre parcouru. L’objectif de 120 g/km affiché par la Commission correspond donc à une consommation de 4,8 litres aux 100 km en parcours mixte standard. Deux types de véhicules semblent devoir émerger de cette compétition pour les économies d’énergie et la diminution des émissions de CO 2 : des véhicules légers équipés de moteurs « downsized », et des véhicules hybrides à essence, éventuellement au gazole et peut-être même au gaz naturel. L’un dans l’autre, il semble possible de faire baisser en France la consommation moyenne des véhicules particuliers sur parcours mixte standard de 7 l/ 100 km en moyenne actuellement à 4,5 l/100 km. Les mêmes améliorations sont possibles pour les véhicules commerciaux et les poids lourds. Mais pour l’instant rien ou presque n’a été entrepris dans ce domaine, alors que ces véhicules consomment maintenant en Europe presque autant que les véhicules particuliers. Il est inadmissible que la Commission européenne n’ait ici encore imposé aucune norme d’émissions, alors qu’elle l’a fait pour les véhicules particuliers ! Changer progressivement nos modes actuels d’urbanisation Le bas prix des carburants, la spéculation foncière et les économies sur les services publics ont favorisé jusqu’à présent le développement d’un urbanisme demandant de fortes consommations de carburants: banlieues à perte de vue, grandes distances entre domicile et travail, disparition des commerces de proximité au profit des supermarchés, fermetures d’hôpitaux… imposant à beaucoup de longs déplacements pour les actes essentiels de la vie courante. Le phénomène est encore plus développé en Amérique du Nord, où la densité de population est beaucoup plus faible qu’en Europe. Les villes s’y sont développées avec l’automobile, alors qu’en Europe les centres urbains existaient dès le Moyen Âge. Un habitant de Houston consomme environ quatre fois plus de carburant qu’un habitant de l’agglomération parisienne pour ses déplacements (figure 3.1). Une crise pétrolière détruira le tissu économique et social déjà bien insuffisant de ces banlieues et provoquera une crise économique par perte de valeur des

Bernard Durand

115

Figure 3.1. Consommation d’énergie dans les transports par habitant et par an dans les grandes agglomérations des pays industrialisés. (D’après Rojey, 2008.) habitations qui s’y trouvent. Il serait grand temps de se rendre compte que le mouvement doit être maintenant inversé : il faut empêcher les banlieues de s’étendre indéfiniment, les densifier et prévoir un développement des axes pour les transports en commun et la circulation à bicyclette dans les plans d’urbanisme. C’est évidemment un travail de longue haleine, mais il vaut mieux s’en préoccuper dès maintenant que d’attendre les effets d’une pénurie de pétrole, qui aura dans ce domaine des conséquences dramatiques ! Les améliorations de rendement des moteurs thermiques, jointes à l’abandon des SUV et autres voitures très consommatrices, à un changement de comportement des conducteurs, à leur renoncement aux trajets inutiles, ainsi qu’un développement des transports en commun et des pistes cyclables et des transports par rail plutôt que par route, permettraient sans doute de diviser par deux la consommation française des véhicules particuliers et des véhicules utilitaires, actuellement de 40 millions de tonnes par an, à échéance d’environ quinze ans. La prise en compte de la consommation de carburant dans les plans d’urbanisme ne peut avoir que des effets à plus long terme, mais finirait par réduire aussi de façon substantielle cette consommation.

116

La crise pétrolière

2. Qu’attendre des carburants alternatifs ? Utiliser des carburants alternatifs, c’est-à-dire des carburants pouvant se substituer à nos carburants actuels, essence, gazole et kérosène, est-ce une solution ? Il existe une grande variété de carburants alternatifs possibles. Mais pourra-t-on en produire des quantités suffisantes ?

2.1. Des carburants possibles à court terme : ceux tirés du gaz naturel Les réserves de gaz naturel sont encore importantes, à peu près autant que celles de pétrole. Peut-on utiliser le gaz naturel pour faire rouler les véhicules ? Un carburant peu prisé en France : le gaz de pétrole liquéfié-carburant (GPLc) Le gaz naturel contient quelques pourcents en moyenne d’hydrocarbures gazeux autres que le méthane (CH4) : éthane (C2H6), propane (C3H8) et butane (C4H10). Les raffineries de pétrole en produisent aussi, en même temps que des hydrocarbures insaturés gazeux, éthylène (C2H4), propylène (C3H6) et butadiène (C4H8). Le gaz de pétrole liquéfié-carburant (GPLc) est un mélange à 50 % de propane et de butane provenant de ces deux sources, maintenus à l’état liquide sous une pression de l’ordre de 10 bars dans des bouteilles embarquées. Celles-ci n’ont pas besoin d’avoir des parois très épaisses et sont donc relativement légères et peu encombrantes. Le GPLc peut être utilisé par les moteurs à essence au prix de très légères modifications. Sa combustion est un peu moins polluante que celle de l’essence. Son prix de revient est en revanche supérieur. Les performances des véhicules ainsi équipés sont sensiblement les mêmes que ceux des véhicules à essence, mais la consommation est d’environ 15 % supérieure. Neuf millions de véhicules l’utilisent déjà dans le monde, au Japon, en Corée du Sud, au Mexique, en Italie, aux États-Unis et en Australie principalement. En France, les consommateurs se refusent à l’utiliser malgré des prix à la consommation bien inférieurs à ceux des autres carburants, obtenus par des taxes plus faibles. Cela est dû à la peur des explosions, pourtant extrêmement rares, à un prix considéré comme encore trop élevé pour les bénéfices réels, mais plus encore peut-être à l’absence d’une politique volontariste de l’État pour développer les indispensables réseaux de distribution.

Bernard Durand

117

Le GPLc ne représente dans le monde que 3 à 4 % de la consommation de carburants pétroliers, et se tarira en même temps que le pétrole et le gaz. Son prix est également lié aux leurs et connaîtra donc des augmentations importantes dans un avenir proche. Son utilisation comme carburant ne pourra donc guère être qu’anecdotique et ne sera pas durable. Le gaz naturel véhicule (GNV) Le gaz naturel qui est délivré couramment aux utilisateurs est du méthane pratiquement pur. Il est utilisable sous forme de gaz naturel véhicule (GNV), stocké sous une pression de 200 bars dans des bouteilles embarquées. Nos moteurs actuels peuvent l’utiliser au prix de petites modifications. Son prix de revient est un peu plus élevé que celui de l’essence ou du gazole. En effet, bien qu’à quantité d’énergie contenue égale le gaz naturel soit moins cher actuellement que le pétrole, il faut ajouter le coût de sa compression, qui demande une quantité d’énergie de l’ordre de 20 % de l’énergie qu’il contient, et le coût de son conditionnement en bouteille de 200 bars. Sa combustion est réputée moins polluante que celle des carburants pétroliers, car le méthane contient quatre atomes d’hydrogène par atome de carbone au lieu de deux pour les carburants pétroliers. Elle envoie donc sensiblement moins de gaz carbonique et plus d’eau à l’atmosphère pour une même quantité d’énergie produite. Elle ne produit pas de SO2 car le gaz naturel ne contient pas de soufre. Elle produit quand même des suies et des HAP, comme pour l’essence et le gazole, mais en moindres quantités. Elle produit aussi des NO x, la formation de ceux-ci étant due à la combinaison d’azote et d’oxygène sur les surfaces très chaudes et non aux particularités des carburants. Il faut aussi prendre en compte l’effet de serre du méthane qui le constitue : Une fuite de 5 % a un PRG à 100 ans équivalent à peu près aux rejets de 100 % de gaz carbonique ! Or des fuites sont inévitables tout au long de la chaîne de distribution. Une étude approfondie serait nécessaire pour savoir ce qui l’en est exactement, mais il est probable que l’utilisation du GNV n’offre finalement pas d’avantage sur celle des carburants classiques pour limiter l’effet de serre. Les performances des véhicules (autonomie, vitesse, logeabilité…) sont sensiblement moins bonnes que celles des véhicules actuels, à cause du poids et de l’encombrement des bouteilles de gaz, mais aussi d’une énergie par unité de volume du gaz comprimé qui est beaucoup plus faible que celle de l’essence ou du gazole. Il en résulte que l’énergie embarquée par kg de

118

La crise pétrolière

carburant + réservoir est environ quatre fois plus faible que pour ceux-ci (figure 3.2). Cela se ressent bien évidemment sur le poids et l’autonomie des véhicules. Un obstacle très important à l’utilisation en France du gaz naturel véhicule est qu’il faut disposer d’un réseau de distribution spécialisé qui n’existe pas pour l’instant. Environ 5 millions de véhicules dans le monde sont déjà ainsi équipés (Italie, Argentine, Pakistan, Corée du Sud, Turquie en particulier).

Figure 1 : Figure 3.2. Énergie contenue pour diverses sources d’énergie embarquées dans les véhicules, par unité de poids (kg) et par unité de volume (l) de l’ensemble carburant + réservoir. BTL FT : Biomass-to-liquids, Fischer-Tropsch. HVC : Huile végétale carburant. (D’après Bauquis, 2004 et Rojey, 2008.) Sa faible énergie volumique, un prix lié à celui du pétrole et supérieur à celui des carburants pétroliers, mais encore plus la nécessité de développer un réseau de distribution qui lui soit dédié, sont des obstacles à un très fort développement de l’utilisation du GNV dans l’avenir en France et dans la plupart des pays européens. Il continuera à être utilisé comme aujourd’hui dans les quelques pays qui ont déjà développé un réseau de distribution à cet effet. Ceux-ci l’ont fait au lendemain de la Seconde Guerre mondiale parce qu’ils

Bernard Durand

119

disposaient chez eux de ressources importantes de gaz ou avaient moins de difficultés à s’approvisionner en gaz qu’en carburants pétroliers à un coût acceptable pour leur économie, car le gaz a été longtemps très bon marché. Le GNV sera aussi utilisé dans les pays qui n’ont pas de réseau de distribution pour alimenter des flottes captives de véhicules (administrations, certaines entreprises…). Mais il peut connaître un développement bien plus important s’il s’avère que les difficultés pour trouver d’autres substituts aux carburants dans les transports sont trop importantes. Une utilisation importante n’apporterait cependant qu’un répit de courte durée, car les réserves de gaz naturel s’épuiseraient alors rapidement ! Les carburants Gas-to-liquids (GTL) Les chimistes allemands Fischer et Tropsch ont inventé en 1920 un procédé permettant de faire des carburants liquides à partir de ce que l’on appelle du gaz de synthèse, qui est un mélange de monoxyde de carbone (CO) et d’hydrogène (H2). Ce gaz de synthèse est produit de différentes façons selon la matière première de départ. À partir de gaz naturel, c’est-à-dire de méthane, on pratique ce qu’on appelle un réformage à la vapeur : méthane et vapeur d’eau sont mis en présence l’un de l’autre sur un catalyseur au nickel, à des températures de 800 à 1000 ˚C et des pressions de 20 à 30 bars. Le procédé Fischer-Tropsch, dit encore synthèse Fischer-Tropsch, consiste à faire ensuite réagir le monoxyde de carbone et l’hydrogène à 300 ˚C environ sur des catalyseurs, fer ou cobalt. On obtient ainsi des cires, c’est-à-dire des n-alcanes à chaînes très longues, et donc de consistance cireuse à température ordinaire, comme leur nom l’indique. Il faut ensuite pratiquer ce que l’on appelle un hydrocraquage isomérisant : celui-ci, qui consiste à craquer (casser en molécules plus petites) les cires à 300 à 350 ˚C sous une pression de 30 à 50 bars, en présence d’hydrogène et avec l’aide d’un catalyseur, transforme les cires en un mélange de n-alcanes et d’iso-alcanes à chaînes plus courtes, pour produire de l’essence, du gazole ou du kérosène d’excellente qualité. On peut aussi par synthèse Fischer-Tropsch fabriquer du méthanol (CH3OH) ou du diméthyléther (DME)(CH3-O-CH3), qui peuvent être aussi utilisés comme carburants. Tout cela constitue ce qu’on appelle les carburants gas-to-liquids (GTL). Il s’agit donc de carburants de synthèse (en anglais synfuels). La fabrication de GTL a d’abord été envisagée pour rendre plus économique et moins gaspilleuse d’énergie le transport du gaz naturel. Ce transport se fait

120

La crise pétrolière

par gazoduc ou par navire méthanier, dont la construction est coûteuse. Il faut également y consacrer une bonne partie de l’énergie contenue initialement dans le gaz naturel, jusqu’à 20 % environ dans le cas d’un transport par méthanier, si l’on considère l’ensemble des étapes de liquéfaction du gaz, de transport et de regazéification. La transformation du gaz en produits liquides semblait pouvoir permettre à première vue d’importantes économies en investissements et en énergie. En effet, le GTL est transportable, de la même façon que le pétrole et les carburants ordinaires, par navire pétrolier ou par oléoduc, ce qui est bien moins coûteux et dépensier en énergie que le transport du gaz naturel. Mais le bilan énergétique et économique global du GTL s’est révélé être en réalité bien moins bon que celui du gaz transporté par pipeline ou par navire méthanier pour les principales utilisations actuelles du gaz que sont le chauffage domestique et la production d’électricité. Mais même l’utilisation du GTL comme carburant n’était de fait pas rentable. Elle ne l’est toujours pas : le prix du gaz est en effet indexé sur celui du pétrole, et même s’il est actuellement moins coûteux que celui-ci par quantité d’énergie contenue, le coût ajouté par la fabrication du GTL est important et fait passer son prix au-dessus de celui des carburants pétroliers ! Les investissements nécessaires sont très élevés. La rentabilité ne peut donc exister que dans des situations très favorables : les raffineries doivent être implantées dans les pays producteurs à proximité de très grands gisements de gaz. Des raffineries sont actuellement en construction à cet effet au Qatar et au Nigéria. Le rendement énergétique de la fabrication du GTL, c’est-à-dire le rapport entre la quantité d’énergie qu’il contient et la quantité d’énergie utilisée pour le produire, est d’environ 60 %. Son rendement massique, c’est-à-dire le rapport de la masse de GTL produite à celle du gaz naturel ayant servi à la produire, est également d’environ 60 %. Finalement son bilan énergétique et son bilan d’émissions de CO2 du puits à la roue sont moins bons que ceux des carburants pétroliers2. Cependant le GTL est beaucoup plus facile à utiliser 2

L’énergie du puits à la roue, en anglais well-to-wheel (WTW), est la somme de toutes les dépenses énergétiques, depuis l’exploration et la production de la matière première du carburant jusqu’à la transformation du carburant en énergie mécanique transmise aux roues du véhicule. Elle est rapportée à une distance de référence parcourue avec ce véhicule, en général 100 km. On la décompose en énergie du puits au réservoir, en anglais well-to-tank (WTT) et énergie du réservoir aux roues, en anglais tank-to-wheel (TTW). On calcule de la même façon les émissions de gaz à effet de serre du puits à la roue, en grammes équivalent CO2 par kilomètre parcouru.

Bernard Durand

121

comme carburant que le gaz naturel et il aura peut-être un avenir après le Peak Oil, quand la pénurie de pétrole deviendra sévère. Mais, comme pour le GNV, le répit qu’il apporterait serait de courte durée, car le gaz sera alors rapidement épuisé. En définitive, la généralisation de l’utilisation sous une forme ou sous une autre du gaz naturel pour propulser nos véhicules n’est pas aussi facile qu’on pourrait le penser à première vue. Le gaz naturel sera de plus en plus cher car son prix suivra celui du pétrole. Ses réserves ne lui permettront pas de durer très longtemps, 10 à 15 ans de plus que le pétrole, et moins si son utilisation s’amplifie. Son utilisation, contrairement à ce que l’on dit souvent, ne diminuera sans doute pas les émissions de gaz à effet de serre (GES) – en anglais green house gases (GHG) – dues aux carburants, parce que des fuites de méthane, beaucoup plus actif que le gaz carbonique, seront inévitables, en particulier à la distribution. Le GTL sera encore plus cher et sera plus polluant. D’autre part, les réserves principales de gaz naturel se trouvent dans des pays (Russie, Iran, Qatar…) qui ne seront peut-être pas toujours des fournisseurs dociles. Les deux premiers utiliseront de plus en plus le gaz pour leur consommation intérieure et en exporteront donc de moins en moins. Le troisième, très peu peuplé, n’a pas particulièrement intérêt à en produire de très grandes quantités ! Du point de vue du bilan énergétique et de la pollution globale, la meilleure utilisation possible pour nos véhicules est finalement le GNV, mais les performances des véhicules ainsi équipés ne sont pas très bonnes et le développement d’un très important réseau de distribution serait alors indispensable. Le GNV et le GTL pourraient cependant s’imposer pendant quelques décades sous l’empire de la nécessité, s’il apparaît que d’autres solutions ne permettent pas d’assurer une mobilité suffisante. Un carburant renouvelable mais peu abondant : le biogaz-véhicule (BGV) Le biogaz est un combustible renouvelable et nous aurions pu le classer dans le paragraphe consacré aux carburants renouvelables. Mais il est plus commode d’en parler ici, car sa partie utile est du méthane, tout comme le gaz naturel, et ses utilisations sont les mêmes que pour celui-ci. En particulier, il peut être utilisé comme biogaz-véhicule (BGV) dans des bouteilles embarquées.

122

La crise pétrolière

Le biogaz3 est produit par fermentation bactérienne de substances organiques en l’absence d’oxygène, de la même façon que le gaz bactérien que l’on trouve dans certains gisements de gaz naturel. Les matières premières actuellement utilisées pour sa fabrication sont essentiellement des déchets agricoles animaux et végétaux, des déchets ménagers et des boues d’épuration. Le biogaz à l’état brut ne contient pas que du méthane : la proportion de celuici n’est que de l’ordre de 50 %, le reste étant surtout du gaz carbonique et de la vapeur d’eau. On y trouve aussi, en proportions variables mais faibles, de l’hydrogène sulfuré et de l’oxyde nitreux, ce dernier étant un très puissant gaz à effet de serre. Les biogaz produits à partir des décharges ou des boues d’épuration contiennent aussi généralement des traces de siloxanes volatils, composés de la forme R2(SiO) où R est un radical organique. Ces siloxanes déposent de la silice dans les moteurs et en entraînent l’usure prématurée et les risques de casse. Il résulte de la présence de tous ces contaminants que le biogaz à l’état brut a un pouvoir calorifique qui n’est que la moitié environ de celui du gaz naturel, et qu’il ne peut guère être utilisé tel quel que pour produire de la chaleur. Les autres utilisations, et en particulier l’utilisation comme carburant, demandent au préalable une épuration très soignée. Pour ces raisons de production morcelée et de nécessité d’une épuration, le biogaz-carburant revient donc bien plus cher que le gaz naturel. D’autre part, il est irrationnel de vouloir produire dans les pays industrialisés plus de biogaz que le biogaz « fatal » qui résulte de la fermentation des déchets organiques agricoles et ménagers et des boues d’épuration. On peut bien sûr décider d’en produire à partir de biomasse cultivée à cet effet, mais il s’agit là d’une opération dont le bilan énergétique est bien moins intéressant que celui d’une utilisation énergétique directe de cette biomasse : en effet, lors de la fermentation qui produit du méthane, les deux tiers environ du carbone contenu dans cette biomasse ne se retrouvent pas dans le méthane mais dans du gaz carbonique et un résidu organique. Ce dernier peut être utilisé comme engrais. L’Allemagne, championne d’Europe actuelle du biogaz, en a produit l’équivalent de 2 Mtep en 2007, ce qui n’est pas négligeable, mais c’est quand même peu de choses par rapport à sa consommation de 85 Mtep de gaz naturel. 3

Certains classent aussi dans le biogaz le gaz produit par pyrolyse de biomasse et de déchets organiques, en particulier le gaz produit par la fabrication du charbon de bois. Ce biogaz contient du monoxyde de carbone (CO) et de l’hydrogène.

Bernard Durand

123

La France, si elle suivait les traces de l’Allemagne, pourrait peut-être, parce qu’elle dispose d’une surface plus grande, arriver à produire 3 Mtep au lieu de 250 000 tep pour l’instant, alors que sa consommation en gaz naturel représente actuellement l’équivalent d’environ 40 Mtep. Étant donné le coût du biogaz-carburant, il est préférable d’affecter le biogaz au chauffage et à la production d’électricité parce qu’une épuration sommaire suffit dans ce cas. Dans un certain nombre de pays, dont la France, de petites quantités sont cependant déjà utilisées comme carburant pour des flottes captives.

2.2. Des carburants globalement très polluants : les carburants coal-to-liquids (CTL) Il est possible de faire du gaz de synthèse à partir de charbon. On pratique alors ce que l’on appelle une oxydation partielle, qui consiste à faire réagir de la vapeur d’eau et de l’oxygène sur le charbon que l’on veut gazéifier, à des températures de 1200 à 1500 ˚C et à des pressions de 20 à 90 bars. Les carburants sont ensuite préparés par synthèse Fischer-Tropsch (FT) à partir du gaz de synthèse. Ces procédés sont appelés procédés de liquéfaction indirecte du charbon. On peut également utiliser comme matière première des résidus pétroliers ou des asphaltes. Comme indiqué à propos du GTL, il est possible d’orienter la réaction selon les carburants que l’on veut produire, et ceux-ci, après quelques modifications pour les rendre aptes à une bonne utilisation dans les moteurs modernes, sont d’excellente qualité. L’armée allemande a utilisé des carburants FT faits à partir de charbon pendant la dernière guerre. L’Afrique du Sud le fait depuis l’Apartheid et produit actuellement ainsi 7 Mt de carburants par an, soit 30 % de sa consommation. C’est le pays qui a pour l’instant mis au point les procédés les plus efficaces. Il est également possible de produire des carburants à partir des charbons, des asphaltes et des résidus pétroliers par ce que l’on appelle le procédé Bergius, du nom du chercheur allemand qui l’a imaginé en 1911. On l’appelle aussi procédé de liquéfaction directe du charbon. Il fonctionne par hydrogénation : on chauffe un mélange de ces substances avec les produits liquides de leur thermolyse et avec de l’hydrogène, à des températures de quelques centaines de degrés dans des réacteurs sous pression, en présence d’un catalyseur. L’hydrogène nécessaire est fabriqué parallèlement à partir du charbon par

124

La crise pétrolière

oxydation partielle. On obtient ainsi une substance proche du pétrole, mais pour laquelle un raffinage spécifique est nécessaire pour obtenir des carburants, essentiellement du gazole. En Chine, la compagnie Shenhua vient de construire à Erdos, en Mongolie, une unité de liquéfaction directe qui produit, à 450 ˚C sous 200 bars, 1 Mt par an de « liquéfiat » pour une consommation totale de charbon (liquéfaction + production d’hydrogène) d’environ 3,5 Mt, soit un rendement massique de 28 %. Étant donné que le contenu en énergie d’une tonne de charbon est d’environ 0,65 tep, cette production de 1 million de tonnes de pétrole utilise 2,3 tep d’énergie et le rendement énergétique est de 0,44. Des recherches sont en cours pour améliorer ces rendements. C’est ainsi qu’a été développé ces dernières années le procédé H-Coal, qui utilise des catalyseurs plus élaborés que ceux utilisés à Erdos. Le rendement énergétique pourrait atteindre un peu plus de 50 % en utilisant les meilleures qualités de charbon. Dans la réalité, les rendements des procédés de liquéfaction directe sont un peu inférieurs aux valeurs indiquées ci-dessus, car ces valeurs s’entendent sur charbon sec. Or de l’énergie est nécessaire pour sécher le charbon, qui contient environ 10 % d’eau. D’autre part, le rendement dépend de la qualité du charbon. Les meilleurs candidats sont les charbons les plus riches en hydrogène lié au carbone que l’on appelle charbon bitumineux. Ces charbons sont aussi ceux qui sont utilisés pour faire le coke métallurgique, et leurs prix sont bien plus élevés que celui du charbon de qualité courante utilisé pour produire de l’électricité, ou de la vapeur d’eau dans l’industrie, charbon appelé charbon-vapeur. Il y aura donc compétition entre les deux utilisations ! L’intérêt des procédés de liquéfaction directe est que les températures utilisées sont moins élevées et que le rendement énergétique global de la transformation du charbon en carburants est un peu meilleur que pour la liquéfaction indirecte. La fabrication des CTL est donc très gaspilleuse d’énergie. Elle demande de très gros investissements. Elle est aussi très émettrice de CO2. Pour des raisons environnementales, on envisage donc de séquestrer le CO2 produit pour l’enfouir dans le sous-sol. Mais cela ne pourra se faire qu’au prix d’un surcoût important, de l’ordre d’un doublement du prix du carburant produit, et il n’est pas sûr que l’on dispose partout et en volumes suffisants des structures géologiques nécessaires pour cela, ni qu’elles seront étanches sur de très longues

Bernard Durand

125

durées. D’autre part, les quantités de CO2 du puits à la roue resteraient encore malgré tout un peu plus élevées que dans le cas des carburants pétroliers. Les arguments pour un développement des CTL sont que les réserves de charbon sont beaucoup plus importantes que celles de pétrole ou de gaz et que le prix du charbon sur le marché international, malgré une augmentation rapide depuis quelque temps, était à 150 $ fob4 mi-2008, encore quatre fois moins cher que le pétrole par quantité d’énergie contenue. Cela ne sera peut être pas durable étant donné la progression très rapide de la demande en charbon et l’envol des prix qui l’accompagne ! Le CTL est donc pour l’instant moins cher que les carburants pétroliers aux prix actuels du marché. En revanche, il ne l’est plus si l’on ajoute le coût de la séquestration du CO2. Les CTL ont de bonnes chances de se développer rapidement dans les pays qui disposent de très grosses réserves de charbon, comme cela a été le cas en Afrique du Sud, et cela d’autant plus que ces pays peuvent fixer sur leur marché intérieur des prix très inférieurs au prix du marché mondial. La Chine, l’Inde et les États-Unis sont dans cette situation et sont visiblement tentés de produire de grandes quantités de CTL pour faire rouler leurs voitures. En effet, ils sont obligés actuellement d’importer une grande partie du pétrole qu’ils consomment, et la production de grandes quantités de CTL leur permettrait non seulement de diminuer les quantités qu’ils importent, mais de peser à la baisse sur les cours du pétrole. Mais cette politique entraînerait une diminution rapide de leurs réserves de charbon, dont ils ont besoin également pour produire leur électricité. Déjà la Chine commence à importer du charbon et certains prédisent que dans ces conditions, un Peak Coal aura lieu en Chine dès 2020 ! Observons que ces trois pays ne sont pas engagés par le protocole de Kyoto sur la réduction de l’effet de serre et ne semblent pas décidés à faire des efforts pour enfouir le CO2 produit. Persister dans cette voie serait désastreux et cela d’autant plus que cette attitude va entraîner le même comportement chez bien d’autres pays, qui y trouveront une justification pour ne pas diminuer leurs émissions. Signalons au passage que le développement actuel de l’utilisation du charbon ne présente pas seulement des risques pour le climat. Il présente des risques très importants pour la santé publique, qui sont très largement passés sous silence actuellement, à l’exception des accidents et des maladies des mineurs, 4

« fob » signifie free on board, soit en français franco à bord, c'est-à-dire le prix au lieu d’embarquement. Ce prix n’inclut donc pas les frais de transport jusqu’à l’utilisateur.

126

La crise pétrolière

dont on parle occasionnellement, mais qui malgré leur importance ne représentent en fait qu’une petite partie de la mortalité provoquée. L’essentiel est dû en effet à la pollution de l’atmosphère créée par les centrales électriques. Or les centrales électriques au charbon se multiplient actuellement dans le monde, et pas seulement en Chine. Il serait actuellement prévu d’en installer cinquante nouvelles en Europe dans les cinq prochaines années ! L’Europe n’est donc pas à l’abri, et ses citoyens, faute d’informations, n’en ont guère conscience. Ces centrales sont installées à proximité des villes. Or, de toutes les centrales électriques, ce sont celles utilisant du charbon, et en premier lieu celles utilisant la variété appelée lignite, très utilisée en Allemagne, en Grèce et en Serbie, qui envoient dans l’environnement la plus grande quantité et la plus grande variété de polluants nocifs: SO2, NOx, HAP, suies, mercure… Ces centrales envoient également dans l’atmosphère de la radioactivité. Celleci est due aux isotopes radioactifs qui se trouvent naturellement dans le charbon, potassium 40, mais aussi uranium, thorium et leurs descendants, dont certains sont très radiotoxiques5. Il ne s’agit que de traces, mais, parce qu’une centrale à charbon brûle dans l’année d’énormes quantités de charbon, environ 3 Mt par an par GW de puissance, les quantités rejetées annuellement dans l’environnement ne sont pas négligeables. Associées à des cendres volantes très fines, et donc difficiles à arrêter par des filtres, ces substances radioactives peuvent pénétrer au plus profond des poumons. Assez ironiquement pour les pays dont les citoyens ont peur des centrales nucléaires, mais pas des centrales à charbon (en Europe l’Allemagne, le Danemark et l’Italie par exemple) les centrales à charbon rejettent en fait beaucoup plus de radioactivité dans leur environnement que ne le fait une centrale nucléaire à puissance égale ! Et des quantités considérables d’uranium et de thorium, avec leurs descendants, ont ainsi été disséminées au cours de ces années autour de ces centrales ! Bien entendu, des améliorations substantielles peuvent être apportées au traitement des fumées pour en éliminer la plus grande partie des composés nocifs, mais le coût en est élevé. La plupart des centrales à charbon fonctionnant actuellement dans le monde ne sont pas équipées et beaucoup de celles qui sont installées actuellement ne bénéficient pas de ces progrès.

5

Parmi les descendants les plus radiotoxiques de l’uranium et du thorium se trouvent le radium 226 et 228, le radon 222, le polonium 208 et 210, le plomb 210 et le thorium 228 et 230.

Bernard Durand

127

2.3. Les carburants produits à partir d’huile de schiste Il existe d’immenses gisements de schistes bitumineux. Le principal d’entre eux, les Green River Shales, se trouve aux États-Unis : il contient à lui seul les deux tiers des ressources mondiales actuellement répertoriées ! Nous avons vu qu’il était possible de tirer des schistes bitumineux, par pyrolyse dans des fours en l’absence d’oxygène, de l’huile de schistes, substance proche des pétroles naturels, mais beaucoup plus riche en hétéroéléments et donc plus difficile à raffiner. La compagnie Shell a récemment évalué à environ 230 milliards de tonnes les quantités d’huile de schistes qu’il était selon elle possible de produire à partir des gisements connus de schistes bitumineux, soit plus que les réserves de pétrole restantes ! Mais les avis divergent beaucoup sur cette question. En effet, s’il est donc théoriquement possible de fabriquer ainsi de grandes quantités de carburants, la consommation d’énergie qui est nécessaire pour le faire est considérable : elle pourrait être supérieure à la quantité d’énergie récupérée dans un grand nombre de cas. Les exploitations souterraines, dites in-situ, ont moins de conséquences environnementales, mais sont techniquement très difficiles à réaliser : aucune à ce jour n’a pu dépasser le stade du pilote. Bien que de nombreuses petites exploitations à ciel ouvert aient existé jusqu’à un peu après la Seconde Guerre mondiale, et qu’il existe encore quelques exploitations dans le monde, en particulier en Estonie, au Brésil et en Chine, les prévisionnistes considèrent généralement qu’il n’y aura pas de production véritablement significative avant plusieurs dizaines d’années et que l’on renoncera peut-être même à le faire, pour raisons environnementales.

2.4. Les carburants biomass-to-liquids (BTL) Il est possible de fabriquer des carburants liquides à partir de la biomasse. C’est ce qu’on appelle les carburants biomass-to-liquids (BTL). Les procédés possibles sont très variés. Un potentiel limité en Europe : les biocarburants de première génération (G1) L’idée d’utiliser des carburants dérivés des produits agricoles à la place des carburants pétroliers n’est pas nouvelle puisque l’éthanol (alcool éthylique, C2H5OH), produit par fermentation alcoolique des sucres, a été utilisé comme carburant dès la fin du XIXe siècle en Europe et concurrençait alors le pétrole.

128

La crise pétrolière

Le premier moteur diesel, inventé par Rudolf Diesel, fonctionnait à l’huile d’arachide. Après une éclipse prolongée due au bas prix des carburants pétroliers, les biocarburants, appelés parfois agrocarburants, sont revenus sur le devant de la scène sous la pression du monde agricole. Tout d’abord, les producteurs de sucre, mais aussi de céréales, ont dû faire face à des problèmes de régularisation des prix de marchés : les pays gros producteurs ont vu dans la fabrication d’éthanol-carburant à partir de ces denrées un moyen de lisser les fluctuations des cours. Après les chocs pétroliers de 1973 et de 1979, ils y ont vu un moyen de réduire leur dépendance pétrolière. C’est ainsi que le Brésil a commencé à utiliser ses excédents de sucre de canne pour faire de l’éthanol et s’en est servi largement pour faire rouler son parc de véhicules à une époque où il n’était pas encore producteur de pétrole. Les États-Unis, premier producteur de maïs du monde, ont produit de l’éthanolcarburant avec leurs excédents de maïs. En Europe, les prix du sucre sont depuis longtemps très supérieurs à ceux du marché mondial. Les excédents ne peuvent donc être écoulés sur ce marché sans subventions à l’exportation. Or les accords passés sur les produits agricoles dans le cadre de l’Organisation mondiale du commerce (OMC) ont abouti à limiter les subventions à l’exportation, et devraient entraîner une diminution de la production de sucre en Europe. D’où l’idée de transformer les excédents de sucre produits à partir de betterave en éthanol-carburant plutôt que de réduire considérablement la production et faire de cette activité un secteur sinistré. Le problème se pose de la même façon pour les excédents de blé et de maïs, qui ne peuvent être écoulés sans subventions sur le marché mondial. Leur transformation en éthanol est donc intéressante. De plus, les drèches de maïs et de blé et les pulpes de betteraves, qui sont les sous-produits de la fabrication de l’éthanol, sont utilisables en alimentation du bétail. Les agriculteurs européens ont aussi cherché des débouchés hors alimentation humaine aux huiles produites lors de la fabrication des tourteaux utilisés comme source de protéines végétales dans l’alimentation animale. En effet, la production de tourteaux était en forte augmentation du fait de l’augmentation de la consommation de viande, et la production d’huile associée a rapidement dépassé les quantités nécessaires pour l’alimentation humaine. La crise de la vache folle a amplifié le phénomène parce qu’il a fallu remplacer les farines animales, jusque-là source importante de protéines pour l’alimentation des bovins, mais jugées responsables de la propagation de l’épidémie.

Bernard Durand

129

Ces tourteaux sont fabriqués à partir des graines ou de drupes de plantes oléagineuses, soja aux États-Unis, au Brésil et en Argentine, colza et tournesol en Europe, palme en Afrique tropicale, en Indonésie et en Malaisie. En France, environ 70 % en poids sont des tourteaux de soja, importés pour l’essentiel des États-Unis, du Brésil ou d’Argentine sous forme soit directement de tourteaux, soit de graines destinées à être « triturées » en France pour produire des tourteaux et de l’huile. Environ 15 % proviennent de colza et 10 % de tournesol, cultivés sur le sol français. Mais ceux-ci sont surtout destinés à l’alimentation des ruminants, car ils ne peuvent être utilisés, pour des raisons de composition, qu’en complément dans l’alimentation des porcs et des volailles. Ils ne peuvent donc se substituer que partiellement au soja. En d’autres termes, augmenter notre production de tourteaux de colza et de tournesol ne permet pas de réduire considérablement nos importations de tourteaux de soja, même si une réduction est possible grâce aux progrès dans les formulations des aliments pour bétail. Par ailleurs, les tourteaux de tournesol sont moins intéressants que ceux de colza, parce qu’ils contiennent moins de protéines que ceux-ci. La consommation française totale de tourteaux était fin 2007 de l’ordre de 7 millions de tonnes. Bizarrement, malgré ses besoins en tourteaux de soja, la France n’est pas autorisée à cultiver de grandes quantités de soja sur son sol : en effet, les graines de soja sont riches en protéines, et en vertu d’accords commerciaux dans le cadre de l’Organisation mondiale du commerce (OMC), l’Europe est soumise à un quota de production de protéines végétales ! Alors qu’il semble possible de cultiver 400 000 hectares de soja, ce qui correspond à une production possible de tourteaux de l’ordre du million de tonnes, la surface utilisée n’est que d’un dixième de cette valeur ! Il faut noter toutefois que les terres convenant au soja conviennent aussi très bien au maïs, dont la culture est actuellement plus avantageuse. Les huiles extraites des gaines d’oléagineux représentent environ 20 % du poids de la graine pour le soja, 40 à 45 % pour le colza et 45 à 50 % pour le tournesol. Une partie de ces huiles est utilisée dans l’alimentation humaine, mais un excédent d’huile existe dans les pays développés, du fait comme on l’a vu de l’augmentation continuelle de la consommation de viande et donc de tourteaux. En Europe, il s’agit surtout d’huile de colza. Cette idée de transformer en carburants les huiles végétales, les sucres et l’amidon des plantes céréalières a trouvé un écho favorable dans l’opinion des pays européens et aux États-Unis, du fait des craintes de pénurie du pétrole,

130

La crise pétrolière

mais aussi à cause du caractère renouvelable de cette production, à un moment où les débats sur l’environnement commençaient à monter en puissance. Les compagnies pétrolières ont aussi favorisé leur développement à un moment où leur capacité de raffinage était insuffisante et où elles trouvaient dans ces biocarburants les matières premières de la fabrication d’additifs pour améliorer les performances de certains carburants importés, mais aussi pour remplacer le plomb tétraéthyl (C2H5)4 Pb, antidétonant jusqu’alors ajouté dans les essences mais interdit depuis peu pour arrêter la grave pollution par le plomb dont il était responsable. Des marchés de biocarburants se sont donc créés. Pour les approvisionner, des forêts sont maintenant rasées en Afrique et en Indonésie pour développer la culture du palmier à huile, dont le fruit donne une huile utilisée traditionnellement pour l’alimentation, mais qui peut servir également à faire des carburants. Le Brésil a créé d’immenses nouvelles cultures de canne à sucre, les États-Unis ont développé leurs cultures de maïs et les Européens leurs cultures de colza, de tournesol et de betteraves, et consacré à la fabrication d’éthanol une partie croissante de leur production de blé et de maïs. Les biocarburants actuels sont dits biocarburants de première génération (G1). Ils sont de deux sortes. • Les substituts du gazole Appelés souvent biodiesels ou diesels verts, ils sont fabriqués à partir d’huiles de graines ou de drupes de plantes oléagineuses : colza, tournesol, soja, palme... En Europe, du fait de la prédominance du gazole comme carburant, ce sont eux dont la production, à partir du colza et du tournesol, est la plus développée. L’huile végétale brute (ainsi que l’huile de friture purifiée) peut être utilisée directement dans les moteurs diesel de type ancien au prix de transformations minimes de ces moteurs. C’est ce que l’on appelle l’huile végétale carburant (HVC). Utilisées dans les moteurs modernes, le risque de casse est élevé parce que ces huiles sont instables et forment dans les moteurs des produits visqueux ou même solides. Cependant un mélange comportant jusqu’à 30 % d’HVC dans du gazole produit un carburant tout à fait acceptable pour des tracteurs et des véhicules équipés de moteurs diesel de l’ancienne génération.

Bernard Durand

131

Signalons toutefois que la combustion des huiles végétales dans les moteurs produit des quantités importantes d’aldéhydes réputés cancérigènes, entre autres d’acroléine, substance piquant les yeux, bien connue des cuisiniers qui laissent surchauffer de l’huile de friture. Mieux vaut pour les moteurs modernes utiliser des produits dérivés, les esters méthyliques d’huiles végétales (EMHV), en anglais fatty acid methyl esters (FAME) dont les propriétés sont très voisines de celles d’un gazole : ils sont produits par une transestérification des huiles (figure 3.3) par du méthanol(CH3OH). Le méthanol utilisé n’est pas d’origine végétale puisque les fermentations naturelles n’en produisent que peu : on le fabrique à partir de gaz naturel. Pour fabriquer une tonne d’EMHV, on fait réagir 100 kg de méthanol sur une tonne d’huile et l’on obtient 100 kg de glycérine6comme sous-produit.

Figure 3.3. La réaction de transestérification par le méthanol, qui permet de produire du biodiesel à partir d’huile végétale6.

6

L’huile de palme a des points de congélation élevés, ainsi que le biodiesel produit à partir d’elle par transestérification. Elle présente donc des difficultés d’utilisation en Europe, où les températures sont en hiver plus faibles que la température de congélation de son biodiesel.

132

La crise pétrolière

La glycérine ainsi produite est utilisable pour une variété d’usages, mais elle sera fabriquée en quantités supérieures aux besoins de son marché si la production mondiale d’EMHV augmente considérablement. Des recherches sont actuellement effectuées, entre autres en France dans le cas du projet Shamash, sur la production de biodiesel à partir de microalgues riches en huile. Ces algues, qui sont des algues unicellulaires, sont réputées avoir des rendements en huile à l’hectare beaucoup plus importants que ceux des oléagineux, certains parlent de trente fois. S’il est incontestable que les rendements sont meilleurs, ce ne sera certainement pas en pratique dans de telles proportions, car il s’agit là de rendements obtenus en laboratoire dans des conditions qui ne sont pas transposables à l’échelle industrielle (Cadoret et Bernard, 2008). Comme pour les biocarburants obtenus à partir de plantes terrestres, il faudra tenir compte, pour évaluer le rendement énergétique réel, des quantités d’énergies utilisées par la filière, qui sont mal cernées actuellement, mais seront certainement importantes. Aucun procédé robuste n’a pour l’instant vu le jour ! • Les substituts de l’essence C’est l’éthanol, autrement dit l’alcool éthylique des boissons alcoolisées, qui a des propriétés voisines de celles de l’essence. Appelé souvent bioéthanol à cause de ses origines, il est produit par fermentation alcoolique de jus sucrés produits de deux façons : – à partir de plantes à fort rendement en saccharose (betterave, canne à sucre) ; – à partir de plantes à fort rendement en amidon, polymère de glucose, appelées plantes amylacées (blé, maïs, pommes de terre) ou en inuline, sucre complexe formé de saccharose, de glucose et de fructose (topinambour). Il faut dans ce cas procéder, préalablement à la fermentation alcoolique, à une hydrolyse qui produit des sucres par dépolymérisation de l’amidon ou de l’inuline. Il s’agit d’une hydrolyse enzymatique à l’aide d’enzymes spécifiques tels que l’␣-amylase et le glucoamylase pour l’amidon. L’éthanol est aussi utilisé pour faire les additifs antidétonants qui ont remplacé le plomb tétraéthyl dans les essences. Il est pour cela combiné à de l’isobutène produit à partir du pétrole (47 % d’éthanol pour 53 % d’isobutène) pour faire de l’éthyltertiobutyl éther (ETBE). En France, les EMHV sont actuellement ajoutés en petites proportions au gazole, et l’ETBE à l’essence, ce qui permet de ne pas modifier les moteurs

Bernard Durand

133

actuels. L’utilisation directe de l’éthanol, seul ou en mélange à plus de 5 % avec de l’essence, n’est pas recommandée avec les motorisations classiques, car ces carburants sont très volatils, et cela entraîne des risques pour les moteurs, mais aussi des émissions de COV supérieures aux normes actuelles. Il existe cependant des motorisations adaptées, telle la motorisation flexfuel qui permettent d’utiliser indifféremment de l’essence, de l’éthanol ou un mélange des deux en différentes proportions. Ces systèmes sont très utilisés au Brésil, et dans une moindre mesure en Suède. On cherche actuellement à fabriquer à partir de l’éthanol des esters éthyliques d’huile végétale (EEHV) qui pourraient être ajoutés au gazole. Cela permettrait de mieux développer la filière éthanol, qui est limitée en France par la proportion relativement faible de véhicules à essence. Notons que le contenu énergétique massique ou volumique des biocarburants de première génération est inférieur à celui des carburants pétroliers, d’environ 10 % pour le biodiesel comparé au gazole, mais d’environ 1/3 pour l’éthanol (figure 3.2). Cela est dû à leur contenu en oxygène. On peut regretter que les médias s’obstinent à comparer les quantités d’éthanol et d’essence en litres, sans se donner la peine d’indiquer qu’un litre d’éthanol ne vaut en termes énergétique que 0,67 litres d’essence (et seulement 0,5 kilogramme-équivalent pétrole (kep)). Malgré ces remarquables développements, compter sur la production en Europe de biocarburants G1 pour résoudre la crise pétrolière est une illusion, pour plusieurs raisons : – Les rendements à l’hectare sont obligatoirement faibles, la transformation de l’énergie solaire en énergie accumulée dans les plantes étant très faible, moins de 1 %. En moyenne annuelle les rendements bruts sont en France : pour l’éthanol, de 5,6 tonnes (3,7 tep) par hectare pour la betterave, 2,5 tonnes (1,7 tep) par hectare pour le blé et 2,7 tonnes (1,8 tep) par hectare pour le maïs ; pour les huiles végétales, de 1,3 tonnes (1,2 tep) par hectare pour le colza et 1 tonne (0,9 tep) par hectare pour le tournesol. – Comme pour tous les produits agricoles actuellement, la somme des quantités d’énergie utilisées pour la culture (mise en culture, irrigation, fabrication des engrais et des pesticides, récolte…) et de celles utilisées pour la collecte et la fabrication (pour l’éthanol, il faut en particulier consacrer beaucoup d’énergie à la distillation !) est importante, et doit être déduite de l’énergie des biocarburants. Or en Europe l’énergie

134

La crise pétrolière

utilisée est non renouvelable, et consiste surtout en pétrole et gaz, directement ou indirectement. Les estimations de l’énergie nette du biocarburant, c’est-à-dire après déduction de l’énergie utilisée pour le produire, font l’objet de calculs plus ou moins sincères : l’énergie utilisée n’est pas affectée en totalité à la fabrication du biocarburant, mais en partie à la fabrication des co-produits, en clair les tourteaux destinés à l’alimentation du bétail, la glycérine, qui est un sousproduit de la fabrication du biodiesel, ou les résidus de culture susceptibles de servir d’engrais, suivant des règles qui ont un caractère largement arbitraire. Souvent l’énergie utilisée est affectée au biocarburant et aux coproduits par la méthode des prorata massiques, c’est-à-dire proportionnellement à leurs masses à l’issue du processus de fabrication. Cette méthode est celle qui présente les biocarburants sous leur jour le plus favorable. Une autre méthode, plus rigoureuse mais difficile à mettre en œuvre, est la méthode des impacts évités, qui consiste à déduire de l’énergie contenue dans le biocarburant celle qui est nécessaire à la fabrication des matières auxquelles se substituent effectivement les coproduits dans l’économie réelle. La méthode maintenant retenue par la Communauté européenne est la méthode des prorata énergétiques, appelée encore méthode des allocations énergétiques, qui consiste à affecter les consommations énergétiques en fonction du pouvoir calorifique inférieur (PCI) des carburants produits et de leurs coproduits7. Mais dès que la quantité de biocarburants produits excède celle qui découle normalement de la fabrication des coproduits réellement demandés par le marché, l’énergie utilisée pour produire les excédents devrait être affectée uniquement aux biocarburants produits. Si l’on ne retient que cet aspect énergétique des choses, les quantités nettes d’énergie correspondant à ces excédents seraient par hectare d’environ 0,8 tep pour les huiles et les diesters produits à partir du colza et du tournesol ainsi que pour l’éthanol produit à partir de betterave, et à peu près nulles pour l’éthanol produit à partir du blé. Un rapport assez détaillé sur le sujet est par exemple le rapport EDEN, accessible sur le site www.espoir-rural.fr. Dans le cas de l’éthanol produit à partir du maïs, les 7

La combustion des substances carbonées produit non seulement du gaz carbonique, mais aussi de l’eau puisque ces substances contiennent généralement de l’hydrogène. Cette eau est vaporisée lors de la combustion et emmène avec elle la chaleur de sa vaporisation. La chaleur réellement récupérée lors d’une combustion est donc plus faible que la chaleur totale produite. Cette quantité récupérée est ce que l’on appelle le pouvoir calorifique inférieur, par rapport à la chaleur totale produite qui est le pouvoir calorifique supérieur (PCS).

Bernard Durand

135

études sont peu nombreuses, particulièrement en France. Une étude de Chavanne et Frangy (2008) montre qu’aux États-Unis le bilan est fortement négatif, car le maïs doit être irrigué en été, et aussi séché après la récolte, ce qui consomme de l’énergie. Notons que l’huile végétale dont on fait les EMHV n’a pas, pour les même raisons de faible rendement de la photosynthèse, un rendement brut à l’hectare plus important que ceux-ci ; elle a un bilan énergétique plus favorable, de l’ordre d’1 tep/ha au lieu de 0,8, si elle est utilisée dans l’exploitation ellemême, car il s’agit là d’un circuit de fabrication court qui ne demande pas de moyens importants. Il n’est donc pas déraisonnable de l’utiliser pour alimenter les tracteurs de l’exploitant. On retrouverait ainsi la situation d’avant-guerre, où une partie de la surface des exploitations était affectée à l’alimentation des animaux de trait ! Mais il s’agit là d’une utilisation presque anecdotique, étant donné la faible part de la consommation de carburant des exploitations agricoles dans la consommation totale. Un inconvénient est que les tourteaux ainsi produits sont insuffisamment déshuilés et donc peu digestes, parce que l’extraction se fait alors à froid. Une directive européenne a fixé à 5,75 %, en pourcentage énergétique calculé en PCI, le taux d’incorporation moyen de biodiesel dans le gazole et d’éthanol dans l’essence à atteindre en 2010. Cela correspond pour la France à la production d’environ 2,4 millions de tonnes de biodiesel, et de 1 million de tonnes d’éthanol (dont un tiers produit à partir de betterave et deux tiers à partir de blé). Étant donné que l’on excèdera alors les quantités de coproduits correspondant à la demande des marchés, le bénéfice énergétique net sera de l’ordre de 4 % et non de 5,75 %, ce qui revient à dire que l’on produira ainsi en net l’équivalent de 4 % seulement de notre consommation de carburants ! Pourtant les surfaces nécessaires pour obtenir ce résultat seront alors de l’ordre de 2,5 millions d’hectares au total, soit 12 % de nos surfaces labourables. À noter également que même avec les prix actuels des carburants, qui comme chacun sait comprennent une part importante de taxes, cette culture n’est pas encore rentable si l’on déduit les subventions accordées d’une manière ou d’une autre aux agriculteurs. Et il est significatif que les agriculteurs préfèrent encore à l’heure actuelle utiliser du gazole détaxé que des biocarburants pour faire tourner leur exploitation.

136

La crise pétrolière

Si cela crée des emplois et valorise l’agriculture, tant mieux ! Mais les projets actuels de l’Europe, qui sont de produire ainsi 10 % (en proportion énergétique) de la consommation de carburants, semblent déraisonnables s’il s’agit uniquement des biocarburants G1. Ils conduiraient à une énorme emprise sur les surfaces cultivables, sans pour autant que cela contribue autrement que marginalement (5 à 6 % net environ) à nos besoins en carburants ! D’autre part, la recherche des meilleurs rendements risque de conduire à l’utilisation des meilleures terres agricoles et à une surconsommation d’eau pour éviter une baisse de ces rendements les années peu pluvieuses, ainsi qu’à une importante pollution par les engrais et les pesticides. La production des biocarburants, qui a été contenue jusqu’à présent dans des limites raisonnables et a bénéficié aux agriculteurs, risque donc avec les projets en cours de devenir largement en France, et plus généralement en Europe, une opération de transformation d’énergie non renouvelable, surtout pétrole et gaz, en biodiesel ou éthanol, avec un coût important pour la collectivité, car le prix de revient réel de ces carburants est même à l’heure actuelle encore bien supérieur à celui des carburants pétroliers. Pour que ces biocarburants soient compétitifs pour le consommateur, ils ne peuvent donc pas être taxés autant que ces carburants. La collectivité devra donc payer sous une autre forme le manque à gagner d’impôts, et ceux qui ne possèdent pas de voiture, essentiellement des personnes à faible revenu, devront payer comme les autres, au profit des seuls agriculteurs et des industriels associés. D’autre part, la production de biocarburants entrera alors en compétition avec celle des produits alimentaires. Car si l’on a probablement exagéré le rôle joué jusqu’à présent par le développement des biocarburants sur l’augmentation des prix alimentaires, ce développement finira logiquement par limiter les surfaces disponibles pour les cultures vivrières, et cela fera alors diminuer les productions et donc augmenter les prix. De plus, l’augmentation de la population mondiale va faire augmenter considérablement la demande. Le cas des États-Unis Contrairement au cas de l’Europe, l’essence est le carburant le plus utilisé aux États-Unis et c’est donc l’éthanol qui est le biocarburant le plus développé. La production d’éthanol à partir de maïs a permis à ses débuts d’y régulariser le cours du maïs, puis de fabriquer de l’éthyltertiobutyléther (ETBE), pour remplacer le plomb tétraéthyl comme antidétonant. Suite à l’interdiction des éthers aux États-Unis pour des raisons environnementales, l’éthanol est

Bernard Durand

137

devenu un additif antidétonant indispensable pour les essences sans plomb. Les craintes de pénurie du pétrole ont conduit à un développement rapide de sa production. Malgré les récentes augmentations du prix du pétrole, c’est encore une production très subventionnée. Comme en Europe, l’énergie utilisée n’est pas une énergie renouvelable. Elle est fournie principalement, directement ou indirectement, surtout par du gaz mais de plus en plus par du charbon via l’électricité, que l’on transforme ainsi en quelque sorte en carburants, au prix d’une pollution considérable. Les objectifs sont d’incorporer 10 % d’éthanol à l’essence en 2020, ce qui nécessitera d’affecter à cette production environ 30 % des surfaces cultivables ! Le cas du Brésil Comme les États-Unis, le Brésil roule surtout à l’essence et utilise l’éthanol comme substitut. Les quantités d’éthanol qu’il est possible de produire par hectare à partir de la canne à sucre au Brésil ne sont qu’à peine supérieures à celles qu’il est possible de produire à partir de la betterave en Europe, 3,8 tep en moyenne contre 3,7 tep. Et comme dans le cas de la betterave, la quantité d’énergie qu’il faut utiliser pour cela réduit considérablement la quantité nette d’énergie produite. Mais contrairement au cas de la betterave, où l’énergie utilisée n’est pas une énergie renouvelable, l’énergie nécessaire à la production d’alcool est ici fournie par la combustion des résidus lignocellulosiques de la culture, la bagasse qui est le résidu de l’extraction des jus sucrés, et les parties de plantes non utilisées. Il en résulte que la consommation d’énergie non renouvelable est ici pratiquement nulle, et qu’il est même possible avec une bonne organisation de produire, en plus de l’éthanol, de la chaleur ou de l’électricité. Compte tenu de ces avantages naturels, la production d’éthanol est rentable dans ce pays aux cours actuels du pétrole, et cela d’autant plus que la culture et la récolte y sont largement assurées pour l’instant par une masse de paysans pauvres. D’autre part, les possibilités de production y sont considérables, du fait de l’immensité des surfaces que ce pays est susceptible d’y consacrer : les surfaces labourables sont d’environ 90 millions d’hectares, le Brésil projette d’en consacrer environ 20 % à la production d’éthanol, ce qui correspond en net à environ 80 Mtep d’éthanol, soit 6 % de la consommation mondiale d’essence !

138

La crise pétrolière

La production de biocarburants G1 est également très souvent présentée comme permettant de lutter contre l’effet de serre. En effet, le gaz carbonique utilisé pour la croissance des plantes doit être soustrait des quantités de gaz carbonique produites par la filière. Là encore les bilans sont en général beaucoup moins flatteurs qu’on ne le dit, car la production de gaz carbonique à partir des combustibles fossiles utilisés directement ou indirectement pour la culture, la fabrication et le conditionnement est en général sous-estimée : des données récentes de l’Agence internationale de l’énergie indiquent que l’avantage sur les carburants pétroliers est une réduction des émissions de gaz carbonique d’environ 15 % pour l’éthanol produit à partir du maïs aux États-Unis, de 50 % pour l’éthanol produit à partir de la betterave en Europe, d’à peu près autant pour le diester de colza, mais, pour les raisons que nous avons déjà présentées, de 95 % pour l’éthanol produit à partir de canne à sucre au Brésil. Ces estimations sont faites par les mêmes méthodes que celles utilisées pour le calcul des rendements énergétiques. Par conséquent, à partir du moment où la production entraîne une fabrication de sous-produits qui ne sont plus valorisés par le marché, les émissions de gaz à effet de serre devraient être intégralement répercutées sur les biocarburants produits, ce qui n’est pas le cas des estimations indiquées ci-dessus. Elles ne prennent pas non plus toujours en compte les émissions d’autres gaz à effet de serre, en particulier l’oxyde nitreux (N2O) produit par la décomposition des engrais azotés, qui est beaucoup plus actif que le gaz carbonique. D’autre part, des voix s’élèvent de plus en plus pour signaler que l’affectation croissante des sols à ce type de culture produira dans un certain nombre de cas, en particulier lors de l’utilisation à cet usage de prairies, de tourbières ou de forêts, la libération de grandes quantités de gaz carbonique qui y sont actuellement stockées ! Le bilan des gaz à effet de serre (GES) devient alors fortement négatif pour des dizaines d’années ! Enfin, la demande mondiale croissante en produits alimentaires et les diminutions de production dues aux aléas climatiques entraînent actuellement une tension sur les prix agricoles, que l’affectation de grandes surfaces labourables à la production de biocarburants plutôt qu’à l’alimentation va finir par exacerber ! Il existe bien entendu une marge importante d’amélioration, mais il ne faut pas compter sur ce type de biocarburants, dits de première génération, pour résoudre le problème posé par une pénurie de pétrole.

Bernard Durand

139

Pour le monde, les productions nettes seront probablement en 2008 d’environ 4 Mtep d’EMHV, surtout en Europe, et de 40 Mtep d’éthanol, surtout au Brésil et aux États-Unis, à comparer aux presque 2 Gtep de la consommation mondiale de carburants ! La concurrence du Brésil et des autres pays (Malaisie par exemple), où les biocarburants produits peuvent être compétitifs avec le pétrole aux prix actuels, risque de ruiner les efforts faits dans les pays moins favorisés climatiquement, la France par exemple, en cas de développement du marché mondial des biocarburants ! Et certains vont déjà jusqu’à proposer d’importer en Europe des biocarburants de ces pays pour satisfaire la récente directive européenne de porter à 10 % la proportion de biocarburants dans les carburants d’ici 2020 ! En définitive la fabrication des biocarburants G1 en Europe est née d’une légitime ambition des professions agricoles de valoriser leurs produits et de moins dépendre des fluctuations des marchés mondiaux. Elle a rencontré un écho favorable dans une opinion publique de plus en plus sensibilisée aux problèmes environnementaux. Pratiquée sans excès, elle se justifie sans doute pour l’équilibre du monde agricole. L’apport de carburants qu’elle procure est aussi à prendre en considération, mais ne peut contribuer que marginalement à nos besoins. Mais la politique actuelle de développement a été mise en application sans analyse préalable approfondie sous la pression d’intérêts agricoles et industriels relayés au niveau politique. Les quantités actuellement produites en Europe semblent déjà à la limite de ce qu’il est raisonnable de faire, et les taux d’incorporation de biocarburants dans les carburants fixés par la Commission européenne pour 2020 sont quant à eux franchement déraisonnables, sauf si la consommation de carburants a considérablement diminué d’ici là, ou si, comme on le verra plus loin, on saura alors fabriquer des biocarburants de deuxième génération (G2) ! En d’autres termes, valoriser les excédents inévitables d’huiles végétales sousproduits de l’alimentation animale en carburants présente en Europe un intérêt non seulement pour les agriculteurs, pour régulariser les cours et augmenter leurs revenus, mais aussi pour le reste de la société, pour diminuer un peu la dépendance pétrolière. Augmenter artificiellement ces excédents pour en faire des carburants présente un intérêt pour les seuls agriculteurs et pour quelques industriels.

140

La crise pétrolière

Les agriculteurs pourraient quant à eux consacrer une partie de leurs exploitations à produire de l’huile végétale carburant pour faire fonctionner leurs tracteurs, de la même façon que l’on consacrait avant la guerre une partie des exploitations à l’alimentation des animaux de trait. Ils se rendraient ainsi moins dépendants du cours du pétrole, mais plus dépendants du cours des oléagineux ! Mais il s’agirait là d’une production anecdotique. La fabrication de biocarburants G1, dans les pays dont le climat permet de cultiver avec de forts rendements sur de très grandes surfaces des espèces végétales particulièrement favorables, est devenue économiquement viable. Le Brésil en particulier est bien placé avec la canne à sucre et pourrait produire en théorie des quantités d’éthanol représentant en contenu énergétique jusqu’à 10 % de la consommation mondiale actuelle d’essence en utilisant 25 % de ses surfaces cultivables ! Et les États-Unis envisagent de couvrir 10 % de leurs besoins en essence avec de l’éthanol de maïs, en utilisant pour cela 30 % de leurs surfaces cultivables ! Reste à savoir si c’est la meilleure utilisation possible des terres agricoles dans ces pays, et quels sera, en définitive, le bilan énergétique et environnemental réel de ces cultures ! L’espoir des biocarburants de deuxième génération (G2) ? Les recherches sont actuellement très actives pour fabriquer des biocarburants de deuxième génération (G2). Ceux-ci sont fabriqués à partir de plantes entières et non d’une petite partie, comme c’est le cas pour les biocarburants de première génération. Par rapport à ceux-ci, cela n’augmente guère les quantités de biocarburant produites par hectare. Mais les quantités nettes, après déduction de l’énergie nécessaire, sont plus importantes car il faut moins d’énergie pour la culture et la fabrication. Une partie très substantielle de la biomasse utilisée pourrait venir de déchets végétaux agricoles et forestiers actuellement non valorisés. C’est surtout grâce à eux que les quantités de biocarburants qu’il serait possible de produire en net seraient bien supérieures à celles de la filière G1, et cela sans entrer en compétition avec les cultures vivrières. On peut aussi développer des cultures dédiées. En Europe et aux États-Unis, on pense utiliser des plantes comme l’herbe à éléphant (roseau miscanthus) ou le switch grass (panic érigé), les taillis à pousse rapide (saule, peuplier…). Mais attention, de grandes quantités d’eau et d’engrais seront malgré tout nécessaires pour que les plantes dites à pousse rapide poussent réellement rapidement, et il existe ici un risque de déforestation en cas de

Bernard Durand

141

développement industriel important : les forêts actuelles pourraient être remplacées par des cultures constituées d’essences à pousse rapide, ce qui diminuerait la biodiversité. Un exemple est celui de la Tasmanie, où des industriels plantent des forêts constituées d’une essence unique destinée à la fabrication de la pâte à papier, après avoir détruit les forêts anciennes par brûlage au napalm ! Parmi les plantes vivrières, on pense également pouvoir utiliser le blé, le triticale (hybride de blé et de seigle) et le sorgho, plante voisine du maïs mais qui demande moins d’eau pour sa culture. • L’éthanol de cellulose Les recherches sont actuellement très actives pour faire de l’éthanol à partir de la cellulose, polymère complexe de glucose, et des hémicelluloses, polymères de sucres variés. Ces substances sont bien plus abondantes que les sucres provenant des plantes sucrières telles que la betterave ou la canne à sucre, ou que l’amidon des plantes céréalières, car elles sont avec la lignine les constituants majeurs des plantes supérieures, arbres et plantes herbacées, ainsi appelées, par opposition avec les plantes inférieures, qui sont les algues unicellulaires principalement. En effet, le bois et toutes les parties dites ligneuses de ces plantes sont une association de lignine, de cellulose et d’hémicelluloses. L’obstacle principal au développement de cette filière est que la cellulose doit être préalablement dépolymérisée à l’aide d’enzymes spécifiques, pour être ensuite transformée en glucose, lequel sera ensuite soumis à une fermentation alcoolique. Ces enzymes, que l’on ne trouve que dans certains champignons inférieurs et dans certaines bactéries, sont difficiles à isoler et coûteuses à produire. Mais surtout, la plus grande partie s’en absorbe sur les produits de réaction et ne peut être réutilisée. Il est difficile dans ces conditions de réaliser une production d’éthanol en continu ! Malgré d’épisodiques communiqués triomphalistes, cette technique n’arrive pas encore à dépasser le stade du laboratoire. • Les carburants BTL-FT La gazéification de la biomasse, suivie d’une synthèse Fischer-Tropsch, permettent d’envisager d’utiliser la biomasse pour la fabrication de carburants BTL-FT. Le rendement massique en biocarburants est de l’ordre de 15 à 20 % du poids initial de biomasse sèche et le rendement énergétique net de la filière est de l’ordre de 30 à 40 %, ce qui est beaucoup moins que ce qu’on peut obtenir avec du charbon, et surtout du gaz naturel (tableau 3.2).

142

La crise pétrolière

Tableau 3.2. Ordres de grandeur des rendements énergétiques de la fabrication de carburants synthétiques à partir de diverses sources carbonées, en %. Il s’agit donc du rapport entre la quantité d’énergie disponible dans une unité de masse de carburant, et la quantité totale d’énergie ayant servi à la produire. Pour le charbon et la biomasse, les rendements s’entendent ici sur matière sèche, c’est-à-dire débarrassée de son humidité. Or le charbon ou la biomasse séchés naturellement contiennent encore des proportions notables d’eau (10 % pour le charbon, 20 % pour la biomasse) dont il faut se débarrasser, ce qui demande de l’énergie. D’autre part, ces rendements varient sensiblement en fonction des qualités du charbon ou de biomasse. Rendements énergétiques de la fabrication de carburants synthétiques à partir de diverses sources carbonées (en %) Source Gaz naturel (GTL) Charbon (CTL) Biomasse (BTL- FT) Carburants liquides 60 45-55 30-40

L’énergie est tirée de la biomasse elle-même. C’est ce que l’on appelle un procédé autothermique. Le bilan énergétique net est alors de l’ordre d’une tep à l’hectare. Le bilan CO2 est ici très favorable. Cette méthode est d’ores et déjà applicable, mais son prix de revient est encore élevé, bien plus que les prix de revient 2008 de l’essence ou du gazole. La faiblesse du rendement énergétique vient de la relative pauvreté de la biomasse en hydrogène utile, c’est-à-dire celui qui est directement lié à du carbone dans la structure des molécules. Ce rendement pourrait être notablement amélioré, et les quantités de carburants obtenues à partir d’une même quantité de biomasse beaucoup plus grandes, si l’on disposait d’une source additionnelle de chaleur (procédé allothermique) ou d’hydrogène, comme on le verra plus loin. Il semble possible de produire sur le territoire français de 5 à 8 Mtep de carburants uniquement à partir des déchets forestiers, des déchets de l’industrie du bois et des déchets de culture, et à peu près autant à partir de cultures dédiées. La prudence écologique, pour ne pas retomber dans les errements des biocarburants de première génération, serait de ne consacrer pour l’essentiel à la fabrication des biocarburants de deuxième génération que les déchets de culture et les déchets forestiers. Cela devrait pouvoir suffire à produire, en y ajoutant les biocarburants de première génération sous-produits de la fabrication des tourteaux de l’alimentation animale et des excédents de sucre de betterave, l’équivalent de 10 Mtep en net sur le territoire français, sans altérer ses capacités à produire des aliments ni sa biodiversité. Si la division par deux de la consommation française

Bernard Durand

143

de carburants que nous avons évoquée avait lieu, les biocarburants pourraient alors représenter de l’ordre de 40 % de notre consommation. Les quantités de biocarburants G2 productibles sans inconvénient écologique sur le territoire Français semblent donc pouvoir être bien supérieures à celles de biocarburants G1. Mais contrairement aux carburants G1, il s’agit d’une technologie qui n’a pas encore fait vraiment ses preuves, malgré quelques unités pilotes en cours d’évaluation. Des millions de tonnes de biomasse devront être collectés et transportés pour obtenir une production significative de carburants. D’autre part, cette filière n’aura pas de sous-produits valorisables qui pourraient en diminuer le coût pour la collectivité. Mais les biocarburants G2 représentent un espoir sérieux d’arriver à produire des quantités de biocarburants contribuant de manière très significative à notre approvisionnement en carburants.

2.5. L’utopie de l’hydrogène-carburant On peut en principe utiliser l’hydrogène comme carburant à l’aide de deux types de motorisations différentes : – soit directement, dans un moteur à combustion interne (MCI), en anglais internal combustion engine (ICE), tel que ceux de nos véhicules actuels, mais spécialement conçu à cet effet ; – soit indirectement, via une pile à combustible (PC), en anglais fuel cell (FC), qui produit du courant électrique à partir de l’oxydation de l’hydrogène par l’oxygène de l’air, comme on le verra plus loin. Ce courant est utilisé pour faire tourner un moteur électrique. La première méthode a conduit depuis longtemps à des réalisations intéressantes, et un constructeur allemand en fait la publicité, mais c’est la deuxième qui fait l’objet actuellement des recherches les plus importantes, le rendement énergétique du puits à la roue étant pour l’instant de l’ordre de deux fois plus important qu’avec un moteur à combustion interne. L’hydrogène peut en principe être stocké à bord des véhicules de quatre façons différentes : – soit sous forme d’hydrogène comprimé dans des bouteilles à 700 ou même 800 bars ; – soit sous forme d’hydrogène liquide à une température de – 253 ˚C ; – soit sous forme d’hydrures métalliques ; – soit sous forme absorbé dans des nanotubes de carbone.

144

La crise pétrolière

Seule la première de ces techniques est pour l’instant viable pour des véhicules grand public, et cela sera le cas très longtemps. Les autres ne présentent d’ailleurs pas d’avantages ni en bilan énergétique, ni en bilan d’émissions de CO2. En revanche, elles seront sans doute plus commodes d’emploi. L’utilisation de l’hydrogène comme carburant est un thème récurrent dans les médias. On y présente le couple hydrogène-pile à combustible comme l’évident successeur à court terme du couple carburant pétrolier-moteur thermique à combustion interne, qui sert actuellement à faire rouler nos véhicules. Aucune analyse approfondie des possibilités de l’hydrogène-carburant n’y est faite pour autant. On y insiste par exemple beaucoup sur l’absence de pollution des véhicules utilisant l’hydrogène, puisque la combustion de celui-ci ne produit que de l’eau, mais en oubliant de signaler que les moteurs de nos voitures sont devenus très peu polluants grâce aux efforts des constructeurs européens, bien que leur production de CO2 n’ait pas diminué. Et l’on reste muet sur les très importantes émissions de CO2, mais aussi d’autres polluants, des usines de production d’hydrogène. On omet aussi de dire que l’hydrogène n’existe pas à l’état libre sur Terre, sauf dans quelques petits gisements de gaz naturel (tableau 1.2) et qu’il faut donc le fabriquer : or cela consomme plus d’énergie que n’en contient l’hydrogène produit. L’hydrogène n’est donc pas une source, contrairement à ce qui est affirmé, mais un puits d’énergie. C’est en fait un vecteur d’énergie, comme l’est l’électricité, qui tout comme lui est produite avec une grande perte d’énergie. Il n’est donc pas étonnant que beaucoup croient de bonne foi que l’hydrogène est la source d’énergie de l’avenir, et la solution à la crise du pétrole ! L’utilisation directe d’hydrogène comme carburant dans un véhicule est pour l’instant une utopie, et le restera très longtemps encore. Ce ne sont pas tant les motorisations, moteur à combustion interne ou pile à combustible + moteur électrique qui posent les plus gros problèmes, encore qu’une pile à combustible soit un dispositif extrêmement coûteux, que l’hydrogène lui-même. Les raisons en sont les suivantes : 1- Il n’existe pas, comme on vient de le rappeler, de gisement notable d’hydrogène libre sur terre. Il faut donc le fabriquer. Il existe trois méthodes pour cela :

Bernard Durand

145

– La fabrication à partir des combustibles carbonés On a vu que l’hydrogène était un « produit fatal » du raffinage du pétrole. Celui-ci est réutilisé en grande partie dans la raffinerie elle-même, entre autres pour désulfurer les gazoles et les fuels. L’excédent est exporté pour d’autres utilisations et pourrait donc être récupéré pour servir de carburant, mais les quantités ainsi produites ne sont pas suffisantes. Pour fabriquer de grandes quantités d’hydrogène, on utilise actuellement les techniques de gazéification des combustibles fossiles décrites plus haut, réformage à la vapeur et oxydation partielle. On produit ainsi de l’hydrogène (H2) et du monoxyde de carbone (CO). Ce dernier est transformé en gaz carbonique (CO2) pour fournir de l’énergie à la réaction. On utilise ici surtout le gaz naturel, car c’est le combustible fossile qui contient le plus d’hydrogène, et la technique utilisée est le réformage à la vapeur. La fabrication d’hydrogène requiert dans ce cas moins d’énergie qu’avec les autres combustibles, qu’il faut traiter par oxydation partielle, et envoie aussi dans l’atmosphère moins de gaz carbonique, dont on sait qu’il est un gaz à effet de serre. La performance énergétique du puits à la roue des véhicules utilisant de l’hydrogène-carburant fabriqué à partir du gaz naturel et utilisé dans une voiture électrique à pile à combustible est très voisine de celle des véhicules utilisant du GNV. Ainsi, une voiture équipée d’une pile PEM a un rendement énergétique de l’ordre de 26 %, qui se décompose en : 0,8 pour la compression de l’hydrogène ⫻ 0,4 pour le rendement de la pile à combustible ⫻ 0,8 pour le rendement du moteur électrique. Le rendement énergétique pratique de la fabrication de l’hydrogène à partir de gaz naturel étant à peu près de 70 % (tableau 3.3), le rendement du puits à la roue est donc de 18 %. C’est aussi celui d’un véhicule utilisant directement du GNV. La performance environnementale du puits à la roue est aussi à peu près la même que celle du GNV. On a donc ici un petit avantage par rapport à l’essence et au gazole, comme nous l’avons vu pour le GNV. Malheureusement, le prix de revient de l’hydrogène ainsi produit est 2 à 3 fois celui du gaz naturel ! On verra que le coût des véhicules et celui des infrastructures nécessaires sont également beaucoup plus élevés, et l’autonomie bien plus faible, dans le cas de l’hydrogène-carburant, que dans celui du gaz naturel ! Il est donc absurde d’utiliser de l’hydrogène issu du gaz naturel comme carburant plutôt que le gaz naturel lui-même ! La performance énergétique et environnementale de l’hydrogène-carburant fabriqué par oxydation partielle du charbon et utilisé dans des voitures à piles

146

La crise pétrolière

à combustibles est quant à elle sensiblement moins bonne que celle de l’hydrogène-carburant fabriqué à partir du gaz naturel. Le rendement énergétique de la production d’hydrogène n’est plus ici que de 60 à 65 % environ (tableau 3.3), et cela pour les charbons bitumineux, les plus riches en hydrogène ! Le rendement du puits à la roue d’une voiture équipée d’une pile à combustible n’est donc plus ici que de l’ordre de 15 %. En revanche, la performance environnementale est meilleure que celle des carburants CTL utilisés dans des voitures à moteur thermique. Mais le prix de l’hydrogène ainsi fabriqué est bien plus élevé que celui de ces carburants. Toutefois, étant donné un coût du charbon pour l’instant beaucoup plus faible que celui du gaz naturel à énergie contenue égale, ce prix est inférieur à celui de l’hydrogène fabriqué à partir du gaz naturel ! Les quantités de CO2 produites sont bien plus importantes par masse d’hydrogène produit qu’avec le gaz naturel. L’hydrogène-carburant fabriqué à partir de biomasse a des performances énergétiques encore moins bonnes (tableau 3.3). En revanche, puisqu’il s’agit d’énergie renouvelable, les émissions de CO2 du puits à la roue sont alors bien plus faibles que dans les cas précédents. L’hydrogène non utilisé par les raffineries ou fabriqué à partir du gaz naturel est actuellement destiné à la chimie. Cette production est relativement importante puisque son contenu en énergie représente environ 2 % de l’énergie finale utilisée dans le monde. Dans le nord de la France, il existe depuis longtemps un réseau de gazoducs transportant de l’hydrogène, sans accident jusqu’à présent.8 Tableau 3.3. Ordre de grandeur des rendements énergétiques du puits à la roue de l’hydrogène-carburant produit à partir de diverses sources carbonées. On suppose que l’hydrogène est stocké sous une pression de 700 bars et utilisé dans une pile à combustible produisant de l’électricité avec un rendement de 40 %. Le rendement de la compression de l’hydrogène à 700 bars est supposé être de 80 % et le rendement du moteur électrique de 80 %. Le produit de ces trois rendements est donc approximativement de 26 %8. Source Gaz naturel Rendement énergétique de fabrication (%) 70 de l’hydrogène Rendement du puits à la roue (%) 18 8

Charbon

Biomasse

60-65

40-50

15-17

10-13

Rappel : Le rendement énergétique du puits à la roue est pour un véhicule le rapport entre l’énergie mécanique transmise aux roues et la somme de l’énergie nécessaire pour produire le carburant et l’amener au véhicule (du puits au réservoir), et de l’énergie de combustion du carburant (du réservoir à la roue).

Bernard Durand

147

– La fabrication par électrolyse de l’eau Le rendement énergétique de la fabrication de l’hydrogène est ici plus faible que dans les cas précédents, car il faut d’abord fabriquer l’électricité, avec un rendement qui est généralement faible (tableau 3.4), puis procéder à l’électrolyse. L’électrolyse a un rendement d’environ 60 %. Dans le cas de la fabrication d’électricité à partir de combustibles carbonés, les rendements énergétiques du puits à la roue sont finalement bien inférieurs à ceux de la fabrication directe de l’hydrogène à partir de gaz naturel, de charbon ou même de biomasse ! Les performances environnementales sont également bien moins bonnes qu’en passant par la gazéification des combustibles fossiles, et les prix sont encore plus élevés ! La question se pose différemment si l’électricité est une électricité décarbonée, c’est-à-dire celle qui n’est pas produite à partir de combustibles carbonés. Si les rendements énergétiques du puits à la roue ne sont pas alors bien différents, au moins les performances environnementales sont-elles bien meilleures ! À l’échelle mondiale, l’électricité décarbonée est produite pour l’essentiel par le nucléaire et l’hydraulique. Les possibilités ultimes de l’hydraulique sont faibles. Celles du nucléaire sont analogues, sauf si se développent les réacteurs surgénérateurs : ceux-ci donneraient en effet accès à des réserves d’énergie plusieurs centaines de fois plus importantes que ce que peuvent les réacteurs actuels, par le double effet d’une utilisation beaucoup plus complète de l’uranium 238, 138 fois plus abondant que l’uranium 235 que l’on utilise actuellement, et de la possibilité d’utiliser des minerais d’uranium plus pauvres. Certains envisagent d’utiliser pour cet usage l’électricité éolienne ou l’électricité photovoltaïque. On verra dans le chapitre sur l’éolien les difficultés de cette voie. – La fabrication par craquage thermochimique de l’eau Il existe divers procédés, mais qui demandent des températures proches de 1000 ˚C. Une méthode étudiée actuellement au CEA est d’utiliser le cycle thermochimique iode-soufre (figure 3.4). Comme la production d’électricité nécessaire à la production d’hydrogène par électrolyse, utiliser des combustibles fossiles pour produire la chaleur nécessaire au craquage thermique n’a pas d’intérêt car elle aboutit à des rendements du puits à la roue qui sont inférieurs à ceux de la fabrication de l’hydrogène directement à partir des combustibles

148

La crise pétrolière

Tableau 3.4. Ordres de grandeurs des rendements énergétiques du puits à la roue pour l’hydrogène-carburant produit par électrolyse de l’eau et utilisé dans une voiture équipée d’une pile à combustible avec un rendement de 26 %, comme décrit plus haut. Le rendement de l’électrolyse est évalué à 60 %. Il faut donc multiplier les rendements de production de l’électricité par 0,16. Source de l’électricité Rendement de la production d’électricité ( %)

Rendement du puits à la roue

Énergie Énergie nucléaire éolienne 40-55 35-45 30-40 30-35 15-25 (en fonction (en fonction (en fonction (en fonction (en fonction des types de des types de des types de des types de des types centrales) centrale et de centrales et centrale) d’éolienne) la qualité du de la qualité charbon) de la biomasse) Gaz naturel

Charbon

Biomasse

6,5-8,5

5-7

4,5-6

4,5-5,5

2-4

fossiles, encore que les rendements soient ici meilleurs. Mais la question se poserait différemment si elle était produite par des réacteurs nucléaires à très haute température, en anglais very high temperature reactors (VHTR), dont les températures de fonctionnement pourraient atteindre 1000 ˚C. Ils pourraient donc produire à la fois de l’électricité et de la chaleur à très haute température, et celle-ci serait utilisée à produire de l’hydrogène. Ces réacteurs sont des réacteurs graphite-gaz de nouvelle génération dont il n’existe cependant encore aucune réalisation industrielle.9 Le CEA a mis à l’étude cette option, assez futuriste comme on le voit sur la figure 3.4. En définitive, le coût de production de l’hydrogène, quelle que soit la méthode utilisée, ne peut être que très élevé. 2- La quantité d’énergie qu’il est possible d’embarquer à bord d’un véhicule avec de l’hydrogène carburant est faible.

9

Pour l’éolien, le rendement de 15 à 25 % correspond au rendement de la transformation de l’énergie du vent en électricité. L’énergie du vent étant gratuite, si l’on considère uniquement l’aspect économique des choses et non l’aspect énergétique, le rendement de la fabrication d’électricité devient alors 100 %, et les rendements du puits à la roue indiqués ici deviennent uniformément de 16 %.

Bernard Durand

149

Figure 3.4. Procédé de production d’hydrogène par le cycle thermochimique iode-soufre. (Courtoisie F. Carré, CEA.) Le stockage de l’hydrogène à bord des véhicules n’est pour l’instant envisageable pour des véhicules courants que sous forme comprimée à quelques centaines de bars. La quantité d’énergie embarquée est alors moins de la moitié de celle du gaz naturel à 200 bars (figure 3.1). Ceci se comprend aisément : une molécule d’hydrogène contient deux atomes d’hydrogène, tandis que le gaz naturel en contient quatre. Et il contient aussi un atome de carbone ! Or, à pression égale, un volume donné de gaz contient le même nombre de molécules de gaz, quelle qu’en soit la nature. Les véhicules à hydrogène comprimé, à poids égal de réservoir + carburant, auraient donc nécessairement une autonomie bien plus faible que celle des véhicules à GNV, qui sont déjà justes de ce point de vue. D’autre part les stockages à bord des véhicules auraient un coût de l’ordre de 100 fois celui des stockages de carburants actuels (Bauquis 2004). Ils seraient aussi potentiellement plus dangereux. 3- Le coût de la logistique de distribution de l’hydrogène au consommateur serait environ 10 fois plus important que celui des carburants pétroliers (Bauquis 2004). 4- Le coût des véhicules équipés de piles à combustible serait bien plus important que celui de nos actuels véhicules, on le verra plus loin.

150

La crise pétrolière

En résumé, l’hydrogène-carburant que l’on peut produire à partir des combustibles fossiles est beaucoup plus coûteux par unité d’énergie contenue que les carburants liquides que l’on sait déjà fabriquer à partir de ceux-ci, tout en étant d’utilisation bien moins commode et bien plus coûteuse. Sa fabrication entraînerait une consommation accrue de ces combustibles et des émissions accrues de gaz à effet de serre, sauf dans le cas d’une fabrication à partir de gaz naturel. De l’hydrogène-carburant ainsi fabriqué n’a donc strictement aucun intérêt. L’hydrogène-carburant que l’on pourrait produire à partir de sources d’énergies non carbonées serait encore plus cher et plus gaspilleur d’énergie ! De ces sources d’énergie, seuls les réacteurs nucléaires du futur pourraient produire les quantités nécessaires ! L’hydrogène-carburant n’est donc certainement pas une solution à court terme à la crise pétrolière et il n’a de chances d’être utilisé en masse que si des réacteurs nucléaires dédiés à sa production sont préalablement banalisés dans le monde, ce qui n’est pas envisageable avant 2050, donc largement après le Peak Oil. Encore faudra-t-il que d’ici là toute une série de problèmes très difficiles aient été résolus.

2.6. L’hydrogène carboné et les « nouveaux » carburants synthétiques La disponibilité d’hydrogène en très grande quantité, mais qui ne serait pas produit à partir de combustibles carbonés, permettrait de fabriquer de bien plus grandes quantités de carburants liquides synthétiques, en incorporant de l’hydrogène à des combustibles carbonés qui sont plus pauvres en hydrogène que les carburants pétroliers, charbons, asphaltes, résidus pétroliers, biomasse, pour les transformer en carburants par les procédés XTL10. Ce sont ces carburants synthétiques que Bauquis 2004 appelle hydrogène carboné. L’idée, puisque l’hydrogène est difficile à utiliser directement comme carburant, est de le fixer au carbone pour produire de l’hydrogène carboné sous forme de carburants liquides pouvant être utilisés comme le sont les carburants actuels. Les combustibles carbonés naturels contiennent principalement du carbone, de l’hydrogène et en quantité moindre de l’oxygène. Ils contiennent accessoirement un peu de soufre ou d’azote. La figure 3.5 est un diagramme qui 10

Rappel : On appelle carburants X-to-liquids (XTL) l’ensemble des carburants liquides synthétiques fabriqués à partir de combustibles carbonés : GTL, CTL, carburants tirés de l’huile de schiste, BTL…

Bernard Durand

151

montre les quantités d’atomes d’hydrogène et d’oxygène par atome de carbone pour la plupart de ces combustibles : le méthane contient par exemple quatre atomes d’hydrogène par atome de carbone, tandis que les pétroles et les carburants pétroliers en contiennent à peu près deux. De son côté, le bois, c’est-à-dire la biomasse, contient environ 1,5 atome d’hydrogène et 0,7 atome d’oxygène par atome de carbone. La quantité d’énergie qui peut être tirée d’une même masse de combustible est d’autant plus grande que la quantité d’hydrogène lié directement au carbone dans les molécules est forte et que le contenu en oxygène est faible, ce qui se traduit approximativement par un rapport H/C élevé et par un rapport O/C faible. C’est ainsi que par unité de masse, on tire par rapport à l’essence 15 % d’énergie en plus du méthane, mais 30 % de moins de l’éthanol, 35 % de moins du charbon bitumineux et 2,5 fois moins du bois déshydraté. Compte tenu de ces compositions, pour obtenir des carburants liquides ayant un pouvoir calorifique voisin de celui des carburants pétroliers il faut ajouter de l’hydrogène en proportions d’autant plus importantes que l’on va des asphaltes, au charbon, puis à la biomasse (bois).

Lignite Tourbe Charbon Awb-bitumineux Charbon bitumineux Charbon-vapeur Anthracite

Figure 3.5. Rapports atomiques H/C et O/C pour les combustibles et les carburants carbonés.

152

La crise pétrolière

Nous avons vu que la production d’hydrogène en très grandes quantités sans utilisation de combustibles fossiles ne sera probablement pas possible avant que des réacteurs nucléaires dédiés aient été banalisés. L’hydrogène carboné ne peut donc avoir un véritable avenir que dans ce cas. Mais s’il consiste alors en BTL produit à partir de biomasse à l’aide d’un ajout de cet hydrogène, le bilan CO2 de l’opération sera très favorable. Notons au passage que l’utilisation de réacteurs nucléaires est évoquée pour exploiter les énormes quantités d’asphaltes du Canada, qui sont pour l’instant difficiles à récupérer. Ils serviraient non seulement à produire de l’hydrogène pour valoriser ces asphaltes, mais aussi à produire de la vapeur d’eau pour les chauffer et en diminuer ainsi la viscosité. Cela se fait actuellement en brûlant du gaz pour produire la chaleur nécessaire, et c’est à cause de cela que le Canada vient de dénoncer le protocole de Kyoto, sachant qu’il ne sera pas en mesure de tenir ses engagements !

2.7. Les carburants alternatifs sont-ils un remède au Peak Oil ? Au-delà de l’imagination créatrice, plus ou moins bien inspirée comme on l’a vu, il faut se préoccuper concrètement des quantités de carburants alternatifs qui pourront être produites dans l’avenir, et surtout du débit des productions possibles en fonction du temps. Il s’agit en somme de faire pour les « pétroles artificiels » que sont les carburants alternatifs le même travail d’analyse des possibilités de production que celui qui a été fait pour les « pétroles naturels ». Les carburants alternatifs permettront-ils de compenser les effets du Peak Oil qui est attendu dans peu d’années pour les pétroles naturels ? Car, pour le consommateur qui va se servir à la pompe, peu importe la source de son carburant, pourvu qu’il ait de quoi remplir son réservoir. L’exercice est difficile à faire car le développement des carburants alternatifs est récent et il existe donc une marge d’amélioration. Mais la réponse est probablement non ! La figure 3.6 est un scénario, élaboré fin 2008 par deux membres de l’ASPO, de l’évolution de la production mondiale à l’horizon 2050, pour l’ensemble des diverses catégories de produits liquides, en millions de barils par jour (Mb/j) : pétroles naturels conventionnels, pétroles naturels non conventionnels (pétrole extralourd, c’est-à-dire huiles extralourdes et asphaltes), liquides de gaz naturel, mais aussi « pétroles synthétiques » XTL, c’est-à-dire la

Bernard Durand

153

somme de ceux fabriqués à partir du gaz naturel (GTL), du charbon (CTL), de la biomasse (BTL), et des schistes bitumineux (huile de schiste). Cela avec diverses hypothèses de réserves ultimes11 de pétroles naturels (conventionnels et non conventionnels) : 2700 milliards de barils (2,7 Tb), 3000 milliards de barils (3 Tb), situation la plus probable, et 4000 milliards de barils (4 Tb). Cela, dans l’hypothèse la plus probable de réserves ultimes de 3 Tb, avec diverses hypothèses économiques : absence de crise économique, crise dure débutant en 2009 (soit ce qui se passe en ce moment), crise molle débutant en 2008.

Figure 3.6. Divers scénarios de l’évolution de la production mondiale totale de pétroles naturels et synthétiques d’ici 2050, en millions de barils/jour (Mb/j). (D’après Laherrère et Wingert, 2008.) La figure 3.7 est un scénario des mêmes auteurs pour l’évolution la plus probable de la production des pétroles non conventionnels en millions de barils par jour (Mb/j) : liquides de gaz naturels, huiles extralourdes et asphaltes, gains de raffinerie12. Y figure également la production prévue pour les XTL 11

Les réserves ultimes sont la somme des quantités déjà extraites, des réserves connues et des réserves encore à découvrir. 12 Les quantités de pétrole étant exprimées en unité de volume, on comptabilise en gains de raffinerie les augmentations de volume résultant du raffinage. En effet, ce raffinage produit en majorité des coupes en moyenne moins denses que le pétrole initial. Leur volume total est donc légèrement supérieur au volume de celui-ci.

154

La crise pétrolière

(GTL, CTL, biocarburants, huiles de schistes). D’après ce scénario, la production des XTL aura une faible incidence sur le cours des événements. La production de liquides de gaz naturel, d’huiles extralourdes (Venezuela) et d’asphaltes (Canada) aura plus d’influence, mais sera largement insuffisante pour compenser le déclin de la production des pétroles conventionnels. Elle retardera de quelques années seulement le moment où la production totale de « liquides », naturels et synthétiques, diminuera, et en atténuera la rapidité du déclin.

Figure 3.7. Prévision de l’évolution d’ici 2100 des quantités produites de pétroles non conventionnels et de XTL en millions de barils par jour (Mb/j) : 1 – Quantités cumulées. 2 – Liquides de gaz naturels (LGN). 3 – Huiles extralourdes et bitumes. 4 – XTL (GTL, CTL, biocarburants, huiles de schistes). 5 – Gains de raffinerie : il s’agit là d’un artifice de comptabilité : le volume total des produits raffinés est supérieur à celui de la charge pétrolière qui leur donne naissance, car leur densité est inférieure. Ce gain n’existerait pas si les quantités étaient mesurées en poids et non en volume ! Les quantités produites jusqu’en 2007 sont représentées en traits épais. Les quantités futures en traits fins. (D’après Laherrère et Wingert, 2008.) En 2002, l’Agence internationale de l’énergie (AIE) avait anticipé que la production mondiale de pétrole tous liquides (c’est-à-dire en y incluant les

Bernard Durand

155

pétroles synthétiques) serait, en 2030, avec le développement prévu de l’économie mondiale et en l’absence de crise et de restrictions environnementales (Business as usual (BAU)), de 6 milliards de tep, soit 125 millions de barils par jour. Or la courbe de la figure 3.7, qui correspond à l’absence de crise ne prévoit que 80 milliards de barils par jour de production à cette date ! Cette énorme différence montre bien l’étendue du problème qui va se poser très bientôt ! L’effet des crises est de faire baisser, avec plus ou moins d’ampleur selon l’intensité de la crise, la consommation, et donc la production, et bien sûr les prix. Apparaît donc un pic de production au maximum de la crise. Mais ce qui n’est pas produit pendant la crise pourra être produit plus tard. Un deuxième pic de production a donc lieu une dizaine d’années plus tard, avec un déclin plus rapide qu’en l’absence de crise. La figure 3.7 ne laisse guère espérer une augmentation de la production mondiale de pétrole « tous liquides », naturels et artificiels, après 2020. Tout au plus, si la production de pétroles extra lourds prend beaucoup d’ampleur (hypothèse peu probable à 4000 milliards (4 Tb) de barils de réserves ultimes) observera-t-on un quasi maintien de la production un peu en dessous de la production actuelle jusqu’en 2050. La suite n’est pas racontée.

2.8. Les carburants alternatifs : bilan du puits à la roue de consommation d’énergie et d’émissions de gaz à effet de serre Une association de compagnies pétrolières basée à Bruxelles, Conservation of clean air and water in Europe (CONCAWE, www.concawe.be) publie régulièrement depuis 1963 des données sur les bilans énergétiques et environnementaux de l’utilisation des carburants dans les véhicules. La figure 3.8, tirée de leur plus récente étude, menée en commun avec la Commission européenne et l’European Council for Automotive R§D (EUCAR), compare les dépenses énergétiques et les émissions d’équivalent gaz carbonique du puits à la roue pour différents types de carburants hors l’hydrogène. Les termes de comparaison sont l’essence et le gazole utilisés dans des voitures européennes de puissance moyenne, dans des conditions standard d’utilisation, ce qui correspond à des émissions de CO2 d’environ 160 g/km pour l’essence et 130 g/km pour le gazole.

156

La crise pétrolière

Figure 3.8. Carburants liquides alternatifs : émissions de GES du puits à la roue par kilomètre parcouru, en g d’équivalent en gaz carbonique, versus énergie du puits à la roue nécessaire pour parcourir 100 kilomètres, en mégajoules (MJ). Références : (1) essence, (2) gazole, (3) GPLc, (4) GNV. Carburants alternatifs : (5) GTL, (6) CTL, (7) éthanol de céréales, (8) éthanol de betterave, (9) éthanol de cellulose, (10) éthanol de canne à sucre, (11) biodiesel, (12) BTL-FT, (13) biogaz. La distinction, dans l’énergie dépensée pour 100 km parcourus, entre énergie non renouvelable et énergie renouvelable, n’est pas faite : l’éthanol de canne à sucre consomme par exemple plus d’énergie renouvelable que d’énergie non renouvelable. (Sources : CONCAWE, EUCAR, Commission européenne.) La figure 3.9 montre les résultats de l’étude correspondante pour l’hydrogènecarburant. Aucun carburant liquide alternatif n’a un bilan énergétique meilleur que celui des références essence et gazole, et de ceux du GPLc et du GNV. Le BTL-FT s’en approche dans les meilleures conditions. Le bilan énergétique de l’hydrogène-carburant est mauvais, et cela encore plus quand il est utilisé dans un moteur à combustion interne que lorsqu’il est utilisé dans une pile à combustible. Deux exceptions sont l’hydrogène produit

Bernard Durand

157

Figure 3.9. Hydrogène-carburant : émissions de GES du puits à la roue par kilomètre parcouru, en grammes d’équivalent en gaz carbonique, versus énergie du puits à la roue nécessaire pour parcourir 100 kilomètres, en mégajoules (MJ). (1) et (2), références essence et gazole. Puis, hydrogène-carburant comprimé à 700 bars produit par : (3) réformage de gaz naturel, PC ; (4) électrolyse, électricité produite par gaz naturel, PC ; (5) électrolyse, électricité produite par gaz naturel, MCI ; (6) gazéification du charbon, PC ;(7) électrolyse, électricité produite par charbon, PC ; (8) électrolyse, électricité produite par charbon, MCI ; (9) électrolyse, bouquet électricité Europe, PC ; (10) électrolyse, bouquet électricité Europe, MCI ; (11) gazéification biomasse, PC ; (12) électrolyse, électricité éolienne, PC ; (13) électrolyse, électricité nucléaire, PC. (PC= pile à combustible ; MCI= moteur à combustion interne.) Note : Pour l’éolien, l’énergie du vent n’est pas comptabilisée, puisqu’elle est gratuite. Sinon, il faudrait multiplier la dépense énergétique par environ 5. (Sources : CONCAWE, EUCAR, Commission européenne.) par réformage du gaz naturel et celui produit par gazéification de la biomasse, à condition d’être utilisés dans une pile à combustible. Leurs bilans sont à peu près ceux des carburants pétroliers. Le plus mauvais bilan environnemental des carburants liquides alternatifs est de très loin celui du CTL, alors que le GTL a un bilan à peine plus mauvais

158

La crise pétrolière

que celui des carburants pétroliers. Les carburants tirés de la biomasse ont un net avantage sur les carburants pétroliers, les biocarburants de première génération ayant cependant un moins bon bilan, que ceux de seconde génération. Le biogaz a un bilan très variable selon les conditions de sa fabrication, mais en moyenne excellent. Cela est dû au fait que le carbone est d’origine biologique et non fossile et qu’il n’y a pas besoin de combustibles fossiles pour le fabriquer, mais il n’est pas tenu compte ici de l’effet de serre du méthane (comme d’ailleurs pour le GNV). L’hydrogène-carburant tiré des combustibles fossiles a un mauvais bilan environnemental et cela d’autant plus si l’on passe par une électrolyse dont l’électricité est produite avec ces combustibles. Une exception est celle de l’hydrogène fabriqué par réformage du gaz naturel, dont le bilan est un peu meilleur que celui des carburants pétroliers. Les performances environnementales de l’hydrogène-carburant produit par électrolyse à partir de l’électricité éolienne ou de l’électricité nucléaire, et de celui produit par gazéification de la biomasse, sont excellentes.

2.9. Les carburants alternatifs, ça coûte combien ? Les prix de revient des carburants alternatifs sont nécessairement nettement plus élevés que les prix de marché de leurs matières premières. Ceux-ci varient en fonction de l’offre et de la demande, mais la tendance générale est à une rapide augmentation, sous l’effet de l’augmentation des prix du pétrole et du gaz. Il n’est donc possible que de produire un instantané de ces prix et de leur comparaison avec celui des carburants pétroliers. C’est ce qui est fait sur la figure 3.10, où l’on donne une estimation de ces prix fin 2007. Les prix de revient sont évalués en euros par litre-équivalent-diesel, c’est-à-dire le prix de revient de la quantité de carburant permettant de parcourir la même distance qu’un litre de gazole. Il n’est que dans deux cas inférieur à celui du gazole et de l’essence : le bioéthanol produit au Brésil et le CTL direct produit en Chine. Le biodiesel, le GNV, le GTL et le gazole produit à partir du charbon (CTL) ont cependant des prix voisins de ceux des carburants pétroliers. Mais le prix de ce dernier devrait être au moins doublé s’il devenait obligatoire de stocker le CO2 produit dans des structures géologiques. L’hydrogène-carburant a toujours un prix très élevé. La figure 3.10 rappelle également quelles sont les émissions de CO 2 par kilomètre de ces différents carburants, du puits à la roue, reprises de l’étude du

Bernard Durand

159

Figure 3.10. Prix de revient hors taxes des carburants pétroliers et des carburants alternatifs fin 2007, exprimés en euros pour une énergie contenue égale à celle d’un litre de gazole (litre-équivalent-diesel), versus leurs émissions de GES par kilomètre parcouru en g d’équivalent gaz carbonique. (PC= pile à combustible.) Les flèches attachées au gazole, au GPL et à l’essence indiquent l’augmentation du prix qui provient des taxes en France. CONCAWE utilisée ci-dessus. Si le CO2 produit doit être un jour taxé, soit directement, soit indirectement via l’obligation d’enfouir le CO2 émis par les usines de production, le prix des carburants émettant plus de 100 g/km dans la voiture qui sert de référence ici sera amené à augmenter encore sensiblement et cela rendra probablement compétitifs, mais à un prix élevé, les carburants produits à partir de la biomasse. Malheureusement, ceux-ci ne pourront pas produire, et cela de très loin, les quantités qui sont consommées actuellement.

3. Qu’attendre des véhicules alternatifs ? Il s’agit ici de véhicules qui n’utilisent plus de moteurs thermiques, ou qui ne l’utilisent que secondairement.

3.1. Les progrès des voitures électriques à batterie La voiture électrique à batterie est depuis longtemps présentée comme la solution à nos problèmes de carburant. Mais elle a jusqu’à présent été handicapée

160

La crise pétrolière

par sa lourdeur et sa faible autonomie par rapport à une voiture à moteur thermique. Cela est dû à la faible capacité massique en énergie des batteries : parmi celles qui sont actuellement utilisées sur les véhicules, celles qui ont actuellement la plus forte capacité massique, les batteries Nickel-métal hydrure (NiMH), ne peuvent emmagasiner pour les meilleures d’entre elles qu’environ 60 à 80 Wh/kg (figure 3.11), alors qu’un carburant pétrolier contient environ 9 kWh/kg de carburant + réservoir (figure 3.2) soit 100 à 150 fois plus. Et s’il faut 5 minutes pour remplir un réservoir d’essence assurant 500 km d’autonomie, il faut 5 heures pour charger une batterie n’en assurant que 100. Mais le rendement global d’une voiture à moteur thermique est beaucoup plus faible que celui d’une voiture électrique. En effet, le rendement moyen de la transformation du carburant en énergie mécanique transmise aux roues n’est pour les modèles courants que de 20 %. Une voiture à moteur thermique, contrairement à une voiture électrique, ne peut pas non plus récupérer l’énergie de freinage ni l’énergie de pesanteur dans les parties descendantes des trajets, et consomme inutilement de l’énergie dans les embouteillages et dans les arrêts aux feux rouges. Son rendement énergétique réel du puits à la roue n’est donc que d’environ 10 %, tandis que celui de la voiture électrique est d’un peu plus de 50 %, comme on le verra plus loin. Le rapport de capacité massique entre batteries NiMH et carburants pétroliers n’est donc dans la pratique que de 1 à 25 environ. Des batteries ayant une capacité massique ne serait-ce que dix fois supérieures à celles des meilleures batteries Ni-MH actuelles porteraient donc sans aucun doute le développement très rapide de ces voitures. Mais les principes physiques qui permettraient d’y parvenir ne sont pas connus. Notons également que les matières premières nécessaires à la fabrication des batteries courantes actuelles sont dangereuses pour l’environnement (plomb, cadmium, nickel…). Et ces batteries n’ont qu’une durée de vie assez limitée, 5 à 6 ans en moyenne. Un aspect qui est également à prendre en considération est que l’énergie grise consommée au cours du cycle de vie d’une batterie est importante, entre 200 et 400 kWh par kWh de stockage. Notons encore que les voitures électriques actuelles embarquent généralement un peu de carburant pour assurer la climatisation. Les récents développements des batteries au lithium ont relancé leur intérêt en offrant de bien meilleures capacités massiques que les batteries jusqu’alors utilisées : les batteries lithium-ion sont déjà installées sur des véhicules de présérie, et les batteries lithium métal-polymère, plus sûres et plus robustes que les batteries lithium-ion, sont en cours de développement. La climatisation pourrait être assurée par une pompe à chaleur.

Bernard Durand

161

Figure 3.11. Capacité énergétique massique et volumique des différents types de batteries électrochimiques embarquées dans les véhicules, ainsi que de l’air comprimé.

Des véhicules équipés de ces batteries pourraient en particulier déjà être utilisées comme véhicules secondaires pour les déplacements en ville. Pour donner un ordre de grandeur des performances déjà possibles, on estime qu’avec 100 kg de batteries, d’une capacité massique totale de 10 kWh, une voiture de 800 kg pourrait déjà parcourir environ 100 km à 100 km à l’heure. Or 70 % des trajets journaliers effectués en France font moins de 40 Km. Et des progrès sensibles sont attendus. Des sociétés françaises ont présenté récemment des réalisations intéressantes : un constructeur pense par exemple mettre bientôt sur le marché un véhicule d’environ une tonne, dont 200 kg de batteries, ayant une vitesse de pointe de 130 km/heure, une autonomie de l’ordre de 250 km en parcours périurbain avec deux passagers à bord, et une durée de recharge complète de quatre heures. Les progrès dans la technologie des batteries au lithium métal-polymère permettent d’espérer, pour des véhicules légers et des parcours urbains et périurbains, une autonomie de 300 km, et les batteries lithium-soufre de 500 km. Le temps nécessaire pour recharger les batteries est un obstacle sérieux au développement de ces véhicules. Des progrès sont actuellement en cours dans

162

La crise pétrolière

ce domaine. Les batteries lithium- phosphate de fer (LFP), qui appartiennent à la famille des batteries lithium-ion, permettraient semble-t-il des recharges de l’ordre de la dizaine de minutes, et seraient plus sûres que les batteries lithium-ion actuelles. En revanche, la capacité massique de ces batteries serait un peu inférieure. Certains constructeurs proposent déjà des temps de recharge de 5 minutes pour 40 % de la capacité de la batterie, et de 15 minutes pour 80 %, et une compagnie japonaise vient même d’annoncer une recharge à 90 % en 5 minutes ! Il faut cependant se méfier dans ce domaine des effets d’annonce. D’autre part la durée de charge résulte aussi de l’intensité du courant de charge supportable par le secteur, et c’est pourquoi ce temps ne pourra peut-être pas dans la pratique être diminué dans des proportions très importantes. Un autre obstacle est le coût pour l’instant très élevé de ces batteries, qui fait actuellement des voitures à batteries des voitures nécessairement chères. Il faudra se préoccuper, s’il y a un fort développement de l’utilisation de ces batteries, des ressources disponibles en lithium, car le lithium est un métal relativement rare. Mais des études géologiques récentes ont montré que les réserves de lithium devraient être suffisantes. On en trouve en particulier de grandes quantités sous forme de carbonates de lithium au Chili et en Bolivie, dans les sels d’immenses lacs d’altitude asséchés. Par prudence, il vaudrait sans doute mieux en organiser dès à présent le recyclage. Une autre avancée importante vient d’avoir lieu. C’est la possibilité, démontrée par une association d’un fabricant de pneumatiques et d’un équipementier français, d’utiliser des moteurs électriques à très bon rendement installés dans les roues du véhicule, ce qui permet de récupérer la place occupée habituellement par le moteur. Un dispositif électromagnétique permettrait de plus d’assurer électriquement la suspension en récupérant l’énergie dépensée par les oscillations du véhicule. Un espoir encore ténu est le développement de dispositifs de stockage d’électricité appelés supercondensateurs. Un condensateur accumule de l’électricité sous forme électrostatique, mais il s’agit de petites quantités. Les équipements les plus élaborés, les supercondensateurs, arrivent à stocker de l’ordre de 1 Wh/kg, ce qui est pour l’instant bien insuffisant, mais des réalisations expérimentales utilisant des nanotechnologies permettent d’espérer un jour de bien meilleures performances, peut-être même supérieures à celles des meilleures batteries actuelles. Pour l’instant, les supercondensateurs sont déjà utilisés dans les véhicules pour

Bernard Durand

163

fournir très rapidement de la puissance, en particulier dans les dispositifs startgo, ainsi que pour récupérer l’énergie de freinage dans les véhicules électriques ou hybrides et même parfois dans ceux à moteur thermique. Les supercondensateurs auraient l’avantage sur les batteries de pouvoir restituer l’électricité accumulée de manière très rapide, d’avoir un rendement énergétique de pratiquement 100 % et un temps de charge très court. Mais le problème de l’adaptation du réseau électrique à ces temps de charge très courts reste entier. La recherche sur les voitures électriques est actuellement en effervescence, et bien des constructeurs ont annoncé la mise de voitures électriques sur leur catalogue dans les cinq années qui viennent. La Chine, préoccupée par son approvisionnement en pétrole, mais aussi par la pollution des villes, est maintenant très active dans ce domaine. Si l’on veut préserver l’environnement, il vaudrait mieux que l’électricité utilisée ne soit pas produite à partir des combustibles fossiles, sauf à entraîner pour la production d’électricité des émissions encore accrues de gaz carbonique et des polluants atmosphériques associés. En effet, le rendement moyen de la transformation des combustibles fossiles en électricité n’est à l’échelle mondiale que de 38 %. Les véhicules électriques ont donc le plus d’intérêt dans les pays où l’électricité n’est pas majoritairement produite avec des combustibles fossiles, ce qui est le cas d’un nombre limité de pays, dont la France, à moins que ne se développe le stockage souterrain du CO2 produit par les centrales électriques. Mais, étant donné l’efficacité énergétique de la voiture électrique, sa généralisation entraînerait quand même une diminution non négligeable des émissions de CO2, même dans les pays où l’électricité est produite avec des combustibles fossiles, car les augmentations des émissions de CO2 de la production électrique qui en résulteraient seraient inférieures à celles qui sont dues à la consommation de carburants pétroliers C’est ainsi que l’on peut évaluer à 20 % environ la diminution des émissions de CO2 du secteur transport obtenues grâce au remplacement des véhicules actuels par des véhicules électriques alimentés par une électricité produite à partir de charbon. Et bien entendu, elles feraient diminuer considérablement la consommation de pétrole ! Il faut se poser la question de la quantité d’électricité qui serait nécessaire si nos véhicules actuels étaient remplacés par des véhicules électriques. On peut s’en faire une idée de la manière suivante : En France, la consommation de carburants des véhicules routiers est de l’ordre de 40 millions de tonnes par an, soit autant de Mtep. Mais l’énergie utile,

164

La crise pétrolière

c’est-à-dire l’énergie mécanique transmise aux roues, n’est que d’environ 10 % de cette valeur, soit 4 Mtep, si l’on considère le rendement moyen des moteurs courants actuels, 20 % environ, l’énergie perdue dans les freinages, aux feux rouges ou dans les embouteillages, ou non récupérée dans les descentes. Ces 4 Mtep équivalent à environ 50 TWh. Les voitures électriques sont beaucoup plus efficaces que les voitures à moteur thermique parce que le rendement des moteurs est de 80 % et non de 20 % ; parce qu’il n’y a pas d’énergie perdue aux arrêts et qu’il est possible de récupérer l’énergie au freinage ou dans les descentes. En revanche, 30 % de l’énergie est perdue lors du stockage et du déstockage de l’électricité dans les batteries, ainsi que dans le transport et la mise à disposition de l’électricité depuis la centrale. On peut donc estimer à 50 % le rendement global d’une voiture électrique, contre 10 % pour une voiture à moteur thermique. La consommation en France d’une flotte de voitures électriques venant remplacer nos véhicules actuels, particuliers et professionnels, serait donc de l’ordre du double de la quantité d’énergie utile qu’ils consomment actuellement, soit 100 TWh, 150 TWh pour faire bon poids. Cela représente 20 à 25 % de notre production actuelle d’électricité, ce qui est tout à fait jouable, d’autant que le remplacement des véhicules thermiques par des véhicules électriques prendrait du temps, sans doute assez pour organiser le développement nécessaire de la production électrique. Mais il faut aussi considérer la dynamique de la demande d’électricité qui en résulterait, c’est-à-dire les possibilités qu’aurait le réseau de fournir à tout moment une quantité d’électricité égale à cette demande, problème qui sera d’autant plus difficile à résoudre que les temps de charge seront plus courts.

3.2. L’illusion pour le court et le moyen terme des voitures à piles à combustibles utilisant de l’hydrogène-carburant Les voitures équipées de piles à combustibles utilisant de l’hydrogène comme carburant sont souvent citées comme les voitures de l’avenir dans les grandes messes médiatiques. Les piles à combustibles sont des dispositifs où l’on combine sur un catalyseur, actuellement du platine, de l’hydrogène et de l’oxygène pour produire de l’électricité et de l’eau. Elles réalisent donc l’inverse de l’électrolyse de l’eau. Elles sont connues depuis William Grove qui les a inventées en 1839. Il en existe de nombreuses sortes, et celle à laquelle on pense pour les véhicules est la pile de type PEMFC (polymere electrolyte membrane fuel cell) ou plus brièvement PEM (figure 3.12).

Bernard Durand

165

Figure 3.12. Schéma de fonctionnement d’une pile à électrolyte membrane de polymère (PEMFC). (D’après Prigent, Institut français du pétrole.) Ces piles sont extrêmement coûteuses. Selon une récente évaluation du Commissariat à l’énergie atomique (CEA), qui travaille d’arrache-pied sur ces piles dans le but d’utiliser l’hydrogène qui pourrait être produit à partir d’énergie nucléaire, elles sont actuellement de l’ordre de cent fois plus chères par kW de puissance qu’un moteur à combustion interne ! Cela est dû en particulier au coût du platine. Mais l’obstacle principal à leur utilisation est qu’elles utilisent de l’hydrogène, dont on a vu l’absence de crédibilité comme carburant. Cet hydrogène peut toutefois être produit à bord du véhicule par réformage de méthanol, de gaz naturel ou même d’hydrocarbures liquides, ou même par utilisation directe de ceux-ci dans d’autres types de piles à combustibles que les

166

La crise pétrolière

PEM. Le méthanol, qui pourrait être produit par synthèse Fischer-Tropsch à partir de gaz de synthèse issu de différents combustibles, et en particulier de biomasse, est un bon candidat, et il existe des véhicules expérimentaux à pile à combustible qui utilisent le méthanol. Mais quel est alors l’avantage de ce type de motorisation par rapport à un moteur à combustion interne fonctionnant au méthanol ?

3.3. L’illusion des voitures à air comprimé Certains medias font circuler en boucle depuis des années des informations selon lesquelles les voitures à air comprimé sont « la solution » à nos problèmes de carburants, et que si elles ne sont pas encore massivement dans nos rues, c’est parce que les compagnies pétrolières empêchent cette technologie d’aboutir pour ne pas tarir leurs sources de revenu ! Il est pourtant aisé de voir sur la figure 3.11, où est indiquée la quantité d’énergie qu’il est possible d’emmagasiner dans une bouteille d’air comprimé par unité de poids ou de volume de « réservoir + carburant », que cette énergie, de l’ordre de 8 Wh par kilogramme pour de l’air comprimé à 200 bars, est 1000 fois plus faible que pour les carburants pétroliers, et 3 à 4 fois plus faible que pour une batterie au plomb (figure 3.11) ! Un véhicule propulsé par un moteur à air comprimé ne peut donc avoir qu’une autonomie beaucoup plus faible que celle d’une voiture électrique équipée d’une batterie au plomb, pourtant déjà bien trop faible ! D’autre part, le rendement énergétique global d’un tel véhicule est très mauvais, car il faut utiliser de l’électricité pour comprimer l’air, et près de 60 % de l’énergie initiale de l’électricité est perdue entre la compression et la décompression, alors que l’énergie perdue entre le stockage et le déstockage de l’électricité dans une batterie n’est que de 30 % environ ! Si l’électricité utilisée pour comprimer l’air est produite, comme c’est le plus souvent le cas, avec des combustibles fossiles, le véhicule est alors encore globalement bien plus polluant qu’un véhicule électrique, même si cette pollution n’est pas produite sur les lieux de l’utilisation. De plus, ces véhicules ont besoin de carburant non seulement pour réchauffer le moteur, la décompression de l’air provoquant un fort refroidissement, mais pour climatiser l’habitacle. Une utilisation possible de ce système est peut-être de l’utiliser dans un système hybride moteur thermique-moteur à air comprimé, pour des voitures très légères et peu coûteuses utilisées en ville. Mais un tel véhicule ne serait pas

Bernard Durand

167

plus un véhicule à air comprimé que les véhicules hybrides actuels ne sont des véhicules électriques !

3.4. Les promesses des véhicules hybrides rechargeables Les véhicules hybrides rechargeables (VHR), en anglais plug-in hybride electrical vehicle (PHEL), ne sont pas des véhicules vraiment alternatifs mais des véhicules hybrides dont la batterie est suffisamment importante pour permettre de parcourir des distances importantes, 50 km environ, en mode électrique pur, et qui fonctionnent en mode thermique dès que les distances à parcourir deviennent plus grandes. Cette batterie peut être rechargée sur le secteur dès que le véhicule s’immobilise quelques heures, la nuit en particulier. Le moteur thermique devient ici l’auxiliaire du moteur électrique alors que c’est l’inverse pour le véhicule hybride classique. Ces véhicules seraient particulièrement intéressants en France si les batteries devenaient plus fiables et plus durables qu’elles ne le sont actuellement. En effet, environ 70 % des déplacements quotidiens des Français sont de moins de 40 km et pourraient être alors assurés en mode électrique pur, confortablement et sans pollution, la possibilité d’effectuer un trajet bien plus long si la nécessité s’en faisait sentir étant garantie à tout moment par le moteur auxiliaire à combustion interne. L’électricité est en France essentiellement d’origine nucléaire et hydraulique : il n’y aurait donc pas d’accroissement de la consommation de combustibles fossiles mais au contraire une diminution spectaculaire de la consommation de carburants d’origine fossile et donc des quantités de gaz carbonique envoyés dans l’atmosphère par les véhicules. Du point de vue technique, cela paraît possible : une publicité importante a été faite en son temps à une société californienne qui a « bricolé » un modèle de véhicule hybride du commerce en le rendant rechargeable sur le secteur et en augmentant la taille de la batterie (Les Échos du 9 août 2006). La consommation d’essence serait de 1,5 l/100 km pour un trajet mixte standard. Bien d’autres prototypes ont cependant déjà été réalisés ailleurs, y compris en France. EDF et Toyota, qui sont respectivement le premier électricien mondial et le premier constructeur mondial de véhicules, sont actuellement en train d’expérimenter en commun des véhicules hybrides transformés en VHR, ainsi que l’adaptation du réseau électrique à ce type de véhicules ! Un point faible des VHR est pour l’instant que les batteries y sont soumises à des cycles charge-décharge plus nombreux que dans le cas d’un véhicule électrique ou hybride classique. Cela réduit notablement leur durée de vie.

168

La crise pétrolière

La généralisation de tels véhicules permettrait de réduire la consommation de carburants des États-Unis de 80 % !!! On n’est donc plus très loin en ce cas du litre de carburant aux 100 km nécessaire pour démocratiser l’automobile à l’échelle de la planète, et si le carburant était un biocarburant, ce pari serait gagné sur le long terme car il s’agirait alors d’un carburant renouvelable, contrairement aux autres carburants. La consommation française de carburants deviendrait suffisamment faible pour être couverte pour une grande partie par des biocarburants BTL-FT. Cette situation serait très satisfaisante puisque nous deviendrions pratiquement indépendants du pétrole et nous diminuerions considérablement nos émissions de gaz à effet de serre. Une solution d’attente avant de pouvoir utiliser du BTL-FT pourrait être d’utiliser des véhicules hybrides rechargeables utilisant du gaz naturel. Or le véhicule hybride non rechargeable fonctionnant au gaz naturel existe déjà. Le concept de VHR reconnaît l’impossibilité actuelle de faire des véhicules à batterie ayant des performances semblables à celles des véhicules à moteur thermique, mais admet la possibilité de substituer les carburants par le plus possible d’électricité tout en gardant des performances comparables à celles des véhicules actuels. Cette quantité d’électricité venant se substituer aux carburants pourra augmenter avec les progrès technologiques, jusqu’au moment sans doute lointain où une révolution technologique dans le stockage de l’électricité permettrait de faire enfin des véhicules électriques très performants fonctionnant exclusivement sur batterie. Pour ne pas polluer exagérément la planète et économiser les combustibles fossiles non renouvelables encore disponibles une fois le pétrole épuisé, gaz naturel et charbon, mais aussi les réserves d’uranium qui sont également en quantités limitées, le recours aux réacteurs nucléaires surgénérateurs pour produire les grandes quantités d’électricité nécessaires est toutefois souhaitable, en attendant l’encore hypothétique fusion nucléaire. Le recours aux surgénérateurs aurait en effet le double avantage de permettre de produire au moins 50 fois plus d’énergie que les réacteurs actuels à partir d’une même quantité d’uranium naturel, et de pouvoir le faire avec de l’uranium 238 contenu dans l’uranium appauvri issu des usines d’enrichissement, actuellement un sous-produit de la filière nucléaire actuelle, dont une grande quantité est déjà stockée en Europe. D’autre part, véhicules électriques et véhicules hybrides rechargeables, par leur capacité totale considérable de stockage d’électricité, seraient un bon moyen de venir au secours de l’électricité éolienne et de l’électricité

Bernard Durand

169

photovoltaïque, très handicapées dans leur développement par l’absence de capacité importante de stockage, qui seule permettrait de réellement surmonter le handicap que constitue leur intermittence. Une révolution dans le stockage de l’électricité qui permettrait d’augmenter substantiellement l’autonomie des véhicules à batterie résoudrait du même coup nos problèmes de carburants et d’effet de serre. Mais elle permettrait aussi d’utiliser l’électricité photovoltaïque ou issue de centrales solaires thermodynamiques pour produire l’essentiel de notre électricité et donc de se passer de l’énergie nucléaire. L’équipe qui ferait cette révolution mériterait donc toute notre reconnaissance. Mais est-ce possible ?

4. Que conclure pour les transports ? Pour résumer cette analyse, il existe un grand nombre de techniques possibles pour faire face à une crise des carburants pétroliers qui serait entraînée par la raréfaction du pétrole. Mais ces techniques présentent toutes de sévères limitations, et même leur ensemble semble difficilement pouvoir maintenir la mobilité des pays industrialisés dans les conditions actuelles tout en augmentant de beaucoup la mobilité des pays émergents. Les substituts aux carburants les plus faciles à utiliser techniquement, parce qu’il n’y a pas besoin pour cela de modifier les véhicules que nous utilisons actuellement, ni les systèmes de distribution, sont les carburants liquides synthétiques. Parmi ceux-ci, ceux qui peuvent provenir des énergies renouvelables ne pourront être disponibles qu’en quantités trop limitées : les biocarburants dits de première génération ne peuvent constituer qu’une partie marginale de notre consommation, et un développement trop important posera en outre des problèmes de compétition avec les productions alimentaires pour l’utilisation des sols cultivables, à un moment où les besoins alimentaires sont en forte augmentation. Ceux dits de deuxième génération, produits à partir de plantes entières, offrent de meilleures possibilités, en particulier le BTL-FT produit par gazéification de la biomasse puis synthèse Fischer-Tropsch. Ils n’ont cependant pas encore fait leurs preuves et seront de toute façon très insuffisants. Ceux synthétisés à partir des combustibles fossiles autres que le pétrole, c’està-dire le gaz naturel, le charbon et les schistes bitumineux, peuvent en principe être produits en quantités bien plus grandes que les biocarburants. Il s’agit des carburants gas-to-liquids (GTL) et coal-to-liquids (CTL) et des carburants

170

La crise pétrolière

issus du raffinage des huiles de schiste. Mais tous posent de gros problèmes de gaspillage d’énergie, de durabilité, d’émissions de gaz carbonique, ainsi que de graves pollutions locales. Le CTL est, du point de vue des quantités pouvant être produites à moyen terme, le plus prometteur. Mais c’est aussi le plus polluant. Les pays disposant de très grandes réserves de charbon et n’ayant pas signé le protocole de Kyoto − Chine, États-Unis et Inde − pourraient développer une importante production de CTL dans les années qui viennent, quitte à précipiter l’arrivée d’un pic du charbon avant le milieu de ce siècle ! L’enfouissement dans des structures géologiques souterraines du gaz carbonique produit est très souhaitable pour éliminer les importantes émissions dues à la fabrication de ces carburants. Mais cela ne changerait rien à la pollution qui sera produite, comme maintenant, par la combustion de ces carburants dans les véhicules eux-mêmes. Leurs prix seront obligatoirement plus élevés que les prix de marché des combustibles fossiles dont ils sont issus. Or les prix du gaz naturel sont déjà indexés de fait sur celui du pétrole ; le prix du charbon finira par l’être et la production d’huile de schistes sera très coûteuse. Et il faudra y ajouter le prix, élevé, de la protection de l’environnement. C’est probablement dans moins de dix ans que la production des carburants tirés du pétrole entamera son déclin obligé. Or il est très douteux que l’on arrive d’ici là à produire un ensemble de carburants alternatifs liquides avec un débit suffisant pour compenser ce déclin (figure 3.17) ! D’autres substituts seront donc nécessaires. S’ils sont fabriqués à partir des combustibles fossiles, il peut s’agir de gaz naturel véhicule (GNV), déjà utilisé dans des véhicules adaptés et dont l’utilisation, sans être très commode, peut se développer sans trop de difficultés s’il y a nécessité. Un autre de ces substituts peut être également l’électricité produite avec du gaz naturel ou du charbon, utilisée dans des véhicules électriques ou dans des véhicules hybrides rechargeables (VHR) utilisant cette électricité en complément à un carburant. Il peut également s’agir d’hydrogène produit à partir du gaz naturel ou du charbon, qui serait utilisé dans des véhicules à moteur électrique grâce à des piles à combustibles. Mais nous avons vu la très grande difficulté de mise en œuvre de cette filière. Ces substituts conduiront, comme les précédents, GNV mis à part, à des gaspillages d’énergie, d’importantes émissions de gaz carbonique, d’importantes

Bernard Durand

171

pollutions locales et des prix élevés. Leur durabilité sera tout aussi réduite. Mais aussi ils seront en compétition avec les précédents, puisqu’ils utiliseront les mêmes matières premières. Ils n’ajouteront donc rien d’un point de vue quantitatif, tandis qu’ils sont bien plus difficiles à mettre en œuvre, puisqu’ils supposent le développement de véhicules et de systèmes de distribution adaptés ! Il est donc peu probable que ces substituts connaissent un grand développement. Il faut donc se tourner vers les substituts produits à partir de l’énergie nucléaire ou des énergies hydraulique, éolienne et solaire. Des trois dernières, l’énergie solaire est la seule à avoir un potentiel quantitatif suffisamment important. Mais son potentiel pratique, à cause de son intermittence, est pour l’instant très limité. Sa mise en œuvre est de plus extrêmement coûteuse. En l’état des techniques et des disponibilités, seule l’énergie nucléaire peut d’ores et déjà en France procurer une contribution substantielle pour satisfaire les besoins de mobilité. Ce peut être sous forme d’électricité utilisée dans des véhicules électriques ou dans des VHR. Ce peut être aussi sous forme d’hydrogène produit à partir d’électricité ou de chaleur nucléaire, éventuellement utilisé directement dans des voitures à pile à combustible, mais de préférence, à cause des grandes difficultés de mise en œuvre de cette méthode, utilisé indirectement pour produire de l’hydrogène carboné, et en particulier de plus grandes quantités de BTL-FT qu’il n’est possible de faire à partir de la biomasse seule. Ces substituts auraient de plus l’avantage de ne pas produire d’émissions de gaz carbonique. Dans le cas de véhicules purement électriques, aussi bien les émissions de gaz carbonique que les pollutions locales seraient même totalement supprimées. Et si la filière des réacteurs surgénérateurs était mise en place, leur durabilité serait également beaucoup plus grande que dans le cas de substituts dérivés des combustibles fossiles. La découverte de systèmes de stockage d’électricité ayant une capacité massique au moins dix fois supérieure à celle des batteries actuelles serait une révolution qui règlerait les problèmes de mobilité, sauf pour le transport aérien, ainsi que les problèmes d’environnement créés par la circulation automobile. En effet, les voitures électriques ainsi équipées auraient alors des performances voisines de celles de nos véhicules actuels, et il deviendrait possible de faire de l’électricité photovoltaïque notre principale source d’électricité et

172

La crise pétrolière

donc de se passer du nucléaire. Mais on ne connaît pas les principes physiques qui permettraient de le faire. Nous n’allons certainement pas vers une solution unique. Aucune ne semble en effet en mesure de s’imposer à elle seule actuellement. C’est un mélange de différents types de carburants qui nous permettra, peut-être, de conserver une mobilité effective. À l’échelle mondiale, Bauquis 2004 (figure 3.13) prévoit par exemple que le « carburant » des véhicules sera fait à la fin du siècle grosso modo de quatre parts à peu près égales : – les carburants pétroliers actuels ; – les carburants XTL : GTL, CTL, biocarburants, carburants tirés des huiles de schiste ; – l’hydrogène carboné, c’est-à-dire de nouveaux carburants de synthèse fabriqués à l’aide d’hydrogène produit à partir d’électricité ou de chaleur nucléaire, en hydrogénant des produits carbonés inutilisables actuellement, ou en augmentant le rendement, grâce à cet hydrogène, des productions de carburants XTL ; – l’électricité nucléaire, pour des véhicules électriques ou hybrides rechargeables. Selon cette étude : – Le Peak Oil est pour 2020. C’est un peu plus optimiste que la prévision actuelle de l’ASPO, mais guère plus. – Comme le prédit l’ASPO, la production de carburants XTL (biocarburants, GTL, CTL…) n’arrivera pas à compenser le déclin de la production de carburants pétroliers après le Peak Oil. – Pour arriver à augmenter la disponibilité de carburants après le Peak Oil, il faudra d’une façon ou d’une autre recourir à l’énergie nucléaire. – Malgré cela, les quantités de carburants offertes ne dépasseront pas 4 milliards de tonnes équivalent pétrole par an, soit le tiers de ce qui serait nécessaire pour que le monde entier puisse s’équiper de véhicules aux standards actuels européens, soit 60 véhicules pour 100 habitants consommant en moyenne 8 l/100 km. Si tel est le but, la consommation des véhicules devra donc d’une manière ou d’une autre être d’ici là divisée par trois ! Dans le bouquet proposé par Bauquis, l’énergie nucléaire intervient pour une large part, en produisant l’hydrogène destiné à produire l’hydrogène carboné

Bernard Durand

173

Figure 3.13. Prévisions des quantités de carburants produites à l’horizon 2100 et des émissions de CO2 eq associées, en milliards de tonne (Gt) par an. (Bauquis 2004.) et en fournissant de l’électricité aux VHR. On notera que ce schéma ne fait aucune place à l’hydrogène utilisé directement dans des véhicules électriques équipés de piles à combustible, au développement du GNV ou à l’électricité produite par l’éolien ou le solaire. Le schéma de Bauquis suppose donc un développement très rapide de l’industrie nucléaire à l’échelle mondiale. Mais aura-t-il lieu à temps pour faire face aux échéances très proches qui sont les nôtres ? Il suppose aussi une synergie de l’industrie nucléaire avec l’industrie pétrolière, ainsi qu’avec le monde agricole, pour tirer le meilleur parti des biocarburants. Ce bouquet ne sera pas le même selon les pays, et dépendra des ressources énergétiques dominantes dans ces pays : la France, bien placée pour le

174

La crise pétrolière

nucléaire, le serait donc en particulier pour des VHR, qui utiliseraient de l’électricité nucléaire mais aussi du BTL-FT, qui pourrait être produit en quantités accrues grâce à de l’hydrogène produit à partir d’électricité nucléaire. Le développement des VHR en France suppose toutefois le développement du nucléaire à l’échelle européenne, car le bouquet électrique de l’Europe ne comprend pour l’instant que 30 % d’électricité nucléaire. En effet, on imagine difficilement que le marché de ce type de véhicule puisse se créer uniquement à l’échelle de la France et des quelques autres pays européens dont l’électricité est largement « décarbonée » (Norvège, Suède, Suisse essentiellement). Cela aura donc du mal à se produire s’il n’y a pas une meilleure acceptation du nucléaire en Europe. Les choix de l’Allemagne dans ce domaine auront ici un effet déterminant, comme d’ailleurs pour l’existence d’une véritable politique énergétique en Europe, dont les divergences d’opinion sur le nucléaire sont sans doute actuellement le principal handicap. La solution de l’énergie nucléaire pour produire l’électricité et l’utilisation de celle-ci dans des véhicules VHR aurait pourtant pour l’Europe trois grands intérêts : – la libérer largement des contraintes et des risques grandissants d’un approvisionnement en combustibles fossiles, dont elle n’a pratiquement plus de réserves sur son sol ; – faire disparaître l’essentiel de ses émissions de CO2 ; – pouvoir durer très longtemps si les réacteurs surgénérateurs peuvent être industrialisés après la deuxième moitié du siècle. En définitive, s’il existe en théorie une multiplicité de substituts possibles aux carburants pétroliers, ils ne sont pas pour autant faciles à mettre en œuvre, et leur efficacité est toute relative ! Le risque est donc grand de nous trouver sous peu soumis dans ce domaine à un squeeze énergétique, le choc pétrolier qui nous menace prenant toute son ampleur avant que les solutions techniques pour y parer n’aient eu le temps d’être mises en place à une échelle suffisante. Le cas du transport aérien Le transport aérien consomme actuellement 8 % du pétrole utilisé dans le monde, et 14 % en France. Son développement a été très rapide depuis quelques années, sous l’effet d’une demande sans cesse accrue des déplacements touristiques et du transport aérien de marchandises. Le carburéacteur étant peu taxé, le coût du carburant a augmenté en valeur relative presque autant que

Bernard Durand

175

celui du pétrole jusqu’en juillet 2008. Cette augmentation brutale a été la source de grandes difficultés financières pour les compagnies d’aviation. Le retour à des prix du pétrole voisins de ceux de 2006 est un soulagement passager. Le problème se posera à nouveau une fois la crise économique actuelle terminée et les prix du pétrole repartis à la hausse. C’est pourquoi les constructeurs d’avion et de moteurs font actuellement de grands efforts pour construire des avions économes en carburants, c’est-à-dire faits de matériaux légers et utilisant des moteurs ayant de meilleurs rendements que les moteurs actuels. D’autre part, ils s’efforcent de mettre au point des moteurs pouvant utiliser des biocarburants. La réalisation d’avions fonctionnant sur d’autres principes que les principes actuels relève pour longtemps encore de la science fiction. C’est pourquoi il est d’autant plus urgent de réserver le plus possible le pétrole et les carburants alternatifs, puis les biocarburants, à l’aviation, et de se tourner résolument vers l’utilisation de l’électricité nucléaire ou renouvelable pour les véhicules routiers.

This page intentionally left blank

4

Que peut-on faire pour le secteur résidentiel et le secteur tertiaire ?

Le secteur résidentiel est celui de l’habitation et le secteur tertiaire celui des services, c’est-à-dire des bureaux et des commerces. Les dépenses énergétiques directes du secteur ont représenté en 2005 en France 68 Mtep en consommation d’énergie finale, soit environ 42 % de celleci, et ont été responsables d’environ 25 % de nos émissions de gaz carbonique ! Ce secteur consomme donc plus d’énergie et produit presque autant de gaz carbonique que les transports13 ! Les dépenses thermiques, chauffage et climatisation, eau chaude sanitaire (ECS) et cuisson, ont représenté environ 80 % de la consommation totale du secteur, le reste étant principalement constitué des dépenses d’électricité spécifique pour l’éclairage, les appareils ménagers et les produits bruns (télévision, téléphone, ordinateurs...). Les proportions des uns et des autres peuvent être appréciées sur le tableau 4.1. Depuis 2003, date d’établissement de ce tableau, la consommation a augmenté mais les proportions des différents types de consommation n’ont pas beaucoup changé. On y voit que le chauffage se taille la part du lion, à cause principalement du secteur résidentiel. 13

Dans les pays européens qui produisent leur électricité essentiellement à partir de combustibles fossiles, ce qui est le cas général, les émissions de gaz carboniques dues à la production d’électricité sont très importantes, et les émissions qui sont dues au secteur des transports et celles qui sont dues au secteur résidentiel et tertiaire sont de ce fait, en proportion, moins importantes qu’en France. Dans l’Europe des 27, qui produit 55 % son électricité avec des combustibles fossiles, les proportions moyennes sont actuellement d’environ 32 % pour la production d’électricité, 22 % pour les transports et 16 % pour le résidentiel et le tertiaire, contre 11 %, 35 % et 25 % respectivement en France. Si l’addition de ces différentes proportions est similaire dans les deux cas, en valeur absolue les émissions de gaz carbonique françaises sont en revanche bien inférieures à la moyenne de l’Europe des 27, environ 6,2 tonnes par habitant au lieu de 7,9 en 2005, du fait essentiellement de l’utilisation de l’énergie nucléaire pour produire l’électricité.

178

La crise pétrolière

Tableau 4.1. Évolution de 1985 à 2003 de la consommation d’énergie, par usage, dans le secteur résidentiel et dans le secteur tertiaire, en millions de tep, hors énergies renouvelables autres que le bois. (Sources : CEREN, EDF, GDF.) 1985 1990 1995 1999 2000 2001 2002 2003 RÉSIDENTIEL Chauffage Eau chaude sanitaire Cuisson Électricité spécifique

31,2 32,0 33,1 34,8 34,9 36,3 35,5 35,5 3,5 3,7 3,8 4,1 4,1 4,0 3,9 3,8 2,3 2,2 2,5 2,6 2,6 2,6 2,6 2,6 3,1 3,4 4,0 4,6 4,8 5,0 5,2 5,4

Consommation du secteur résidentiel

40,0 41,2 43,4 46,2 46,5 47,9 47,2 47,3

TERTIAIRE Chauffage Eau chaude sanitaire et cuisson Électricité spécifique

11,7 3,5 7,9

Consommation du secteur tertiaire

23,1 18,2 19,8 20,5 21,0 21,3 21,7 21,7

7,2 6,0 5,0

7,0 7,0 5,7

6,4 7,9 6,2

6,6 8,0 6,4

6,5 8,2 6,6

6,5 8,3 6,8

6,5 8,3 6,9

RÉSIDENTIEL ET TERTIAIRE Chauffage 42,9 39,2 40,2 41,2 41,5 42,8 42,0 42,0 Eau chaude sanitaire et cuisson 9,3 11,9 13,3 14,6 14,8 14,8 14,9 14,8 Électricité spécifique 10,9 8,4 9,7 10,8 11,2 11,6 12,0 12,2 Consommation du secteur résidentiel et tertiaire

63,1 59,5 63,2 66,7 67,5 69,2 68,8 69,0

Mais il faut y ajouter les dépenses indirectes faites par l’industrie du bâtiment, et en particulier la fabrication des matériaux de construction et leur transport ! La note se monte alors au total à 45 % de la consommation énergétique et 30 % des émissions de gaz carbonique ! En 2008, les dépenses pour l’énergie ont représenté, pour les 10 % de ménages ayant les revenus les moins élevés, environ 15 % de leur revenu. Les deux tiers en sont les dépenses d’énergie pour l’habitation ! La consommation directe de pétrole et de gaz dans le bâtiment représente en France environ 20 % de la consommation totale de pétrole et 60 % de la consommation totale de gaz. Mais ces consommations sont en réalité un peu plus importantes, si l’on y ajoute la consommation indirecte via la consommation d’électricité : en effet, même si l’électricité est chez nous à 90 % de l’électricité décarbonée, car 10 % seulement est produite avec des centrales thermiques à

Bernard Durand

179

flamme utilisant des combustibles fossiles (carbonés) ; il n’en reste pas moins que cela entraîne indirectement une consommation de pétrole et de gaz. Les énormes dépenses thermiques dans le bâtiment ont leur origine dans la politique de construction des années 1960 : à cette époque, il a fallu construire vite et bon marché pour faire face à l’afflux des habitants des campagnes vers les villes. Le pétrole ne coûtait alors pas grand chose et les préoccupations climatiques étaient inexistantes : les bâtiments ont été en général très mal isolés. Il en est résulté une dépense thermique par mètre carré habitable correspondant en moyenne à 375 kWh/an d’énergie primaire14 (375 kWh ep) ! Après le premier choc pétrolier en 1973 et la mise en place du programme nucléaire, le chauffage électrique s’est développé. Son coût de fonctionnement étant élevé, les constructions nouvelles ainsi équipées ont été mieux isolées. Cela, joint aux efforts de rénovation et d’isolation des constructions anciennes, et à l’établissement de normes de plus en plus contraignantes pour les constructions neuves (mais 75 % des bâtiments actuels ont été construits avant l’établissement de normes thermiques contraignantes !) a ramené actuellement la dépense thermique moyenne à environ 240 kWh ep par an et par mètre carré habitable. Mais on continue encore actuellement à construire des bâtiments moins efficaces ! D’autre part, ces efforts sont contrecarrés par une forte augmentation de la surface habitable par personne. Un facteur important de cette augmentation est l’évolution sociologique de la France, qui a eu comme conséquence l’augmentation du nombre de personnes seules dans leur logement. Celles-ci représentent maintenant le tiers de la population au lieu de 2 à 3 % en 1960, et cela a entraîné une demande accrue de logements. La recherche de confort a aussi entraîné un développement du chauffage, mais aussi de la climatisation. La dépense thermique du bâtiment a donc au total beaucoup augmenté et continue toujours à augmenter. Depuis le premier choc pétrolier, le fuel domestique est en cours de remplacement par le gaz, l’électricité et le bois. Mais si cette solution conduit à une économie de pétrole, elle n’est pas satisfaisante car elle conduit à une augmentation de la consommation de gaz, ce qui n’est guère plus durable, comme on l’a vu. La même remarque vaut pour l’électricité : même si elle est 14 Rappel : Comme on l’a déjà indiqué, la consommation d’énergie primaire est la consommation d’énergie du consommateur (énergie finale) augmentée des quantités d’énergie nécessaires pour mettre cette énergie à sa disposition: il faut pour cela multiplier par environ 1,2 la consommation finale en fuel ou en gaz, et par environ 2,6 la consommation finale d’électricité.

180

La crise pétrolière

chez nous très largement d’origine nucléaire, elle n’en est pas pour autant renouvelable. On estime généralement que si les réacteurs actuels n’ont pas commencé à être remplacés après 2040 par des réacteurs surgénérateurs, les réserves d’uranium actuellement connues risquent d’être épuisées vers la fin du siècle. D’autre part, l’augmentation du prix du pétrole entraîne, parce qu’elles se substituent au pétrole dans un marché concurrentiel, une augmentation de celui de toutes les autres formes d’énergie utilisées, gaz, électricité, bois... et la charge financière pesant sur les ménages s’accroît donc sans cesse. Il est on ne peut plus clair maintenant que cette situation est intenable sur le long terme et qu’il faut faire décroître considérablement et rapidement la consommation d’énergie dans le bâtiment : la seule solution viable, à terme, est une profonde transformation des modes de construction des habitations et des bureaux, de manière à les rendre aussi économes que possible en énergie. Or c’est d’ores et déjà tout à fait possible. Ces efforts doivent être encadrés par une évolution de la réglementation dans la construction. Pour éloigner les risques de pénurie en pétrole et en gaz et diminuer les émissions de gaz à effet de serre, il faut également choisir, autant que possible, d’autres moyens de chauffage que le fuel ou le gaz. Encore mieux, il faut construire, et c’est parfaitement possible, des habitations qui n’ont pas besoin de moyens de chauffage internes et qui utilisent la chaleur solaire de manière passive. C’est ce que l’on appelle les maisons passives. D’autre part, il faut choisir les matériaux de construction dont le cycle de vie (extraction, façonnage, transport, usage, recyclage, destruction…) consomme le moins d’énergie possible : le bois, l’argile crue ou la pierre, ainsi que d’autres matériaux comme la paille ou le chanvre, sont de ce point de vue préférables aux briques et au béton. Rappelons au passage que l’une des raisons de la surconsommation énergétique dans le bâtiment est la température trop élevée qui y règne bien souvent en période de chauffage : on estime que la dépense énergétique s’élève de 7 à 8 % par degré supplémentaire au dessus des 19 ˚C, qui sont considérés comme la normale. Et bien des gens sont en bras de chemise dans une atmosphère surchauffée, alors qu’ils pourraient baisser la température et mettre un pull. C’est un exemple parmi bien d’autres de la relation qui existe entre comportement des consommateurs et consommation d’énergie. Il existe maintenant une multiplicité d’approches et de techniques proposées pour construire de façon à économiser l’énergie. Leur efficacité réelle n’est malheureusement pas hiérarchisée dans le fleuve des discours écrits à ce sujet,

Bernard Durand

181

ce qui constitue un obstacle à leur diffusion. Nous ne décrivons ci-dessous que celles qui présentent le plus d’intérêt.

1. Qu’attendre des nouveaux modes de construction ? Pour être pleinement efficace, la recherche des économies d’énergie dans le bâtiment ne doit pas être une juxtaposition d’actions conçues indépendamment les unes des autres, mais une conception d’ensemble, intégrant aussi bien les caractéristiques du site de la construction que les matériaux à utiliser et les techniques d’économie localement les mieux adaptées. C’est ce que l’on appelle la conception bioclimatique Les maisons économes en énergie du futur seront donc des maisons conçues avec soin par des architectes ayant une bonne formation à ce mode de conception, assistés si nécessaire par des ingénieurs. On ne peut plus continuer à laisser construire comme actuellement des maisons par des corps de métiers qui n’ont pas été formés à ces méthodes, ou qui n’ont pas à cœur de les mettre en œuvre proprement ! La France est un des grands pays industrialisés qui a le plus négligé l’efficacité énergétique dans la construction, et elle a pris dans ce domaine du retard par rapport à des pays comme l’Allemagne, l’Autriche, les États-Unis, la Suède ou la Suisse. La Chine est maintenant plus dynamique qu’elle dans ce domaine. Il est impératif qu’elle comble rapidement ce retard ! La conception bioclimatique consiste à concevoir la disposition de l’habitation et à tenir compte de son environnement pour limiter le refroidissement en hiver et le réchauffement excessif en été et bien sûr à en concevoir avec grand soin l’isolation. Elle consiste aussi à n’utiliser autant que possible pour le chauffage que les sources naturelles de chaleur, en premier lieu l’énergie solaire, de manière passive. On obtient ainsi des maisons basse consommation, et idéalement on peut ainsi réaliser, si la maison est très bien isolée, ce que l’on appelle une maison passive, c’est-à-dire une maison qui n’a pas besoin de source de chaleur interne pour son chauffage. Les possibilités sont très nombreuses et nous n’en décrirons ici que quelques unes.

1.1. L’utilisation optimale du site de construction Comme le montre la figure 4.1, on peut par exemple limiter les ouvertures au Nord et y installer une barrière végétale à feuilles persistantes pour diminuer l’impact des vents froids, tandis que l’on récupère la chaleur solaire au sud

182

La crise pétrolière

grâce par exemple à une verrière fermée qui produit de la chaleur dans la journée par effet de serre. Un arbre à feuilles caduques au Sud limite les ardeurs du soleil en été. Le toit et les ouvertures au Sud sont conçus de façon à laisser passer les rayons du soleil en hiver et les arrêter quand ils sont au zénith en été.

Figure 4.1. La conception bioclimatique : l’utilisation optimale du site de construction. La forme de la maison a aussi son importance : il faut minimiser le rapport surface/volume, car plus la surface est importante par rapport au volume et plus les déperditions d’énergie sont grandes pour une même température intérieure : une maison à un étage, de forme ramassée, est préférable de ce point de vue à une maison longue et basse. Une couverture végétale en toiture présente un double intérêt : elle améliore l’isolation thermique des bâtiments, et, parce qu’elle amortit les chocs thermiques pendant l’été, elle en prolonge la durée de vie. Elle joue aussi un rôle de régulateur des précipitations en ralentissant les écoulements des eaux pluviales. Les toits végétalisés se répandent actuellement en milieu urbain, où ils apportent un élément de confort et d’intimité.

1.2. Les murs capteurs À l’architecture bioclimatique se rattache l’utilisation de murs capteurs ou de murs Trombe : un mur capteur est un mur épais revêtu sur sa face extérieure d’une peinture sombre, construit en un matériau de forte capacité thermique, en général un béton d’une épaisseur de 40 à 50 cm, que l’on recouvre d’un

Bernard Durand

183

double vitrage de faible émissivité. Le mur et le vitrage sont séparés par une lame d’air épaisse d’une dizaine de centimètres, maintenue par des joints d’étanchéité. Le mur se réchauffe pendant la journée par effet de serre et diffuse sa chaleur à l’intérieur de l’habitation avec un retard d’une dizaine d’heures, c’est-à-dire après le coucher du soleil. Cette chaleur se répand dans la maison par convection naturelle. Le mur Trombe, du nom de son inventeur Félix Trombe, est construit sur le même principe, mais deux ouvertures sont pratiquées en haut et en bas du mur de béton. L’air intérieur de la maison circule donc par convection dans la lame d’air et s’y réchauffe. Les ouvertures doivent impérativement être fermées par des clapets dès le coucher du soleil, de manière à éviter le refroidissement de l’air intérieur de la maison, et la chaleur accumulée dans le mur réchauffe alors celui-ci. On obtient ainsi un apport de chaleur dans la maison pendant le jour et pendant la nuit.

1.3. Le puits canadien (provençal) et la ventilation contrôlée Les sols stockent la chaleur solaire, soit directement, par insolation, soit par l’intermédiaire des pluies. Cette chaleur diffuse en profondeur et il en résulte qu’à partir de 1 à 2 mètres de profondeur l’inertie thermique du sol entraîne que la température du sol est à peu près constante toute l’année, de l’ordre de 12 ˚C dans la majorité des régions françaises. Le principe du puits canadien, dit encore puits provençal, est de récupérer une partie de cette chaleur pour chauffer une habitation en utilisant une circulation forcée d’air dans une conduite enterrée (figure 4.2). Le débit de cette circulation doit être suffisamment faible pour optimiser l’échange de chaleur entre le sol et l’air en circulation mais suffisamment fort pour transférer une quantité de chaleur importante dans l’habitation. Une grande longueur de conduite est donc souhaitable. La circulation de cet air dans la maison doit aussi être soigneusement étudiée pour que la chaleur soit distribuée de façon homogène dans toutes les pièces. On utilise pour cela une ventilation mécanique contrôlée (VMC). Cet apport de chaleur ne permet pas d’obtenir la température de confort dans l’habitation pendant les périodes de chauffage, mais réduit de beaucoup la quantité d’énergie supplémentaire nécessaire pour l’atteindre. Ce système peut fonctionner comme un climatiseur en été.

184

La crise pétrolière

Figure 4.2. Principe du puits canadien. (Source : HELIOS.) Une amélioration de ce système est l’utilisation d’un stockage intermédiaire de chaleur sous forme d’un matériau à forte inertie thermique, par exemple lits de galets placés sous la maison ou à proximité. Ce matériau est chauffé par temps chaud par une circulation d’air chaud venant de la toiture, ce qui contribue à climatiser l’habitation, et restitue sa chaleur par temps froid par inversion de la circulation d’air.

1.4. L’isolation thermique et la ventilation Une bonne isolation thermique est de très loin ce qui permet de diminuer le plus substantiellement les consommations de chauffage. Elle a été très négligée, comme on l’a vu, de 1960 à 1975. Le résultat en est désastreux (figure 4.3). Les grands principes d’une bonne isolation thermique sont les suivants. – Soigner l’« enveloppe » de l’habitation, toit, murs et sols, et veiller à éviter de créer des ponts thermiques, qui proviennent d’une mauvaise construction (figure 4.3). Ces ponts thermiques, où se concentre préférentiellement le flux de chaleur qui va de l’intérieur à l’extérieur de l’habitation, sont dus à des inhomogénéités locales de la conductivité thermique de l’isolation, provenant d’une juxtaposition mal conçue de matériaux de caractéristiques différentes. Ce sont par exemple des jonctions de parois, les coffrages de volets roulants, les huisseries, les chaînages de béton. Il est impératif de les repérer avant l’achèvement de la construction par des tests adaptés, pour

Bernard Durand

185

Figure 4.3. Importance relative des diverses pertes de chaleur dans une maison française de type courant, qui est une véritable passoire. (Source : Direction générale de l’Urbanisme, de l’Habitat et de la Construction.)

– –





pouvoir les éliminer. Des tests sont mis en œuvre pour cela par exemple en Allemagne, mais ont du mal à se répandre en France. Veiller à l’étanchéité à l’air, pour éviter les fuites non contrôlées de l’air intérieur. Soigner les vitrages. Ces derniers doivent être au minimum des doubles vitrages, et il en existe maintenant, dits peu émissifs ou vitrages à isolation renforcée (VIR), qui arrêtent très efficacement le rayonnement infrarouge produit à l’intérieur de la maison. Et si l’on veut n’avoir pas besoin de moyens de chauffage interne, c’est-à-dire réaliser une maison passive, il faut utiliser des triples vitrages. Isoler les murs par l’extérieur et non par l’intérieur comme cela se pratique le plus couramment actuellement. En effet, les parois de la maison peuvent être alors utilisées pour servir d’amortisseurs des variations de la température externe. C’est également un bon moyen pour supprimer les ponts thermiques. Utiliser des matériaux de construction à forte inertie thermique et à faible conductivité thermique : l’inertie thermique, c’est-à-dire la capacité d’accumuler la chaleur pour la restituer ensuite, varie dans des proportions de 1 à 30 pour les matériaux d’isolation avec les épaisseurs habituellement utilisées (tableau 4.2) !

186

La crise pétrolière

Tableau 4.2. Inerties thermiques de divers matériaux de construction, en Wh par m2 et par ˚K. (Source : Que choisir n˚ 75. ) Matériaux

Inertie

Mur en terre crue de 35 cm

275

Mur en briques de terre cuite pleines de 25 cm

163

Mur ou dalle en béton plein de 20 cm

128

Mur en briques auto-isolantes de 37 cm

82

Mur en sapin massif de 20 cm

60/44

Ossature bois + briques de chanvre

60/44

Mur en béton cellulaire de 30 cm

36

Cloison panneaux de bois (OSB 12 mm) + isolation laine de bois de 10 cm

30/20

Cloison plaque de plâtre isolée de 10 cm de laine de verre

8

La conductivité thermique caractérise la vitesse avec laquelle le flux de chaleur traverse le matériau. Et plus cette conductivité est élevée, plus la puissance de chauffage qui sera nécessaire pour maintenir la température intérieure sera élevée. Plus cette conductivité est faible et plus une paroi réalisée avec ce matériau est isolante pour une même épaisseur. Elle dépend surtout de la quantité d’air contenue par unité de volume. En effet, c’est l’air qui est le meilleur isolant thermique après le vide. Le tableau 4.3 montre comment elle varie avec les matériaux les plus courants. Tableau 4.3. Épaisseur de matériaux nécessaire pour obtenir la même isolation thermique que 87,5 cm de béton plein. (D’après P. de Haut, 2007.) Matériau

Épaisseur

Polystyrène extrudé

1,5 cm

Panneaux cellulose

2 cm

Liège

2 cm

Laine minérale

2 cm

Polystyrène expansé

2 cm

Ouate de cellulose

2,3 cm

Chanvre en vrac

2,4 cm

Bernard Durand

187

Matériau

Épaisseur

Béton de chanvre

6,5 cm

Bois résineux

7,5 cm

Béton cellulaire Brique creuse alvéolaire

8 cm 17,5 cm

Brique pleine

28 cm

Pisé

39 cm

Adobe (terre crue)

42,5 cm

Pierre calcaire

45 cm

Parpaing creux

52,5 cm

Béton plein

87,5 cm

L’inertie thermique n’étant pas corrélée à la conductivité thermique, c’est une juxtaposition de deux matériaux, l’un à forte inertie thermique et l’autre à faible conductivité thermique, qu’il faut rechercher. L’isolation consistant pour une large part à rendre le bâtiment étanche à l’air, une ventilation intérieure est nécessaire, en particulier pour éviter un confinement trop important, source de pollution et d’humidité : le trajet de l’air doit être soigneusement étudié pour que toutes les pièces soient correctement ventilées et que la circulation de l’air s’accompagne d’un minimum de pertes de chaleur. Un minimum de 25 à 30 m3 à l’heure de renouvellement de l’air par occupant permanent de la maison est nécessaire. On utilise une ventilation mécanique contrôlée (VMC), de préférence à double flux, de manière à faire récupérer le plus possible de la chaleur du flux sortant de la maison par le flux entrant. Bien isoler une maison, c’est donc réduire dans des proportions très importantes la consommation d’énergie pour le chauffage. Cette préoccupation est très présente, on le comprend, dans les pays nordiques, mais cela vaut la peine de s’en préoccuper même dans le midi de la France.

2. Qu’attendre des moyens de produire de la chaleur autres que le fuel et le gaz ? Une maison très bien isolée consomme peu d’énergie pour son chauffage et sa climatisation, et peu importe alors le moyen de chauffage ! Cependant, il faut y produire de l’eau chaude sanitaire (ECS), et cela représente un poste

188

La crise pétrolière

important de dépenses énergétiques : la consommation d’énergie due à la production d’eau chaude sanitaire dans le secteur résidentiel est actuellement en France de l’ordre de 9 Mtep, dont 6 assurés par du fuel et du gaz naturel ! Il y a donc là un sérieux effort à faire ! Il faut aussi produire de la chaleur pour cuire les aliments. Actuellement, la plupart des maisons ne sont pas en France correctement isolées, et ne le seront pas avant longtemps : une réflexion sur les moyens de chauffage utilisés s’impose donc pour le court et le moyen terme. On a vu la nécessité d’économiser à court terme le pétrole, mais aussi le gaz : mieux vaudra donc dans l’avenir éviter de les utiliser, soit directement dans des chaudières à gaz ou à fuel, soit indirectement via l’électricité dans les pays qui font leur électricité à partir de ceux-ci. Il existe de multiples possibilités. C’est dans ce domaine que l’utilisation des énergies renouvelables, et en particulier de l’énergie solaire, a actuellement le plus d’intérêt.

2.1. Le chauffage électrique En moyenne mondiale, l’électricité était produite fin 2006 à environ 40 % à partir de charbon, 21 % à partir de gaz naturel, 7 % à partir de fuel lourd, 16 % à partir d’hydraulique, 15,5 % à partir de nucléaire, les 0,5 % restants étant produits à partir d’éolien, de solaire et de géothermie. 68 % étaient donc produits à partir des combustibles fossiles, et cette proportion a actuellement tendance à augmenter parce que le charbon est de plus en plus utilisé ! Le chauffage électrique est actuellement très utilisé en France. La consommation d’électricité correspondante est d’environ 45 TWh, soit à peu près 9 % de la consommation totale d’électricité et l’équivalent de 3,8 Mtep. Faut-il pour autant le recommander pour réduire la consommation de pétrole et de gaz, et plus généralement de combustibles fossiles ? À l’échelle mondiale, le rendement moyen de la transformation en électricité de la chaleur produite par la combustion des combustibles fossiles n’est que de 38 %. On comprend donc que, dans les pays où l’électricité est majoritairement produite à partir de ceux-ci, ce qui est le cas général, le chauffage électrique est à proscrire si l’on veut économiser ces combustibles : En effet, l’électricité ainsi produite induit, pour une même quantité de chaleur produite dans l’habitation et à même qualité d’isolation thermique, une consommation qui est en moyenne beaucoup plus importante que lors de leur utilisation directe par une

Bernard Durand

189

chaudière installée dans l’habitation ! Mais il s’agit ici surtout de charbon, alors que les chaudières installées dans les maisons consomment surtout du fuel et, de plus en plus, du gaz. En France, où en moyenne annuelle 10 % seulement de l’électricité est produite par des centrales utilisant du fuel, du gaz et du charbon, on peut en revanche penser que son utilisation pour le chauffage électrique, très développée, n’a guère de conséquence sur la consommation de combustibles fossiles, contrairement à ce qui se passe chez la plupart de nos voisins européens. Ce n’est pas tout à fait exact, comme on va le voir. En effet, on observe en hiver en France une forte augmentation de la consommation d’électricité (figure 4.4). Les besoins accrus d’éclairage contribuent bien sûr à cette augmentation, mais le chauffage électrique en est largement responsable.

Figure 4.4. Comparaison des consommations mensuelles d’électricité de 2005 dans les quatre pays Européens les plus peuplés. La consommation augmente bien plus en France en période froide que dans les trois autres pays. (Source EDF, DTI, UCTE.) Les grands pays industriels voisins, Allemagne, Italie, Royaume-Uni, produisent leur électricité essentiellement à partir de combustibles fossiles. Le chauffage électrique y est donc peu utilisé. L’augmentation de la consommation

190

La crise pétrolière

électrique en période froide y est bien moins prononcée qu’en France, ce qui montre a contrario le rôle important joué par le chauffage électrique sur la consommation hivernale d’électricité. Or on observe chez nous, corrélativement à cette augmentation de la production électrique, un accroissement sensible de la production électrique des centrales à combustibles fossiles (figure 4.5).

Figure 4.5. Production d’électricité (moyennes mensuelles) et proportions relatives dans cette production des différents moyens utilisés en France en 2007. (Courtoisie H. Nifenecker.) On observe aussi en hiver une diminution des exportations d’électricité et une augmentation des importations, jusqu’à parfois un solde négatif sur des périodes de quelques jours. Ces importations viennent alors essentiellement d’Allemagne, dont les émissions de CO2 de la production électrique sont beaucoup plus importantes qu’en France ! Elles sont toutefois faibles, de l’ordre de 11 TWh sur l’ensemble de l’année 2007, soit un peu plus de 2 % de la consommation annuelle française, et 3 à 4 % de la consommation en période hivernale.

Bernard Durand

191

Le chauffage électrique entraîne donc en France, par l’augmentation de consommation électrique qu’il contribue à provoquer en hiver, mais en fait, par l’augmentation corrélative de la production d’électricité en provenance des centrales à combustibles fossiles françaises et allemandes, une consommation indirecte non négligeable de fuel, de gaz et surtout de charbon. Mais cette consommation de combustibles fossiles serait quand même notablement plus grande si, comme en Allemagne par exemple, le chauffage du secteur résidentiel et tertiaire était pour sa plus grande part assuré directement par des combustibles fossiles ! Et il s’agirait alors de fuel et de gaz, dont on a vu l’importance qu’il y avait à les économiser, plutôt que de charbon ! Les centrales à combustibles fossiles, qui sont en fait les responsables de ce problème, sont pour l’essentiel des centrales utilisées en base et en semi-base, car la consommation de pointe est assurée pour l’instant en France essentiellement par des centrales hydroélectriques de lacs. Il serait donc possible, en les remplaçant par quelques centrales nucléaires qui auraient les mêmes fonctions, de diminuer encore la consommation de combustibles fossiles due à la production d’électricité, et de diminuer ainsi notablement l’impact du chauffage électrique sur cette consommation. On peut donc prétendre que l’utilisation croissante de centrales à combustibles fossiles en France est la conséquence de l’arrêt après 1992 de la mise en service de nouvelles centrales nucléaires et du choix qui a été fait d’utiliser plutôt des centrales à charbon. En revanche, on ne pourrait pas échapper de cette façon au problème posé par les importations d’électricité en provenance d’Allemagne, où la majeure partie de la production électrique est assurée par des centrales à combustibles fossiles, et probablement pour très longtemps encore. Mais en réalité, cette situation résulte plus en France du fait qu’il a jusqu’à présent été plus avantageux économiquement d’utiliser sur une courte période une centrale à combustibles fossiles plutôt qu’une centrale nucléaire. Ce sont beaucoup plus les considérations financières que l’économie de combustibles fossiles et la baisse des émissions de CO2 qui ont guidé ces dernières années les investissements en France. Cela changera bien sûr si les émissions de CO 2 sont un jour taxées ! Étant donné l’intérêt actuel pour la diminution des émissions de CO 2, discuter du «contenu » en CO2 de l’électricité utilisée pour le chauffage électrique est un débat récurrent en France. Il n’est pas facile d’y voir clair, car il faudrait connaître l’affectation détaillée tout au long de l’année des différents moyens de production à chaque type de consommation, non seulement pour l’électricité produite en France, mais aussi pour l’électricité importée. En effet, nous

192

La crise pétrolière

échangeons de l’électricité avec les pays voisins, et l’électricité que nous importons en hiver d’Allemagne a un contenu en CO2 bien supérieur au nôtre. Alors que nous exportons, surtout vers l’Angleterre, la Belgique et l’Italie, de l’électricité à faible contenu en CO2. On retiendra cependant que le contenu en CO2 de la consommation d’électricité due au chauffage électrique en France est pour l’instant nettement moindre que ce qu’entraînerait son remplacement par du chauffage au gaz, et surtout au fuel : selon l’Agence de l’environnement et de la maîtrise de l’énergie (ADEME), le chauffage électrique des bâtiments induit pour l’instant en moyenne en France une production de CO 2 de 180 grammes par kWh de chaleur utile produite (et bien moins pour la partie qui est due à l’utilisation du fuel et du gaz, puisque c’est surtout du charbon qui est utilisé dans les centrales), contre 446 et 220 respectivement pour le fuel et le gaz naturel15. L’objection qui est faite au chauffage électrique d’entraîner de fortes émissions de CO2 de la production électrique n’est donc pas recevable actuellement en France, même si la diminution qu’elle entraîne par rapport à un chauffage qui n’utiliserait que du gaz est somme toute assez faible. D’autant plus qu’il faudrait aussi prendre en compte le fait que le méthane, principal constituant du gaz naturel, est un puissant gaz à effet de serre, qui est émis dans l’atmosphère à l’occasion des fuites, fréquentes à la distribution. Mais l’objection pourrait devenir recevable si le développement des échanges d’électricité entre pays européens via l’interconnexion progressive des réseaux électriques amenait la France à consommer le mix électrique de l’Europe des 27, qui est pour l’instant pour 55 % à base de combustibles fossiles ! Une proposition originale a été faite récemment (Prévôt 2008) pour réduire le contenu en CO2 du chauffage électrique sans faire pour autant de gros investissements. Elle consiste à équiper les chaudières à fuel ou à gaz d’une résistance électrique qui chauffe l’eau pendant l’essentiel de l’année. La chaudière se met en route automatiquement, sur un signal du réseau, dès que l’on se trouve en situation de faire appel à des centrales à combustibles fossiles. Ce dispositif semble être a priori avantageux pour les ménages actuellement équipés d’un chauffage central, mais il pourrait également être intéressant pour les maisons du futur : l’utilisation des combustibles fossiles 15

Les émissions de CO2 dues à la production d’électricité ont été en moyenne en 2007 en France d’environ 90 g par kWh d’électricité produite (Allemagne : 550 ; Belgique : 290 ; Danemark : 580 ; Espagne : 390 ; Italie : 470 ; Royaume-Uni : 480).

Bernard Durand

193

(ou de bois, voir plus loin) dans l’habitat pourrait alors être restreinte à la fourniture de chaleur uniquement quand la production d’électricité a besoin de faire appel aux centrales à combustibles fossiles. L’intervention de ces centrales pourrait alors être considérablement réduite, ainsi que les émissions de CO2 correspondantes. Le chauffage électrique est simple et peu coûteux à installer. Il est en revanche coûteux en fonctionnement puisque le prix de l’électricité, par kWh de chaleur produite dans l’habitation est plus élevé que celui du kWh produit par le chauffage au fuel ou au gaz de ville16 ! Ces prix ne vont sans doute pas avoir tendance à se rapprocher malgré les augmentations à prévoir pour les prix du fuel et du gaz, étant donné que la politique de libéralisation du marché de l’électricité suivie en ce moment par l’Europe semble conduire en fait à l’indexation du prix de marché de l’électricité sur les prix des combustibles fossiles ! Mais il faut remarquer que beaucoup des maisons ainsi équipées ont été mieux isolées que les autres, parce que le chauffage électrique coûtait cher, mais aussi parce qu’à l’époque de leur construction, les normes thermiques étaient devenues plus rigoureuses que pour les maisons plus anciennes. Si bien qu’actuellement le coût de ce chauffage revient dans la pratique souvent moins cher que le chauffage au fuel et au gaz ! En définitive, le procès qui est fait régulièrement au chauffage électrique sous prétexte qu’il provoque indirectement une importante consommation de combustibles fossiles et des émissions considérables de CO 2, ou bien qu’il est très coûteux, est donc fondé pour la plupart des pays européens, mais il ne l’est pas pour la France. Il n’en reste pas moins qu’à cause du faible rendement actuel des centrales électriques, qui y produisent pour l’instant l’essentiel de l’électricité, qu’elles soient à combustibles fossiles ou nucléaires, il entraîne une consommation importante d’énergie primaire, comme toutes les utilisations de l’électricité ! On verra plus loin que la norme thermique pour les bâtiments construits après 2012 sera de 50 kWh de consommation d’énergie primaire par mètre carré de surface habitable et par an, pour le chauffage. C’est impossible à atteindre avec du chauffage électrique, sauf avec une isolation de qualité exceptionnelle, puisque cette norme correspond dans ce cas à une production de chaleur dans l’habitation de seulement 19 kWh/m2 et par an, 2,6 fois moins que dans le cas de l’utilisation directe de 16

En juillet 2007, pour 1 kWh de chaleur produite, les ratios étaient de 1,4 pour le chauffage à l’électricité par rapport au chauffage au gaz, et de 1,2 par rapport au chauffage au fuel, mais de 0,85 par rapport au chauffage au gaz propane.

194

La crise pétrolière

combustibles17 ! Si l’accent est mis sur les économies de pétrole et de gaz et la maîtrise des émissions de CO2, le chauffage électrique est donc pour l’instant à recommander en France, surtout s’il se substitue à un chauffage au fuel, et c’est pourquoi le législateur a prévu pour l’instant une norme thermique pour les bâtiments sensiblement plus élevée en cas de chauffage électrique. Mais si l’accent est mis sur la consommation d’énergie primaire, il vaut mieux l’éviter, d’autant plus que, comme on le verra, l’utilisation de pompes à chaleur permet d’utiliser l’électricité pour produire de la chaleur dans l’habitat avec une dépense d’énergie primaire bien moindre ! Le chauffage électrique tel qu’il se pratique actuellement n’est donc pas une option convaincante pour les maisons du futur, même si elles seront beaucoup mieux isolées que les habitations actuelles18.

2.2. Le chauffage au bois Les techniques ont fait des progrès spectaculaires depuis la cheminée à foyer ouvert, dont seulement 30 % environ de la chaleur qu’elle produit est récupérée dans l’habitation. Un insert permet de diminuer considérablement ces pertes, jusqu’à récupérer dans la maison 60 à 70 % de la chaleur produite. Il existe des poêles très efficaces, dont le rendement est de 60 à 80 %. Il existe aussi des chaudières à bois dont le rendement peut atteindre 85 %. Celles qui utilisent des plaquettes ou des granulés faits à partir de déchets de scieries ou de déchets forestiers ont la même facilité d’utilisation que les chaudières à gaz ou à fuel. Le coût réel de ce mode de chauffage est sous-estimé par ses utilisateurs. En fait, il s’agit actuellement d’un mode de chauffage dont le prix de revient est voisin de celui du fuel ou du gaz, car un stère de bois ne fournit qu’environ 1500 kWh de chaleur utile dans une installation moderne, et le coût d’une telle installation est supérieur à celui d’une chaudière à fuel ou à gaz. Contrairement à l’opinion courante, formatée par un discours écologique trop superficiel, les quantités de CO2 produites par kWh de chaleur produite par la 17

Ces normes et coefficients, qui sont ceux qui ont été validés par le Grenelle de l’environnement, sont très approximatifs et mériteraient de faire l’objet d’une étude bien plus attentive que ce qui a été fait. Le coefficient de 2,58 retenu pour passer de la consommation finale d’électricité à la consommation d’énergie primaire est insuffisant, et celui de 1 retenu pour le passage de la consommation de fuel ou de gaz à la consommation d’énergie primaire est absurde : il est au minimum de 1,2 ! 18 Signalons à ce propos que les appareils électriques de tous genres installés dans une maison produisent de la chaleur lors de leur fonctionnement et contribuent ainsi, si elle est bien isolée, de façon sensible à son chauffage.

Bernard Durand

195

combustion du bois sont considérables, bien supérieures à celles du charbon. Mais, à condition de replanter plus d’arbres que l’on en abat19, on réabsorbe autant de CO2 que l’on en a produit, et l’utilisation du bois peut être considérée comme neutre du point de vue des émissions de CO2. Cependant, il faut de l’énergie pour produire le bois, le conditionner, et le mettre à la disposition du consommateur. Cela entraîne des émissions de CO2. L’ADEME considère que les émissions nettes de CO2 attribuables au bois sont actuellement en moyenne en France d’environ 40 g/kWh de chaleur utile produite (contre 180 pour le chauffage électrique, 222 pour le gaz et 446 pour le fuel). Il faut prendre garde aux conséquences pour le voisinage de cette utilisation du bois, conséquences dont n’a pas conscience le consommateur, auquel on a pendant tant d’années vanté les mérites de cette énergie renouvelable, donc parée de toutes les vertus. Sa combustion provoque en effet la formation de grandes quantités de polluants atmosphériques, et en particulier de particules carbonées (suies) et de HAP, dont on a dénoncé les effets sur la santé. Elle produit également de grandes quantités de goudrons réputés cancérigènes, comme le sont ceux produits par la combustion du tabac (le tabac, c’est du bois !). Les dangers sanitaires de l’utilisation du bois dans les pays pauvres, dont c’est la source principale d’énergie, sont très importants. Mais c’est aussi un risque dans les pays développés. Une étude de la ville de Montréal a par exemple montré que ses 50 000 poêles à bois domestiques envoyaient près de trois fois plus de particules dans l’atmosphère de la ville que l’ensemble de ses véhicules, et étaient les principaux responsables du brouillard jaunâtre (smog) que l’on y observe en hiver. Les utilisateurs individuels n’ont pas les moyens de payer les filtres et les dépoussiéreurs pour arrêter cette pollution ! D’autre part, ils ne prêtent en général pas assez d’attention à ce qu’ils brûlent : l’utilisation de bois traités contre les insectes ou de plastiques chlorés entraîne la formation de dioxines, dont certaines sont de redoutables cancérigènes. Il est donc préférable d’utiliser le bois dans des chaufferies importantes ainsi équipées, à l’échelle d’une commune par exemple, et cela dans des conditions très strictes, et de distribuer la chaleur produite par un réseau de canalisations d’eau chaude (réseau de chaleur).

19 Si l’on ne replante qu’un arbre par arbre détruit, il faudra attendre que ce nouvel arbre ait atteint son plein développement pour que la quantité de CO2 prélevée dans l’atmosphère soit égale à celle produite par la destruction d’un arbre équivalent. La sagesse consiste donc à ne jamais prélever annuellement de quantités de bois supérieures à la production annuelle des forêts.

196

La crise pétrolière

Cette utilisation du bois ne doit pas non plus mener à la déforestation : il faut s’astreindre à ne prélever que des quantités compatibles avec le maintien de la forêt et des autres activités économiques qui dépendent du bois (bois d’œuvre et peut-être un jour biocarburants de deuxième génération...). Le bois est maintenant utilisé en France comme moyen de chauffage principal ou accessoire par une maison sur deux, et cette consommation représente environ 8 à 9 Mtep en énergie finale (tableau 3.1).

2.3. Le chauffage solaire Le chauffe-eau solaire La façon la plus connue d’utiliser la chaleur solaire est le chauffe-eau solaire (figure 4.6) qui sert à produire de l’eau chaude sanitaire. La partie active est un capteur situé sur le toit, qui transforme le rayonnement solaire en chaleur par effet de serre. Cette chaleur est utilisée pour augmenter la température d’un fluide circulant, de forte capacité calorifique, eau ou eau glycolée, qui cède sa chaleur à l’eau d’un ballon de stockage à l’isolation thermique soignée, de manière à ne perdre qu’aussi peu que possible de la chaleur accumulée et de pouvoir en avoir suffisamment la nuit ou les journées sans soleil. Le rendement global de transformation de l’énergie du rayonnement solaire en chaleur utile dans l’habitation est de l’ordre de 30 à 50 % selon la région. L’énergie solaire reçue au sol étant d’intensité très variable au cours du temps (c’est ce qu’on appelle son intermittence), une régulation du débit du fluide en circulation et une source de chaleur d’appoint (chaudière ou résistance électrique) sont nécessaires pour maintenir constamment l’eau du ballon à la température désirée. La surface du capteur doit en outre tenir compte du fait que la quantité d’énergie solaire reçue est sous nos latitudes environ quatre fois plus faible en hiver qu’en été (voir plus loin le paragraphe 4.4.2 sur l’électricité photovoltaïque et la figure 4.8). Or il est impossible de stocker la chaleur sur de longues périodes, les déperditions dans les systèmes les mieux isolés disponibles actuellement étant de l’ordre de 1 % par heure ! Il faut donc disposer d’une source de chaleur complémentaire pour assurer une disponibilité régulière d’eau chaude sanitaire à température constante en toutes saisons. La moitié de la consommation d’eau chaude sanitaire d’une famille peut être ainsi assurée, et il suffit pour cela de 2 à 4 m2 de capteurs selon la région, l’autre moitié devant être fournie par une autre source, principalement en hiver. Un développement de l’utilisation des chauffe-eau solaires est ce que l’on appelle le système solaire combiné (SSC). Ce système consiste à utiliser l’eau

Bernard Durand

197

Figure 4.6. Principes de fonctionnement d’un chauffe-eau solaire. (Source : ADEME.)

chaude produite pour assurer également le chauffage de l’habitation grâce à un plancher chauffant. Malgré la simplicité et l’efficacité de ces dispositifs, à condition d’être très bien installés, ce qui est loin d’être toujours le cas, chauffe-eau solaires et SSC ne sont pas très répandus en France. Cela tient à leur coût pour l’instant bien trop élevé. Cela entraîne, malgré les subventions accordées, un temps de retour sur investissement, c’est-à-dire le temps nécessaire pour que les économies faites sur la consommation d’énergie soient devenues égales à l’investissement réalisé, qui est beaucoup trop long, de l’ordre de la quinzaine d’années, soit la durée de vie du matériel. Mais plus encore l’irrégularité de la quantité de chaleur produite en fonction du temps fait que ces dispositifs doivent être complétés par une autre source de chaleur pendant la période de chauffage. Ils sont les plus intéressants pour des ménages ou des collectivités qui ont besoin de grandes quantités d’eau chaude sanitaire en été, ou pour chauffer des piscines.

198

La crise pétrolière

De grands progrès sont attendus dans le stockage de la chaleur, et il existe maintenant sur ce thème d’importants programmes de recherche coordonnés en Europe. Ces progrès devraient permettre aux chauffe-eaux solaires d’assurer dans l’avenir un part plus grande du chauffage dans l’habitat. Une combinaison intéressante sera alors l’utilisation conjointe de ces équipements et de la biomasse pour produire de la chaleur dans l’habitat en fonction des besoins, sans être trop dépendants du climat. La pompe à chaleur Une pompe à chaleur (PAC) est un système qui fonctionne à l’inverse d’un réfrigérateur. Comme lui, elle utilise la circulation d’un fluide à basse température de vaporisation, appelé fluide frigorigène, et un cycle thermodynamique dit de Rankine, où ce fluide passe alternativement par une phase vapeur et une phase liquide. On sait que la vaporisation d’un fluide s’accompagne d’un refroidissement de celui-ci, tandis que sa condensation s’accompagne de son réchauffement. Une pompe à chaleur utilise une source de chaleur extérieure, air, sol ou eau à faible profondeur. La chaleur de ces sources provient en fait du rayonnement solaire. Elle est transmise, grâce à un échangeur de chaleur, à la phase vapeur du fluide frigorigène. Cette vapeur est ensuite comprimée puis condensée sous forme liquide. Le liquide communique alors grâce à un autre échangeur sa chaleur à un fluide, eau ou eau glycolée, circulant dans le circuit de chauffage de l’habitation (figure 4.7), puis se retrouve à nouveau sous forme vapeur dans un évaporateur. La température qu’il est ainsi possible d’atteindre dépend de la nature du fluide utilisé dans le cycle de Rankine. Dans la plupart des cas, la température communiquée au fluide circulant dans l’habitation est de l’ordre de 40 à 45 ˚C et le fluide circule dans des serpentins disposés dans des planchers très bien isolés du sol (planchers chauffants). Ces températures sont insuffisantes pour raccorder ces systèmes à une installation de chauffage central préexistante, qui est conçue pour des températures de 60 à 80 ˚C. Mais il existe des fluides frigorigènes permettant d’atteindre 65 ˚C, ce qui est alors suffisant. Notons qu’une PAC peut aussi servir à alimenter en eau chaude les ballons utilisés pour l’eau chaude sanitaire ou une piscine et, contrairement aux chauffeeau solaires, en toutes saisons. Celles qui sont dites réversibles peuvent aussi fonctionner en mode réfrigération, et donc être utilisées comme climatiseurs en période de forte chaleur.

Bernard Durand

199

Figure 4.7. Principe de fonctionnement des pompes à chaleur : en haut, PAC aérothermique, en bas, PAC géothermique. (Source : France-Géothermie, « La géothermie chez moi », www.guidegeothermie.org). On caractérise l’efficacité d’une PAC par son coefficient de performance (COP) qui est le rapport entre la quantité de chaleur récupérée et la quantité d’énergie électrique utilisée pour cela. Il existe maintenant une grande variété de types de pompes à chaleur, mais les deux types principaux sont : – les PAC air/eau, dites également PAC aérothermiques, qui récupèrent la chaleur de l’air extérieur pour chauffer le circuit d’eau dans l’habitation.

200

La crise pétrolière

– Les PAC eau/eau dites aussi PAC géothermiques ou PAC géosolaires, qui récupèrent la chaleur du sol grâce à une circulation d’eau ou d’eau glycolée dans des serpentins. Ceux-ci sont soit enterrés à faible profondeur soit disposés dans des pieux verticaux de quelques dizaines de mètres. Ces systèmes peuvent également fonctionner en utilisant la chaleur des nappes phréatiques. Elles sont plus coûteuses que les PAC air/eau, mais leur COP peut atteindre en principe 5 dans le cas des PAC installées sur nappes phréatiques, tandis que les COP des PAC air/eau sont de l’ordre de 3,5 mais diminuent quand la température de l’air extérieur diminue. Ces COP théoriques sont toutefois rarement atteints dans la pratique. D’autre part, parce qu’elles fonctionnent au démarrage à leur puissance maximale, les PAC peuvent créer des problèmes sur les réseaux électriques quand elles ne sont pas équipées de démarreurs progressifs, ce qui est pour l’instant rarement le cas. Les pompes à chaleur sont depuis quelques années en développement rapide en France et les techniques se perfectionnent sans cesse. La fiabilité et la durabilité de ces systèmes s’est révélée être bonne à l’expérience. En 2005, environ 50 000 PAC géothermiques et 80 000 PAC aérothermiques étaient installées, produisant environ 140 000 tep de chaleur et consommant environ 40 000 tep d’électricité (0,5 TWh). Le rythme d’installation s’accélère actuellement, et la France est devenue en 2008 le premier marché européen pour les PAC, devant la Suède. En France, les PAC devraient se généraliser dans les constructions neuves, car elles consomment 3 à 4 fois moins d’électricité qu’un chauffage électrique pour un même résultat et ne sont guère plus coûteuses à installer qu’une installation de chauffage central au fuel ou au gaz. Mais il faut que la maison ait été conçue à cet effet. Le surcoût de prix par rapport à un chauffage électrique est amorti en moins de dix ans, compte-tenu des crédits d’impôt actuellement accordés, et le coût du chauffage devient bien plus faible que pour un chauffage au fuel ou au gaz. D’autre part, quand la maison est très bien isolée, ce qui, espérons-le, va devenir la règle dans les années à venir, il est possible pour le chauffage d’obtenir sans difficulté de cette façon à partir de l’électricité une dépense d’énergie primaire dans l’habitat inférieure à 50 kWh ep/m2 habitable et par an. En rénovation, les PAC sont également intéressantes pour remplacer une chaudière à fuel ou à gaz en fin de vie, si l’on peut réutiliser les canalisations et les radiateurs de l’installation déjà en place. En revanche, elles ne le sont pas en remplacement d’un chauffage électrique déjà existant dans une maison

Bernard Durand

201

correctement isolée, car s’ajoute au prix de la pompe le prix des radiateurs et canalisations à installer et le temps de retour sur investissement devient alors beaucoup trop long, supérieur à la durée de vie de la PAC. Dans les pays où l’électricité est fortement carbonée, Allemagne ou Danemark par exemple, les pompes à chaleur produisent indirectement du CO 2 via l’électricité qu’elles consomment, même si c’est 3 à 4 fois moins que dans le cas d’un chauffage électrique direct. Leur intérêt écologique n’est donc pas évident. En France, les quantités ainsi indirectement émises sont inférieures à 50 g CO2/kWh de chaleur produite dans la maison, soit de l’ordre de celles correspondant au chauffage au bois. En Suisse et en Suède, pays où comme en France l’électricité est très largement décarbonée, les pompes à chaleur géothermiques eau/eau à serpentins verticaux ou sur nappes phréatiques équipent d’ores et déjà la très grande majorité des constructions neuves.

2.4. Le chauffage géothermique La récupération de la chaleur du sol au moyen de pompes à chaleur est souvent appelée chauffage géothermique. Mais la chaleur du sol est en réalité de la chaleur solaire, comme on vient de le voir, d’où le nom parfois utilisé de chauffage géosolaire. Le véritable chauffage géothermique est la récupération de la chaleur de la Terre, qui provient pour une grande part de la désintégration des éléments radioactifs contenus dans les roches. La température du sous-sol augmente en moyenne de 30 ˚C par kilomètre. Il est théoriquement possible d’utiliser la chaleur des roches profondes pour le chauffage des habitations, mais c’est ruineux dans la pratique, car il faut forer à des profondeurs importantes pour obtenir des températures suffisantes et assurer le transfert de chaleur au moyen d’une circulation de fluide entre la source de chaleur et l’habitation. Il existe des systèmes naturels, dits hydrothermaux, où le transfert de chaleur des profondeurs vers la surface se produit spontanément : c’est ainsi qu’en France, depuis 1337, on utilise à ChaudesAigues, dans le Massif Central, la chaleur d’une source d’eau chaude pour assurer le chauffage des maisons. Mais les situations favorables sont très rares en Europe. Il est en revanche relativement facile dans certains bassins sédimentaires d’utiliser le stock de chaleur contenu dans l’eau des aquifères profonds. Pour obtenir un bon rendement, la température de l’eau de ces aquifères doit être d’au moins 70 ˚C, et donc leur profondeur doit être supérieure à 2000 mètres environ en conditions moyennes.

202

La crise pétrolière

On réalise tout d’abord ce que l’on appelle un doublet, constitué de deux forages de type pétrolier distants d’environ 1 km. Dans un des forages on pompe l’eau de l’aquifère. Puis on lui fait échanger sa chaleur avec un fluide circulant dans l’habitation et on la réinjecte dans le deuxième forage. Il s’agit en somme d’une sorte de chauffage central. Le chauffage géothermique est surtout utilisé en France dans le bassin Parisien et dans le bassin d’Aquitaine pour le chauffage collectif d’immeubles. Près de 170 000 équivalent-logements sont ainsi équipés. L’énergie thermique ainsi fournie équivaut à environ 130 000 tep. Il est bien évident que les investissements nécessaires sont tels que cela ne convient pas à une maison individuelle, sauf si elle est raccordée à un réseau de chaleur. D’autre part, les régions favorables représentent moins de 10 % du territoire français.

2.5. Qu’attendre des réglementations, des normes et des labels énergétiques ? La France fait pour l’instant peu d’efforts pour économiser l’énergie dans le bâtiment ; il suffit de regarder les constructions nouvelles récentes pour s’en rendre compte. Les principes de construction des bâtiments économes en énergie semblent être encore superbement ignorés de la plupart des maçons et architectes. Et il est inquiétant de constater à quel point citoyens et élus se sentent peu concernés. C’est pourquoi il faut encadrer l’activité dans ce domaine par la réglementation et par des normes, et produire des labels témoignant de l’efficacité énergétique des constructions. Mais une prise de conscience commence à se faire jour sous l’effet de l’augmentation des prix des énergies. Les réglementations thermiques (RT) successives imposent aux bâtiments des dépenses thermiques qui sont de plus en plus faibles et visent pour 2012 des valeurs inférieures à 50 kWh ep habitables par mètre carré et par an, qui correspondent à ce que l’on appelle les bâtiments de basse consommation, et même pour 2020 à des bâtiments à énergie positive, c’est-à-dire qui produisent plus d’énergie qu’ils n’en utilisent. On mesure l’importance du chemin à parcourir quand on compare cette ambition aux 240 kWh ep de la consommation moyenne actuelle ! Et ce chemin sera bien difficile à parcourir si, comme actuellement, les réglementations sont peu appliquées et les contrôles quasiment inexistants ! Les labels sont décernés par des organismes qui comparent l’efficacité énergétique des constructions par rapport à des références. Cette efficacité est ainsi exposée aux yeux de tous. Il est par exemple fortement question d’attribuer en

Bernard Durand

203

France à la performance énergétique des bâtiments une note allant de A pour la meilleure à G pour la plus mauvaise, tout comme on le fait pour la consommation électrique des appareils ménagers. Un label Basse consommation a été créé, ainsi que le label Haute performance énergétique (HPE) et le label Très haute performance énergétique (THPE), ainsi que la norme Effinergie, pour qualifier les réalisations les plus efficaces, à l’instar de ce qui existe dans certains pays européens, par exemple la norme Passivhaus en Allemagne ou Minergie en Suisse. On peut regretter que les normes et les labels français soient aussi nombreux sans être pour autant d’une grande clarté. Au-delà des performances énergétiques des bâtiments, il faut se préoccuper des quantités d’énergie nécessaires à la fabrication des matériaux de construction, qui peuvent être parfois très importantes. À titre d’exemple, le polystyrène expansé, le polyuréthane et la laine de verre, qui sont des matériaux d’isolation courants, demandent en énergie environ 23 000, 18 000 et 14 000 kWh d’énergie par mètre cube pour leur fabrication. Mais il faut aller au-delà de la prise en compte de l’énergie nécessaire à la seule fabrication des matériaux et se préoccuper de l’énergie grise utilisée pour cela, c’est-à-dire de la totalité de l’énergie utilisée, depuis la conception du matériau jusqu’à son recyclage, en passant par l’extraction de la matière première, la fabrication, le transport et la mise en œuvre20. Le bois par exemple, avec 180 kWh/m3, est bien préférable au béton armé, 1850 kWh/m3, l’acier, 60 000 kWh/m3, ou l’aluminium, 190 000 kWh/m3. On peut trouver les ACV des matériaux de construction auprès du Centre Scientifique et Technique du Bâtiment (CSTB), qui entre autres certifie les qualités de ces matériaux. Le CSTB participe maintenant à côté de l’Agence de l’environnement et la maîtrise de l’énergie (ADEME) au Programme de recherche et d’expérimentation sur l’énergie dans le bâtiment (PREBAT) dans le but de stimuler l’innovation et les économies d’énergie dans le bâtiment. On peut se demander qui dans notre pays a jusqu’à présent suivi les recommandations du CSTB, étant donné l’état actuel de la construction. Le taux de développement du parc immobilier en France, c’est-à-dire l’accroissement de ce parc par de nouvelles constructions, n’est que de 1 à 1,5 % par an, tandis que son taux de renouvellement, c’est-à-dire de remplacement de 20

C’est ce qu’on appelle l’analyse du cycle de vie (ACV), démarche qui est essentielle dans tous les secteurs de l’économie pour la mise en place d’un développement durable.

204

La crise pétrolière

bâtiments détruits par des bâtiments neufs, n’est que de l’ordre de 1 à 2 ‰ par an. Tout en étant intraitable sur les performances des constructions neuves, un effort considérable de rénovation et en particulier d’isolation de l’habitat ancien est donc le seul à pouvoir réduire rapidement de façon substantielle la consommation énergétique des bâtiments. L’obligation prochaine de faire un diagnostic de performance énergétique (DPE) des habitations avant la signature des contrats de vente pourrait contribuer à faire évoluer la situation actuelle. En effet, la perte de valeur des habitations ne respectant pas les normes risque bientôt d’être telle que cela devrait inciter les propriétaires à améliorer cette performance énergétique. Encore faut-il que les diagnostics soient réellement et correctement faits, ce qui est rarement le cas, semble-t-il, à l’heure actuelle. L’immobilisme est pour l’instant presque général dans ce domaine. Il se pourrait donc que l’urgence impose dans peu d’années l’édiction d’une réglementation pour les bâtiments anciens, assortie de contrôles stricts, de manière à faire évoluer plus rapidement la situation.

2.6. Qu’attendre de la production d’électricité par l’habitat ? Nous nous intéresserons ici essentiellement aux économies de pétrole et de gaz qui peuvent être réalisées en France grâce à la production d’électricité par l’habitat. Cette production d’électricité est le principal moyen de réaliser des bâtiments à énergie positive, qui produisent plus d’énergie qu’ils n’en consomment. Nous en profiterons, bien qu’un chapitre séparé sur la question aurait peut-être été plus approprié, pour examiner au passage les possibilités de faire ainsi des économies de pétrole et de gaz dans la production d’électricité d’un pays. Cela n’a qu’un intérêt limité en France, où il s’agit d’un poste de consommation peu important, car notre pays assure l’essentiel de sa production d’électricité grâce à l’énergie nucléaire et à l’énergie hydraulique. En revanche, c’est un poste important de consommation de pétrole, et encore plus de gaz naturel, dans le monde. Et, bien sûr, la production d’électricité est un poste très important de la consommation de charbon, dont 70 % de la production est maintenant utilisée de cette façon ! Plus de 40 % de l’électricité mondiale est actuellement produite avec du charbon. Bien que cela n’ait pas de rapport avec la consommation de pétrole et de gaz, il est utile d’en dire quelques mots, ne serait-ce qu’à cause

Bernard Durand

205

des conséquences de cette utilisation, non seulement sur les émissions de gaz à effet de serre, mais aussi, ce qui est moins connu, sur la santé publique. Les proportions du bouquet électrique21 qui sont produites avec du pétrole et du gaz naturel sont extrêmement variables d’un pays à l’autre : en Europe occidentale (figure 4.8), elles variaient en 2006 de 0 pour la Norvège, qui ne produit que de l’hydroélectricité, à 65 % pour l’Italie. La moyenne était de 24 %, dont 4 % avec du fuel et 20 % avec du gaz. Le gaz naturel est donc cinq fois plus utilisé en Europe pour la production d’électricité que le fuel. Les quantités de pétrole et de gaz naturel qui ont ainsi été consommées en 2006 en Europe des 27 sont de l’ordre de 35 Mtep pour le pétrole et de l’équivalent de 150 Mtep pour le gaz. Pour des pays comme l’Italie et le Royaume-Uni, le coût que cela représente pour l’économie du pays est maintenant très élevé à cause de la spectaculaire augmentation des prix du pétrole et du gaz et cela n’est sûrement pas étranger au renouveau d’intérêt de ces deux pays pour l’électricité nucléaire. Même si cela ne concerne pas directement les économies de pétrole et de gaz naturel, il est utile de rappeler ici que l’Europe des 27 produit actuellement 31 % de son électricité avec du charbon. Ceci qui porte à 55 % la contribution des combustibles fossiles à la production d’électricité ; l’énergie nucléaire y contribue à hauteur de 29 %, l’hydroélectricité à hauteur de 10 %, et l’ensemble des autres énergies renouvelables, biomasse, éolien, solaire, géothermie, représente les 6 % restants. Deux moyens efficaces de faire baisser la consommation de pétrole et de gaz naturel dans la production d’électricité sont bien sûr d’augmenter la part du charbon et celle de l’énergie nucléaire, et c’est ce qui commence à se passer dans de nombreux pays dans le monde. Mais il existe dans les grands pays industrialisés, et en particulier en Europe, de fortes objections à ces développements, pour des raisons environnementales. De grands efforts sont donc faits pour développer l’électricité produite à partir des énergies renouvelables. De celles-ci, l’hydroélectricité ne peut plus guère se développer dans ces pays, les sites les plus favorables étant déjà équipés. L’électricité géothermique n’a que de faibles possibilités. Restent donc l’électricité photovoltaïque et l’électricité éolienne. 21

Le « bouquet électrique » d’un pays, appelé aussi mix électrique, est la répartition quantitative des différents types de production d’électricité dans ce pays, en % de la production totale. De la même façon, on parle de bouquet énergétique ou mix énergétique pour la répartition des différentes sources d’énergie utilisées.

206

La crise pétrolière

Figure 4.8. Bouquet électrique des pays européens en 2006. (Source : Cambridge Energy Research Associates (CERA)). Il est impossible de se faire une idée des possibilités réelles de ces deux sources d’électricité sans avoir bien compris comment fonctionne le réseau électrique qui relie les consommateurs aux moyens de production. Ce réseau délivre un courant dont la fréquence, 50 Hertz en Europe, doit rester constante. D’autre part, la quantité d’électricité délivrée à tout moment par l’ensemble des moyens de production doit être à tout moment égale à la consommation. Si ces deux règles ne sont pas respectées, on risque une panne généralisée, dont l’exemple le plus récent est en Europe la grande panne du 4 novembre 2006 (voir aussi paragraphe 4.4.3).

Bernard Durand

207

2.7. Structure de la production et de la consommation d’électricité en France La figure 4.4 au paragraphe 4.2.1 montre comment évolue mois par mois la consommation d’électricité en France au cours de l’année, tandis que la figure 4.9 montre comment elle évolue au cours d’une semaine en été. Il résulte de la structure de consommation que 60 % environ peut être assurée par une production constante au cours du temps. Il s’agit de la production de base. Une autre partie correspond à une variation lente de la demande au cours du temps, à l’échelle de l’heure, de la journée ou plus. C’est ce qu’on appelle la production de semi-base. Les fluctuations rapides de la demande, à l’échelle de l’heure à la minute, correspondent à ce qu’on appelle la production de pointe, et les fluctuations très rapides, à l’échelle de la minute à la seconde, à l’hyperpointe. Cette dernière représente toutefois une très faible proportion de la demande énergétique totale.

Figure 4.9. Variation de puissance de la consommation en France au cours d’une semaine d’été. On observe un pic principal de consommation autour de 13 heures et un pic secondaire vers minuit, important pendant le week-end. Environ 60 % de la demande maximale peut être assurée ici par la production de base et environ 25 % supplémentaire par la production de semi-base. En hiver existe aussi un pic important vers 18 heures. (D’après un document de l’Agence de l’environnement et de la maîtrise de l’énergie (ADEME).)

208

La crise pétrolière

Pour faire face à cette demande, de quels moyens de production dispose-t-on en France ? Il y a les centrales thermiques. Parmi celles-ci, les plus puissantes sont les centrales thermiques à chaudière, fonctionnant toutes sur le même principe : une source de chaleur permet de vaporiser de l’eau dans une chaudière sous pression. La détente de la vapeur d’eau sert à faire tourner une turbine à vapeur, laquelle entraîne un alternateur. Elle est ensuite condensée en eau à une source froide, généralement un cours d’eau, puis l’eau condensée retourne alimenter la chaudière. Ces centrales ne diffèrent donc que par leur source de chaleur : les centrales nucléaires utilisent la fission de l’uranium 235 et du plutonium 239, les centrales à combustibles fossiles du charbon, du fuel lourd (de moins en moins) ou du gaz naturel. De la biomasse et des déchets organiques sont de plus en plus souvent ajoutés au charbon ; c’est ce qu’on appelle la co-combustion, en anglais cofiring. Parmi les centrales thermiques il y a aussi les groupes électrogènes et les turbines à combustion (TAC) utilisant du fuel ou du gaz, qui sont beaucoup moins puissants que les centrales à chaudière : les groupes électrogènes réalisent le couplage d’un moteur à combustion interne, analogue à un moteur de voiture, et d’un alternateur. Les TAC fonctionnent sur le principe des moteurs d’avion à réaction : de l’air est comprimé puis porté à très haute température grâce à des brûleurs. Le mélange très chaud d’air et de gaz de combustion, utilisé dans les moteurs d’avion pour assurer la propulsion par réaction, est utilisé ici pour faire tourner un alternateur. Les centrales à gaz à cycle combiné (CGC) sont des centrales thermiques de puissance intermédiaire entre les centrales à chaudière et les TAC. Elles associent une turbine à gaz à une chaudière à vapeur : les gaz d’échappement de la turbine à gaz ont encore une température suffisante pour produire de la vapeur d’eau dans une chaudière à haute température. Celle-ci est utilisée par une turbine à vapeur couplée à un autre alternateur pour produire aussi de l’électricité. L’addition des quantités d’électricité produite par la TAC et de celle produite par la turbine à vapeur fait que le rendement global de la production d’électricité est alors le plus élevé de toutes les centrales thermiques. Il peut atteindre 60 %, ce qui explique que ce type de centrale remplace progressivement les centrales à chaudière utilisant du gaz, et plus généralement les centrales utilisées en base et semi-base fonctionnant avec des combustibles fossiles, dont les rendements sont généralement inférieurs à 40 %.

Bernard Durand

209

Le tableau 4.4 montre quels sont les gammes de puissance et les rendements énergétiques courants des centrales thermiques courantes actuellement en fonctionnement. Tableau 4.4. Gammes de puissance et de rendement des centrales thermiques courantes. Type de centrale Chaudière, fuel Chaudière, charbon Chaudière, nucléaire Cycle combiné, gaz Turbine à combustion, gaz Groupe électrogène, diesel

Gamme de puissance (MW électrique) 200-800 200-1200 500-1500 300-400 50-100 10-30

Rendement énergétique (%) 30-40 30-40 30-35 40-55 20-25 25-30

Il y a également les centrales hydroélectriques. On les classe généralement selon leur hauteur de chute, c’est-à-dire la dénivelée existant entre la prise d’eau et les turbines. – Les centrales de basse chute, dites aussi centrales au fil de l’eau, installées sur des dénivelées inférieures à trente mètres. Elles transforment en électricité l’énergie cinétique de cours d’eau puissants, généralement en plaine. Elles n’ont pas de retenue d’eau. Elles utilisent des turbines Kaplan. Parmi ces centrales, on peut inclure la centrale marémotrice de La Rance, qui utilise les courants de marées dans l’estuaire de La Rance en Bretagne. Cette centrale, dont la puissance est de 250 MW et la production est de 500 à 600 GWh par an, est la plus puissante de ce type dans le monde. Elle produit 3 à 4 % de la consommation annuelle d’électricité de la Bretagne. – Les centrales de moyenne chute, dites aussi centrales d’éclusée, dont les dénivelées sont comprises entre 30 et 300 mètres. Elles sont installées sur des cours d’eau à débit moyen barrés par des ouvrages, dans des zones de reliefs bas ou de moyenne montagne. La retenue du barrage peut être importante. Elles utilisent des turbines Francis. – Les centrales de haute chute, dites aussi centrales de lacs, dont les dénivelées sont supérieures à 300 mètres (le record français est la centrale de Portillon dans les Hautes-Pyrénées, avec une dénivelée de 1420 mètres). Elles sont installées en haute montagne sur des barrages réalisés sur des cours d’eau de faible débit. Leurs retenues d’eau peuvent être très importantes. Elles utilisent des turbines Pelton.

210

La crise pétrolière

Il y a enfin les éoliennes et les centrales solaires, encore peu développées en France. Cependant la production des éoliennes augmente très rapidement depuis quelques années et a atteint fin 2008 près de 4 TWh, soit 0,7 % de la production française d’électricité ! Les centrales solaires sont très peu nombreuses et leur production n’est pas significative. Tous ces moyens de production ont des puissances très différentes et ne sont pas également adaptés pour répondre à toute la variété des situations. Par nature, les centrales au fil de l’eau, qui ne possèdent pas de retenue d’eau, ont une production liée complètement au débit du cours d’eau, qui ne peut pas varier à la demande. Elles ne peuvent pas suivre les fluctuations de celle-ci et doivent donc obligatoirement être utilisés en base. Leur production est ce qu’on appelle une production fatale. En France, la production d’électricité des centrales au fil de l’eau représente environ la moitié de la production hydroélectrique annuelle et 6 % de la production totale d’électricité. Parmi les centrales à chaudière, nucléaires ou à combustibles fossiles (charbon, fuel lourd, gaz naturel), les centrales nucléaires de type ancien sont réputées ne pouvoir faire varier leur puissance que d’au plus 20 % de leur puissance maximale et cela relativement lentement. Mais il est peu connu que les plus modernes, telles que les dernières construites en France, ont la capacité de pouvoir faire varier leur puissance de 8 % quasi-instantanément, et de 30 à 100 % de leur puissance maximale, à raison de 5 % par minute. C’est ce que l’on appelle le mode de fonctionnement en suivi de charge ou mode gris22. Les centrales à combustibles fossiles peuvent s’adapter à des variations un peu plus importantes et sont un peu plus réactives (voir plus loin le tableau 4.5). Dans les deux cas, c’est au prix d’une perte de rendement et d’une fatigue du matériel. Elles sont donc beaucoup mieux utilisées en fonctionnement régulier, c’est-à-dire en base, et éventuellement en semi-base. Mais il est possible de les utiliser si nécessaire en pointe pour une petite partie de leur puissance. Les centrales nucléaires produisent annuellement 78 % de l’électricité française et les centrales à chaudière à charbon et à fuel en produisent 5 %. 22

On peut par exemple lire à ce sujet Acket 2008 : Possibilités d’adaptation de la production d’électricité nucléaire à la demande. Documents SLC. Accessible sur www.sauvonsleclimat.org

Bernard Durand

211

Ces centrales ne sont donc pas uniquement utilisées en base, qui ne représente qu’environ 60 % de la consommation, mais aussi très largement en semi-base. Les centrales à gaz à cycle combiné (CGCC) sont des développements de la turbine à gaz ; leur réactivité est moindre que celle des TAC. Elles peuvent cependant sans grande perte de rendement être utilisées en pointe si nécessaire. Ces centrales et les centrales à gaz à chaudière produisent actuellement 5 % de l’électricité française. D’autres moyens de production peuvent s’adapter encore plus aisément à la pointe que les CGCC car ils peuvent varier de puissance dans une large gamme en quelques minutes seulement, sinon même quelques secondes. Il s’agit des centrales d’éclusée et des centrales de haute chute. Les centrales d’éclusée peuvent augmenter leur production pendant des périodes de quelques heures, tandis que les centrales de haute chute peuvent le faire sur des périodes plus longues. Cependant, les puissances que peuvent atteindre les centrales de haute chute sont en général inférieures à celles des centrales d’éclusée. Ces centrales produisent environ 6 % de l’électricité française. Mais centrales d’éclusée et centrales de haute chute ne peuvent produire que tant qu’il reste de l’eau dans les barrages. C’est pourquoi certaines de ces centrales, appelées stations de transfert d’énergie par pompage (STEP), sont installées entre deux retenues d’eau situées à des altitudes différentes : quand la demande d’électricité est plus faible que la production, on utilise l’électricité excédentaire pour pomper l’eau de la retenue inférieure dans la réserve supérieure (pompage). En période de pointe, on turbine l’eau ainsi stockée dans la retenue supérieure pour produire de l’électricité (turbinage). Les turbines sont situées près de la retenue inférieure. Il s’agit donc là d’un moyen de stockage de l’électricité. Un exemple classique est celui de la petite centrale installée dans les Vosges entre le lac Blanc et le lac Noir, mais il en existe de très puissantes, la plus puissante en France étant la centrale de Grand’Maison dans les Alpes, qui est couplée à un lac de barrage situé environ 1000 mètres plus bas. Grand’Maison peut atteindre une puissance de 1800 MW en deux minutes. Toutefois, on perd au cours du cycle pompage-turbinage environ 25 % de l’énergie initialement disponible. La puissance maximale cumulée des STEP françaises est actuellement de 6 GW. Étant donné leur grande importance pour l’adaptation de la production d’électricité à sa consommation, il existe actuellement des projets pour en créer de nouvelles et porter leur puissance totale à 12 GW.

212

La crise pétrolière

Pour faire face à la consommation de pointe, il y a d’autre part les turbines à combustion (TAC) et à l’échelle locale les groupes électrogènes, moins puissants que les TAC. TAC et groupes électrogènes peuvent atteindre leur puissance maximale en quelques secondes seulement. Mais la contrepartie en est alors un mauvais rendement énergétique car ils ne travaillent pratiquement jamais à leur régime optimal. Ils ne sont donc utilisés que temporairement lorsque l’hydraulique ne suffit plus, et leur contribution à la production annuelle d’électricité est faible pour l’instant. La figure 4.10 donne une idée de la manière dont interviennent les différents moyens de production au cours d’une journée-type d’hiver en France. Puissance GW (1 GW = 1 million de kW)

Turbinage

70 Pompage

Hydraulique de lacs

60 Thermique à flamme (fioul et charbon) 50 40 Thermique nucléaire

30 20 10

Éclusée et fil de l’eau 0 0

2

4

6

8

10

12

14

16

18

20

22

24 heures

Figure 4.10. Puissances appelées des principaux moyens de production utilisés pour faire face à la demande en France lors d’une journée-type en hiver, montrant le rôle des principaux moyens hydroélectriques : STEP (pompage-turbinage), hydraulique de lacs (centrales de haute chute), centrales au fil de l’eau et d’éclusée. (Document EDF.) En Allemagne, pays qui est le plus grand consommateur d’électricité en Europe avec, en 2006, environ 600 TWh par an contre 480 TWh pour la France, la contribution du nucléaire n’est que de 26 % du total de l’électricité produite, et celle de l’hydroélectricité au fil de l’eau que de 2 %. C’est très

Bernard Durand

213

insuffisant pour la base, qui est surtout assurée par des centrales à combustibles fossiles, charbon et lignite, et, de plus en plus, gaz naturel, ainsi que par l’électricité éolienne (nous verrons plus loin que celle-ci, à cause de son caractère incontrôlable, est, comme l’hydroélectricité des centrales au fil de l’eau, une production fatale dont la majeure partie ne peut être qu’utilisée en base). Le peu de centrales hydroélectriques de lacs et de centrales d’éclusée que possède l’Allemagne et surtout des centrales à gaz assurent la pointe. Le bouquet électrique allemand est donc beaucoup plus fait d’électricité produite à partir de combustibles fossiles que le bouquet français, et il est donc beaucoup plus polluant. Mais il peut réagir dans des proportions plus importantes aux variations très rapides de la demande. La prévision à toutes échelles de temps des fluctuations de la demande est un élément essentiel de la gestion du réseau, car c’est ce qui permet d’établir comment les différents moyens de production seront sollicités, et de les y préparer. Pour faire face à une fluctuation rapide ou inopinée de la demande et en éviter les conséquences, qui peuvent être désastreuses si elle n’est pas équilibrée à temps par une variation en sens contraire de la production, on constitue ce que l’on appelle une réserve tournante, en anglais spinning reserve, qui est l’ensemble des moyens connectés à ce réseau dont on peut faire varier la puissance en moins de dix minutes (tableau 4.5). Cela suppose que ces moyens sont en fonctionnement pour éviter le temps de démarrage, mais sont capables de varier très rapidement de puissance et donc ne fonctionnent pas alors au maximum de leur puissance. Tous les types de centrales peuvent y participer dans une mesure plus ou moins grande selon leur principe de fonctionnement, mais il s’agit dans la pratique essentiellement de centrales hydroélectriques de lacs et de centrales d’éclusée, qui peuvent délivrer une puissance considérable en très peu de temps, de CGCC, et de TAC, ces dernières étant de plus en plus à gaz naturel, car ce sont les moyens de production pouvant le mieux répondre à de brusques sollicitations. Les centrales à chaudière classiques n’ont pas la réactivité suffisante pour beaucoup contribuer, et de rapides variations de puissance en diminuent le rendement et entraînent la fatigue du matériel. Le tableau 4.5 montre, pour différents types de centrales, leur flexibilité, c’està-dire la proportion de leur puissance maximale qui peut être mobilisée en un temps donné et à quelle vitesse maximale, ainsi que leurs vitesses de démarrage. La palme revient sans conteste aux turbines à gaz (TAC), suivie des centrales de lacs (haute chute) puis des centrales d’éclusée (moyenne chute). Le nucléaire, les centrales thermiques classiques et les CGCC peuvent cependant

214

La crise pétrolière

mobiliser en moins de dix minutes une proportion non négligeable de leur puissance, à condition d’être à ce moment loin de fonctionner à leur puissance maximale. Tableau 4.5. Flexibilité de fonctionnement des centrales électriques. (D’après E. Gnansounou, École polytechnique fédérale de Lausanne (EPFL).) Type de centrale

Variation possible de puissance Temps (% de la puissance nécessaire maximale)

Vitesse maximale de variation

Temps de démarrage

2 à 5 % par minute

heures

1,3 à 3% par minute

heures

Centrales à chaudière, gaz, fuel, charbon, centrales à gaz à cycles combinés

20

10 minutes

30

30 minutes

Centrales à chaudière, nucléaire

8

10 minutes

20

30 minutes

Turbines à gaz (TAC)

100

5 secondes 20 % par seconde 3 à 10 minutes

Hydraulique de haute chute

100

10 secondes 10 % par seconde

1 à 5 minutes

Hydraulique de moyenne chute

20

10 secondes

3 à 5 minutes

5 % par seconde

La réserve tournante constitue une assurance que l’on pourra pallier un aléa par une intervention rapide, mais elle constitue un investissement de faible productivité, et donc très coûteux au kWh produit ! Un autre élément essentiel de la gestion du réseau est d’assurer autant que possible la production d’électricité au moindre coût pour le producteur. Son intérêt est donc d’utiliser le plus possible les moyens de production qui fournissent l’électricité au coût marginal le moins élevé, en France d’abord l’hydroélectricité au fil de l’eau puis l’électricité nucléaire. Le diagramme puissance appelée/durée de fonctionnement à cette puissance, que l’on appelle le monotone de consommation (figure 4.11), montre comment sont appelés successivement en France les différents moyens de production en fonction de la demande de puissance des consommateurs.

Bernard Durand

215

Figure 4.11. Durée de fonctionnement des différents moyens de production d’électricité en France en fonction de la puissance appelée (monotone de consommation). La pointe, qui correspond à des puissances appelées importantes s’ajoutant à la puissance de base, mais pendant de courtes durées, est assurée pour l’essentiel par les centrales hydroélectriques de moyenne chute (éclusée), de haute chute (lacs) et les STEP (turbinage), les turbines à combustion (TAC) et éventuellement par l’appel à des moyens de production hors de France (achats sur le marché). La base est assurée par la production fatale (mais peu coûteuse) des centrales hydroélectrique de basse chute (fil de l’eau), puis par le nucléaire, diminuée des réserves constituée par pompage des STEP pendant les périodes de basse consommation(heures creuses), puis par la production des centrales à chaudière à charbon, puis à fuel. L’excédent est vendu sur le marché. Rappelons qu’il y a 8760 heures dans l’année. (D’après G. Ruelle, 2008.) La circulation de l’électricité dans les pays d’Europe continentale, à l’exception de la partie Est du Danemark qui est reliée au Réseau Nordel entre les pays scandinaves, est synchronisée par un réseau appelé Union pour la coordination du transport d’électricité (UCTE) (figure 4.12). Les interconnections permettent de mutualiser les moyens de production, d’élargir la réserve tournante et de mieux faire face aux risques. Mais un aléa non maîtrisé peut compromettre l’ensemble du réseau, comme on a pu l’observer lors de la grande panne du 4 novembre 2006.

2.8. L’électricité photovoltaïque et le toit solaire La quantité d’énergie solaire reçue au sol est, en moyenne mondiale, d’environ 1,7 TWh/km2 et par an, avec bien sûr de grandes différences suivant la latitude. Cela représente au total 870 millions de TWh, ou encore l’équivalent

216

La crise pétrolière

Figure 4.12. Les réseaux synchronisés en Europe. L’Irlande, l’Islande et la Turquie ont leurs propres réseaux. CDO : Central Dispatching Organization of the Interconnected Power Systems. NORDEL: organisme qui coordonne les réseaux électriques interconnectés des pays nordiques. UCTE : Union pour la coordination du transport de l’électricité, Union for the co-ordination of Transmission of Electricity. (Source : Gilbert Ruelle.) de 75 000 Gtep. 27 %, soit 235 millions de TWh, en sont reçus par les terres émergées, à proportion de la surface de la Terre qu’ils occupent. Cela représente à peu près 1600 fois la consommation mondiale d’énergie primaire en 2006. Il s’agit d’une valeur impressionnante, que les enthousiastes de l’énergie solaire mettent fréquemment en avant pour impressionner. Mais cela n’a guère de sens dans la pratique, car, comme on va le voir, il y a pour l’instant très loin dans ce domaine de la coupe aux lèvres. En France, la quantité d’énergie solaire reçue au sol est en moyenne de 1,3 TWh/km2 et par an. Cela représente environ 720 000 TWh par an, soit 220 fois la consommation actuelle d’énergie primaire. Mais le rendement moyen global net des installations photovoltaïques transformant cette énergie en énergie électrique est actuellement sensiblement inférieur à 5 %, si l’on

Bernard Durand

217

tient compte non seulement du faible rendement de conversion des cellules photovoltaïques courantes, 10 % environ, mais aussi du fait que la surface réellement utilisée par ces dispositifs est au moins le double de leur surface utile. Pour faire comprendre ce dernier point, citons l’exemple de la centrale photovoltaïque ultramoderne actuellement en construction à Brandis en Allemagne : elle produira dans l’année 40 GWh d’électricité avec une surface de panneaux de 40 hectares, mais sa surface totale sera en fait de 112 hectares, recevant au total environ 1300 GWh d’énergie solaire. Alors que le rendement de la transformation de l’énergie solaire en électricité par ses panneaux solaires sera de presque 9 %, son rendement énergétique réel ne sera donc que de 3 %. Et il sera en réalité plus faible, de l’ordre de 2,5 % seulement, une fois déduite l’énergie nécessaire pour la construire, l’entretenir puis la démanteler ! Un autre exemple est celui de la centrale photovoltaïque qui vient d’être inaugurée à Amareleja, dans le sud du Portugal. C’est pour l’instant la plus grande centrale photovoltaïque du monde. Elle produira 93 GWh d’électricité pour une puissance de 46 MW et une surface totale occupée de 250 hectares, recevant 1,8 TWh d’énergie solaire par km2, soit 4,5 TWh au total. Le rendement énergétique net de la transformation d’énergie solaire en électricité n’y est donc que de 2,1 %, sans tenir compte de l’énergie nécessaire à la fabrication des panneaux, à la construction de la centrale et à sa maintenance. Le rendement réel des installations photovoltaïques ne s’améliorera pas dans les années qui viennent car, même si la recherche aboutira très certainement à des rendements bien meilleurs, la tendance pour les installations courantes est de remplacer le silicium cristallin actuellement utilisé pour la confection des panneaux par des films de silicium amorphe beaucoup moins coûteux mais de plus faible rendement ! On ne peut pas non plus couvrir un pays entier de panneaux photovoltaïques : la surface utilisée doit être limitée pour laisser une place à d’autres activités économiques, et en particulier à l’agriculture, principal utilisateur de l’énergie solaire, et tout simplement pour y permettre la vie ! Si l’on se base sur l’exemple des 2,5 % de rendement net de la centrale de Brandis, la surface nécessaire pour produire les 580 TWh de notre production actuelle d’électricité est d’environ 23 000 km2, soit 4,2 % du territoire français, et donc la surface de quatre départements moyens. Cette surface diminuera bien sûr au fur et à mesure quand s’amélioreront les rendements, mais cela prendra beaucoup de temps.

218

La crise pétrolière

Il est souvent dit que cette surface n’est pas tellement supérieure à celle des toits des bâtiments, ce qui est peut-être vrai, mais demanderait à être confirmé. Mais dans la pratique, seule une petite partie de ces toits peut être utilisée, non seulement pour des raisons d’éclairement, mais aussi parce que, pour une variété de raisons, on ne recouvre jamais toute la surface d’un toit de panneaux photovoltaïques, même quand leur exposition est favorable. En réalité, l’ordre de grandeur de la surface totale de panneaux qu’il est possible d’installer dans de bonnes conditions sur les toits en France est de 1200 km2. On estime possible avec les meilleures techniques actuelles et les meilleures conditions possibles d’exposition de produire par an en France de l’ordre de 120 à 160 kWh par mètre carré de panneau photovoltaïque, soit un peu moins de 10 % de la quantité d’énergie solaire reçue par les panneaux (figures 4.13 et 4.14). Dans la pratique, la valeur couramment annoncée est de 100 kWh/m2 et par an en moyenne, 80 dans le Nord et 120 dans le Sud-Est. On peut donc produire en théorie environ 120 TWh/an d’électricité photovoltaïque sur les toits français.

Figure 4.13. Productivité annuelle du photovoltaïque dans divers pays européens. (Source ISET, IWET.) Mais il s’agit bien là de théorie, car le rayonnement solaire est intermittent et on va voir que c’est là actuellement le principal obstacle physique au développement de l’électricité photovoltaïque dans les pays industrialisés : il n’y a pas de soleil la nuit et la puissance de son rayonnement varie beaucoup au cours de la journée, de la saison, et selon le temps qu’il fait (figure 4.15).

Bernard Durand

219

Figure 4.14. Carte du gisement solaire en France. Les quantités annuelles d’énergie reçues au sol varient de 1,2 à 1,8 TWh/km2 environ, pour une moyenne de 1,3 TWh/km2. (Source : ADEME.)

Figure 4.15. Comparaison à la même échelle de la production d’électricité photovoltaïque dans une installation en Allemagne pendant quatre belles journées successives de juillet, en haut, et pendant quatre belles journées successives de février, en bas. (Source : ENERCON.)

220

La crise pétrolière

Les quantités d’énergie solaire produites par unité de surface et par jour sont en France, et plus généralement en Europe continentale, trois à quatre fois plus faibles en moyenne en hiver qu’en été (figure 4.15). À Paris, elles sont de 0,6 TWh/km2 le jour du solstice d’hiver, mais de 5,1 TWh/km2 le jour du solstice de juin, soit 8,5 fois plus ! Certains ont imaginé, pour réduire cette difficulté, de faire produire de l’électricité solaire dans les pays du sud de la Méditerranée, où le contraste été/hiver est moins prononcé, à l’attention des pays d’Europe. Les centrales seraient des centrales à chaudières chauffées par le rayonnement solaire (centrales à concentration) et non des centrales photovoltaïques. Cette idée intéressante témoigne cependant d’une bien solide croyance en une future harmonie mondiale. Il résulte de tout cela que le facteur de charge de l’électricité photovoltaïque, c’est-à-dire le rapport entre la quantité annuelle d’électricité récupérée et la quantité annuelle d’électricité qui correspondrait à un fonctionnement constant de l’installation à sa puissance maximale, est faible : dans le Midi de la France, qui est la situation la plus favorable, il n’est que de 14 %, c’est-à-dire un équivalent de production à pleine puissance, d’environ 1200 heures sur les 8760 heures que compte l’année. La moyenne française est de 11 %, soit 960 heures par an, alors que la moyenne pour les centrales nucléaires est de 6620 heures. En d’autres termes, 1 MW de panneaux photovoltaïques installé en France produit en moyenne dans l’année sept fois moins d’électricité que 1 MW de centrale nucléaire. Pour une électricité intermittente, le facteur de charge représente à peu près la limite supérieure de la proportion de cette électricité dans la quantité totale d’électricité admise annuellement sur un réseau, sauf si l’on dispose de capacités de stockage importantes qui permettent d’en régulariser la production. Cette proportion est ce que l’on appelle le taux de pénétration d’une électricité intermittente. En d’autres termes, un facteur de charge de 11 % de l’électricité photovoltaïque impose à peu de chose près que celle-ci ne peut produire plus de 11 % de l’électricité totale produite annuellement, sauf importants moyens de stockage. 89 % de la production doit donc être assurée par d’autres moyens ! En France, ces 11 % représentent environ 60 TWh, soit deux fois moins que les 120 TWh que produirait l’utilisation des toits. On verra cependant qu’une adaptation du réseau et de la consommation permet d’espérer quelques progrès dans ce domaine. Cette limitation du taux de pénétration signifie également que si, par des actions vigoureuses d’économie, on arrivait à faire baisser la production totale d’électricité, la production d’électricité solaire devrait également baisser.

Bernard Durand

221

C’est valable également pour l’éolien, comme on le verra plus loin. Une baisse de notre consommation d’électricité ne ferait donc pas augmenter la part des électricités renouvelables dans notre bouquet électrique, sauf bien sûr à être capable d’augmenter considérablement nos capacités de stockage et d’intégration sur les réseaux. La comparaison de la figure 4.15 avec les figures 4.4 et 4.8 montre à quel point le profil de production de l’électricité photovoltaïque est éloigné du profil-type de consommation d’électricité, aussi bien à l’échelle de la journée qu’à l’échelle de l’année. Et on ne peut que prendre l’électricité photovoltaïque comme elle vient : il s’agit d’une production fatale. Pour ajuster l’offre d’électricité photovoltaïque à la demande d’électricité on peut bien sûr utiliser un dispositif de stockage sous forme par exemple de batteries pour accumuler l’électricité quand l’offre est supérieure à la demande, et la restituer dans le cas contraire. Mais il s’agit de dispositifs lourds, très coûteux et de durée de vie de quelques années seulement. Environ 30 % de l’électricité stockée est perdue sous forme de chaleur lors du cycle chargedécharge. Leur capacité massique est très insuffisante pour faire face à un stockage suffisamment important à l’échelle d’un pays. En l’absence de capacités de stockage suffisantes, il est donc impossible de compter sur l’électricité photovoltaïque pour assurer à tout moment la demande d’électricité à l’échelle d’un grand pays industriel. Le réseau doit assurer l’essentiel de la consommation avec d’autres moyens de production. Mais ce n’est pas tout : la vitesse de variation de la production photovoltaïque étant généralement bien supérieure à celle de la demande, les moyens de production qui doivent compenser l’offre manquante ou l’offre excédentaire doivent être également capables de réagir à la même vitesse, mais en sens contraire, pour assurer l’équilibre. Il s’agit donc des mêmes moyens que ceux qui sont utilisés pour faire face à la demande de pointe. Corrélativement, puisque le niveau de consommation reste ce qu’il est, on est obligé de diminuer la production des centrales qui fournissent une production sans fluctuations rapides au cours du temps, c’est-à-dire les centrales de base, et de développer les moyens de production faciles à utiliser en pointe. Observons toutefois que ce raisonnement ne s’applique pas quand la production photovoltaïque coïncide avec une période de pointe. Dans ce cas, il est possible au contraire de réduire l’appel aux moyens utilisés ordinairement pour faire face aux pointes. Or la pointe de consommation de la mi-journée

222

La crise pétrolière

coïncide avec le maximum d’insolation. D’autre part, on peut amortir les variations de puissance de l’électricité solaire si les installations sont réparties sur un ensemble géographique qui occupe plusieurs fuseaux horaires, comme cela serait pourrait être le cas en Europe, à condition toutefois de disposer d’un réseau présentant des interconnections de très forte capacité d’un État à un autre, ce qui est loin d’être le cas pour l’instant. Il faudrait pour cela construire de nombreuses lignes à haute tension. Le bilan de l’introduction de quantités croissantes d’électricité photovoltaïque sur les réseaux européens serait finalement en l’état actuel d’entraîner une sollicitation croissante des moyens fonctionnant en pointe et une sollicitation décroissante des moyens fonctionnant en base. Cela pose un problème dans un pays comme la France, dont l’essentiel des moyens de production consiste en centrales à chaudière, nucléaires et à combustibles fossiles, qui ne peuvent pas consacrer une part importante de leur production au fonctionnement en pointe, et en centrales hydroélectriques au fil de l’eau qui ne sont pas du tout adaptées. Une fois les possibilités des centrales de lac et des centrales d’éclusée épuisées, il faudrait donc augmenter la proportion des autres centrales capables de fonctionner aisément en pointe, qui sont des TAC à fuel ou à gaz, ou des centrales à gaz à cycle combiné, et diminuer corrélativement la contribution des centrales fonctionnant en base, c’est-à-dire essentiellement les centrales nucléaires et les quelques centrales à charbon, car on ne peut pas diminuer la contribution des centrales électriques au fil de l’eau. Ironiquement, une contribution très importante de l’électricité solaire, tant vantée pour lutter contre l’effet de serre, aurait donc pour conséquence dans notre pays, une fois complètement exploitées les possibilités de régulations offertes par les centrales de lacs et d’éclusée, une augmentation sensible des émissions de gaz carbonique de notre production électrique, du fait du remplacement d’électricité nucléaire, très peu émettrice, par de l’électricité produite par des turbines à gaz, très émettrices, et des CGCC. Et cela d’autant plus que, comme on le verra plus loin, les émissions de gaz à effet de serre associées à la fabrication des panneaux photovoltaïques ne sont pas négligeables! Cela entraînerait aussi des investissements supplémentaires en moyens de production électrique de pointe, sans pour autant permettre de supprimer les centrales nucléaires qui assurent la base ! Notre consommation d’uranium certes diminuerait, mais celle de gaz augmenterait ! Le problème se pose différemment en Allemagne et plus généralement dans les pays où la production de base est assurée essentiellement par des centrales à combustibles fossiles. Comme en France, l’introduction d’une forte proportion d’électricité photovoltaïque sur le réseau entraînerait une sollicitation croissante

Bernard Durand

223

des moyens pouvant aisément fonctionner en pointe, hydraulique mais de plus en plus TAC à gaz et CGCC, et une substitution d’électricité photovoltaïque à la production électrique de base. Mais la production de base y est assurée pour une large part par des centrales à charbon. Il y aurait donc diminution de la consommation de charbon, et augmentation de la consommation de gaz. Cependant la diminution de la consommation de charbon serait inférieure au taux de pénétration de l’électricité photovoltaïque, c’est-à-dire à la proportion d’électricité voltaïque circulant sur le réseau, ceci pour les raisons suivantes : – la production de base n’est pas en Allemagne assurée uniquement par des combustibles fossiles : le nucléaire et l’hydroélectricité y représentent à eux deux un peu plus de 30 % de la production électrique ; – le rendement énergétique des TAC à gaz n’est que 70 % de celui des centrales à charbon auxquelles elles se substitueraient, et celui des CGCC, quand elles sont utilisées en régime de pointe, n’est sans doute pas très supérieur à celui des centrales à charbon. Il n’est pas du tout sûr que les émissions de gaz à effet de serre en seraient très diminuées. Certes la combustion du gaz produit deux fois moins de CO2 que celle du charbon pour une même quantité d’énergie contenue, mais la faiblesse du rendement des TAC à gaz diminue cet avantage. D’autre part, le transport du gaz consomme beaucoup plus d’énergie que celui du charbon, et il existe des fuites de méthane tout au long de la filière, particulièrement à la distribution : or il suffit de 1 % de fuites pour obtenir le même PRG à 100 ans que 23 % supplémentaires d’émissions de gaz carbonique ! Il serait bon par conséquent, avant de conclure hâtivement que le passage du charbon au TAC à gaz, et même aux CGCC, permet de beaucoup diminuer les émissions de gaz à effet de serre, de tenir compte du bilan énergétique de l’ensemble de la filière gaz et non uniquement des centrales, et d’évaluer l’importance de ses fuites de méthane, que l’on connaît très mal ! Un autre obstacle est le prix de revient de l’électricité photovoltaïque : il est pour l’instant en France métropolitaine de l’ordre de 250 à 500 €/MWh, selon l’ensoleillement, soit en moyenne 10 fois plus que l’électricité produite actuellement par les centrales nucléaires. Ce coût devrait diminuer rapidement dans les années qui viennent, mais il faudra sans doute des dizaines d’années avant qu’il approche celui de l’électricité nucléaire. Une première raison de ce coût élevé est la faiblesse du facteur de charge. Celui-ci entraîne que le productible d’électricité d’1 MW de photovoltaïque est sept fois inférieur à celui d’1 MW de centrale nucléaire ! Il y a donc sept fois moins de kWh pour payer les investissements réalisés.

224

La crise pétrolière

La deuxième raison est que le coût d’installation d’1 MW de photovoltaïque est bien plus élevé que celui d’1 MW de centrale à chaudière, 5 à 10 millions d’euros23 contre 1,5 millions d’euros pour une centrale à gaz naturel et 2,5 millions pour les centrales nucléaires en cours de construction. De plus, sa durée de vie, donc sa durée d’amortissement, est de la moitié, 25 ans contre 50 environ ! Cela est dû au coût très élevé du silicium utilisé pour confectionner les panneaux photovoltaïques et à la fragilité de ceux-ci. Il existe des techniques permettant d’abaisser ce coût en utilisant le moins possible de silicium, ou du silicium de qualité moindre et donc moins cher, mais pour l’instant au prix d’une sensible diminution du rendement de transformation de l’énergie solaire en électricité. Le coût de 1 MW de photovoltaïque est donc pour l’instant au moins deux fois plus élevé que celui de 1 MW de centrale nucléaire, alors qu’il produit sept fois moins d’électricité dans l’année et que sa durée de vie est inférieure de moitié. La gratuité de la source d’énergie ne peut compenser, et cela de très loin, ces handicaps, dont le plus important, qui est la faiblesse du facteur de charge, ne peut être amélioré que par le stockage de l’électricité produite ! Ce coût élevé de l’électricité photovoltaïque entraîne un temps de retour sur investissement, c’est-à-dire le temps nécessaire pour que les investissements soient remboursés par les économies ainsi réalisées sur la facture d’électricité, d’environ 20 à 25 ans en France, c’est-à-dire à peu près la durée de vie des installations ! Pour en encourager le développement, des subventions très importantes sont maintenant accordées en France à la production de l’électricité photovoltaïque, sous forme de crédit d’impôt et d’un tarif élevé de rachat par EDF de l’électricité revendue par les particuliers sur le réseau, dans l’espoir de créer un cercle vertueux d’abaissement des coûts par développement du marché. Ce tarif est le plus élevé quand les panneaux photovoltaïques sont intégrés, et non surimposés, à la toiture de l’habitation. De cette façon, le temps de retour peut être réduit à 5 ou 10 ans. Ces tarifs élevés sont compensés par une augmentation des tarifs que payent les autres usagers. La majorité des consommateurs qui n’est pas équipée paie donc pour la minorité qui l’est. Cela ne sera pas tenable si l’électricité photovoltaïque connaît un fort développement.

23

Le coût de la centrale portugaise d’Amareleja, dont les panneaux photovoltaïques ont été fabriqués en Chine, est de 5,7 millions d’euros par MW.

Bernard Durand

225

Malgré son coût, l’image de l’électricité photovoltaïque est bonne et son usage pourrait séduire en France de plus en plus les classes moyennes, dans la mesure où les subventions actuelles sont maintenues, parce qu’elle correspond bien au souhait assez répandu dans notre pays de n’avoir pas à dépendre des autres pour assurer ses besoins en énergie, ce que nous appellerons ici le syndrome de Robinson Crusoé. Une option intéressante pour une construction neuve est le toit solaire : un toit solaire assure la fonction normale d’isolation d’un toit mais y intègre un chauffe-eau solaire pour produire de l’eau chaude sanitaire et des panneaux photovoltaïques pour produire de l’électricité. On a vu que le rendement de la transformation de l’énergie lumineuse en électricité photovoltaïque est, pour les panneaux de fabrication courante, assez faible, de l’ordre de 10 % actuellement. Si une des raisons de ce faible rendement est qu’une partie du rayonnement reçu n’est pas utilisé parce qu’il est diffusé par le panneau lui-même, la principale raison est qu’une grande partie est transformée en chaleur et non en électricité. On peut donc concevoir que cette chaleur, qui doit être évacuée pour que les performances des cellules photovoltaïques ne se dégradent pas, soit récupérée pour du chauffage. L’intérêt d’un toit solaire est que son coût est réduit par rapport à celui d’un toit auquel on ajouterait par la suite un chauffe-eau solaire et des panneaux photovoltaïques. Le temps de retour sur investissement est donc ainsi réduit à quelques années grâce aux diverses subventions accordées. Il s’agit de dispositifs par lesquels l’habitat devient une entité aussi autonome que possible en énergie. L’électricité produite en excès pendant l’été peut être revendue sur le réseau, ou pourra être un jour utilisée pour charger les batteries d’un véhicule électrique ou d’un véhicule hybride rechargeable. Les toits solaires sont pour l’instant rares en Europe. Ils sont en revanche fréquents au Japon, pays qui est très préoccupé par sa dépendance énergétique, mais qui est aussi très « technophile ». Dans l’état actuel des techniques, nous avons vu qu’il semble possible d’équiper les bâtiments en France d’environ 1200 km2 de panneaux photovoltaïques dans de bonnes conditions d’insolation, ce qui correspond à une production totale d’électricité photovoltaïque d’environ 120 TWh/an, soit deux fois plus que la limite de 60 TWh imposée par le facteur de charge moyen de 11 %. Mais nous verrons dans le paragraphe 4.4.3 sur l’électricité éolienne que le réseau français ne peut probablement pas pour l’instant supporter sans risques

226

La crise pétrolière

plus de 30 à 40 TWh d’électricité intermittente. Il s’agit donc là du point de vue physique d’un facteur encore plus limitant que le facteur de charge, pour les quantités d’électricité photovoltaïque qui peuvent être produites dans notre pays. Cela n’est toutefois pas négligeable, et les possibilités quantitatives de l’électricité photovoltaïque productible par les bâtiments sont donc d’ores et déjà significatives. Ces possibilités évolueront en France dans la mesure où il sera possible d’améliorer les capacités de stockage de l’électricité, mais aussi les réseaux pour qu’ils puissent accepter des proportions plus fortes d’électricité intermittente. En quoi pourraient consister de tels stockages ? – Il est encore possible de développer de construire des STEP. La puissance de STEP actuellement disponible est actuellement de 6 GW (dont 1,8 pour le seul Barrage de Grand’Maison). Elle pourrait être portée à 8 et peut-être même 12 GW. Mais certains mouvements écologiques s’opposent de plus en plus à la construction de barrages supplémentaires, pour conserver un caractère « naturel » aux cours d’eau. Il y a là une contradiction avec leur souhait de voir se développer les énergies renouvelables en France. – Peut-être sera-t-il possible un jour d’adjoindre aux panneaux photovoltaïques des batteries de forte capacité massique, peu coûteuses et fiables, de manière à pouvoir régulariser efficacement l’intermittence. Il s’agit là d’applications stationnaires des batteries, pour lesquelles le poids et le volume ne sont pas des facteurs aussi limitants que dans le cas des batteries embarquées par les véhicules. Les batteries au plomb, qui sont actuellement les plus utilisées, parce que ce sont les moins coûteuses et les plus fiables, sont très insuffisantes pour des consommations importantes d’électricité. D’autres batteries sont actuellement à l’étude, qui auraient des capacités massiques deux à trois fois supérieures à celles des batteries au plomb, par exemple la batterie sodium/soufre ou la batterie sodium/chlorure de nickel. Dans une batterie sodium-soufre, le sodium et le soufre sont sous forme liquide et constituent les électrodes, le sodium étant la cathode et le soufre l’anode. Ils sont séparés par de l’alumine ␤ (mélange solide d’alumine et d’aluminate de sodium contenant de 5 à 10 % d’oxyde de sodium Na 2O) poreuse qui joue le rôle d’électrolyte. Cette batterie fonctionne à 350 ˚C. La batterie sodium/chlorure de nickel fonctionne sur le même principe et a l’avantage d’être plus réactive.

Bernard Durand

227

EDF a en projet d’installer à La Réunion une batterie sodium-soufre d’une puissance de 1 MW et d’une capacité de 7 MWh, de manière à y réduire l’usage des turbines à combustion. Cette expérience servira également à préparer une meilleure intégration des électricités renouvelables sur les réseaux électriques.

Figure 4.16. Principe de fonctionnement d’une batterie à circulation externe d’électrolyte. Ce dernier est stocké dans deux réservoirs extérieurs dont l’un contient un électrolyte chargé positivement et l’autre un électrolyte chargé négativement. Dans le cas de la batterie vanadium-redox, il s’agit de la même substance, du sulfate de vanadium, où le vanadium est dans deux états de charge différents. – Sont également en cours de développement des batteries à circulation externe d’électrolyte (figure 4.16) telle que la batterie vanadium-redox. Une batterie Vanadium-redox, d’une capacité de 800 kWh, est en cours d’expérimentation à King Island, petite île située au large de la Tasmanie, pour assister une petite ferme éolienne et ainsi diminuer la consommation de gazole des groupes électrogènes actuellement utilisés à cette fin. – D’autres systèmes envisageables sont les stockages d’électricité par air comprimé, en anglais compressed air electricity storage (CAES).

228

La crise pétrolière

Ils consistent en un ensemble compresseur, stockage d’air sous pression qui peut être installé dans un aquifère ou dans une cavité creusée dans le sous-sol, détendeur, et moteur à air comprimé faisant tourner un alternateur. Malgré son apparente simplicité, un tel dispositif présente trois inconvénients majeurs. – Des capacités de stockage d’énergie qui sont très faibles, comme on l’a vu dans le paragraphe 3.3 sur les voitures à air comprimé, de l’ordre de la dizaine de kWh par mètre cube. – La nécessité d’utiliser un chauffage auxiliaire, en général au gaz, pour réchauffer l’air refroidi par la détente. – Un mauvais rendement énergétique : celui-ci ne dépasse pas 50 % dans les installations courantes, car on perd beaucoup d’énergie à la compression, mais aussi à la décompression à cause de la nécessité de réchauffer l’air à la détente. Toutefois des progrès sont attendus, qui permettraient semble-t-il d’atteindre des rendements de 60 à 70 %. D’autre part, les sites naturels possibles pour installer de tels stockages sont en nombre limité. – On pense aussi à faire des stockages en utilisant des céramiques ou des sels fondus chauffés par des résistances électriques. La chaleur accumulée ainsi servirait ensuite à produire de l’air très chaud (1400 ˚C) actionnant une turbine. Un tel système permettrait de régulariser une production photovoltaïque à l’échelle de la journée. Tous ces dispositifs de stockage sont évidemment hors de portée d’un simple particulier. Mais on peut envisager de les utiliser à l’échelle d’un groupe d’habitations ou d’une petite agglomération. Leurs caractéristiques sont résumées sur le tableau 4.6. Tableau 4.6. Caractéristiques des stockages d’électricité à grande échelle. (Courtoisie B. Multon.) Air Technologie Hydraulique comprimé gravitaire en caverne Densité d’énergie

Batteries Batteries Thermique électroà chimiques circulation à turbine Batterie au 1 kWh/m3 12 kWh/m3 plomb : pour une de caverne à 33 kWh/t 33 kWh/m3 200 kWh/m3 chute de 360 m 100 bars Batterie NaS : 100 kWh/t

Bernard Durand

229

Air Technologie Hydraulique comprimé gravitaire en caverne 1 000 – 1 000 – Capacité 100 000 10 000 d’énergie MWh MWh

Batteries Thermique à circulation à turbine 1 000 – – qq 100 1 – 40 MWh 10 MWh 100 000 MWh

Puissance réalisable Rendement électrique Installations existantes Coût €/ kWh(1) et €/kW(1)

100 – 1 000 MW

100 – 1 000 MW

qq MW – qq 10 MW

1 – qq 10 10 – 1 000 MW MW 70 % à 90 % 90 % selon 50 % (avec 70 % àtechno 60 % ? 85 % – 80 % l’apport de selon techno et à démontrer et vitesse de gaz naturel) vit. de décharge décharge 100 000 600 MWh 40 MWh 120 MWh MWh – 290 MW 10 MW 15 MW 1 000 MW 70 à 150 600 à 1 500

50 à 80 400 à 1 200

200 (Pb) à 2 000 (Li) 300 (Pb) à 3 000 (Li)

Maturité

Très bonne

Remarques

Sites avec dénivelée et retenues d’eau

(1) Attention,

Batteries électrochimiques

100 à 300 1 000 à 350 à501 000 2 000

En Plusieurs développePlusieurs experiences ment, À l’état experiences avec des tech- typesprotoen de projet au monde nologies fonctionnematures ment Métaux Indépendant Sites avec lourds ou Produits des concavernes hautes temp. : chimiques traintes géoNaS graphiques

le coût est ici intégralement rapporté à l’énergie stockée ou la puissance maximale.

Mais un moyen de stocker l’électricité photovoltaïque produite par les toits sera peut-être tout simplement un jour d’utiliser les batteries de véhicules électriques ou hybrides rechargeables, comme on l’a fait remarquer à propos du toit solaire. Si la flotte française était constituée entièrement de ce type de véhicules, la capacité de stockage serait en effet considérable, de l’ordre du TWh. Mais il s’agit là d’une vision futuriste, car cela demande en même temps une évolution considérable du mode de construction des bâtiments et de l’urbanisme. L’adaptation des réseaux est aussi un moyen d’y faire circuler une proportion plus importante d’électricité photovoltaïque. Les réseaux intelligents (en anglais smart grids), et les compteurs intelligents permettraient par exemple d’adapter dans une certaine mesure la consommation d’électricité des ménages au profil de production de l’électricité photovoltaïque (pour caricaturer, déclencher les machines à laver au moment où il y a le plus de soleil).

230

La crise pétrolière

Le développement de l’électricité photovoltaïque pose aussi des problèmes d’une autre nature, qui sont ceux de la quantité d’énergie et des émissions de gaz à effet de serre correspondant à la fabrication du silicium utilisé pour la confection des panneaux solaires: ce silicium est en effet produit à partir de silice (SiO2) par un procédé métallurgique consommant beaucoup d’électricité (et donc indirectement des combustibles fossiles dans la plupart des pays) et de coke métallurgique, qui sert d’agent réducteur et est donc transformé en gaz carbonique. Les valeurs par kWh produit varient beaucoup en fonction de l’ensoleillement du lieu d’installation, mais aussi du rendement de la transformation de l’énergie solaire en électricité par le panneau, du matériau actif et de son procédé de fabrication… On estime, selon les cas, entre un et trois ans de la production électrique d’un panneau la quantité d’énergie grise24 consacrée à la fabrication de ce panneau et de 40 à 200 g CO2 eq par kWh d’électricité produite les émissions de gaz à effet de serre qui en résultent. C’est toutefois beaucoup moins que celle qui résulte de l’utilisation des combustibles fossiles : de 750 à 1300 g CO2 eq par kWh produit pour le charbon selon la nature de ce charbon et le rendement de la centrale électrique, de 650 à 950 pour le fuel lourd, et de 400 à 700 pour le gaz. Mais c’est plus que celle habituellement citée pour le nucléaire, qui va de 5 à 20 g CO2 eq/kWh25. Les valeurs citées pour l’hydroélectricité qui sont habituellement citées sont de l’ordre de 5 à 10 g CO2 eq/kWh, soit encore inférieures à celles du nucléaire. Mais quand les lacs de barrage se trouvent situés dans des zones où ils reçoivent beaucoup de débris végétaux, la fermentation de ces débris dans les vases entraîne la production de méthane et des valeurs allant jusqu’à 200 g CO2 eq/kWh sont alors citées26. La variété des valeurs citées et les controverses à ce sujet montrent qu’il serait bon de faire des études plus nombreuses

24

On appelle « énergie grise » l’énergie qui est nécessaire à la fabrication d’un appareil ou d’un produit, à son entretien, puis à sa destruction. 25 Les mouvements antinucléaires contestent ces dernières valeurs, qui ne concernent selon eux que la construction des centrales, et ont produit des études selon lesquelles les vraies valeurs pourraient dans certains cas aller jusqu’à 60 ou même 100 g/CO2 eq par kWh produit, si l’on prenait en considération la totalité du cycle de vie. Cependant, ces affirmations ne se vérifient pas à la lumière des études les plus récentes, qui attribuent par exemple, en prenant en considération la totalité du cycle de vie, des valeurs comprises entre 5 et 16 g de CO2/kWh pour les centrales nucléaires françaises et de l’ordre de 30 g pour les centrales nucléaires allemandes, les valeurs plus élevées dans ce dernier cas étant dues à l’utilisation d’électricité produite à partir de charbon au cours du cycle de vie. 26 Rappelons que le méthane a un pouvoir de réchauffement à 100 ans qui est 23 fois supérieur à celui du gaz carbonique. 1 gramme de méthane vaut donc 23 g CO2 eq.

Bernard Durand

231

dans le cadre d’une analyse du cycle de vie (ACV) très rigoureuse pour un large éventail de situations. La fabrication des panneaux photovoltaïques, qui utilise les techniques de la microélectronique, demande également d’utiliser des produits chimiques et des métaux lourds réputés polluants, ce qui demande des précautions au cours de la fabrication et produit, une fois les panneaux utilisés, des déchets qu’il faut attentivement récupérer. Un livre blanc en date du 14 janvier 2009 de l’association Silicon Valley Toxic Coalition, « Toward a just and sustainable solar industry », vient de faire le point sur cette question préoccupante. Étant donné l’énorme potentiel de l’électricité photovoltaïque, les recherches sont bien sûr très actives pour en accélérer le développement. Mais, même si son coût était considérablement abaissé, l’électricité photovoltaïque ne pourra pas être produite en quantités suffisantes pour atténuer réellement les effets d’une pénurie croissante de combustibles fossiles dans les grands pays industrialisés, tant que les problèmes de stockage ne seront pas résolus. En l’absence d’énormes capacités de stockage, capables de régulariser la production entre été et hiver et non uniquement entre le jour et la nuit, sa production en masse est en effet liée à celle de l’électricité produite par des moyens de pointe utilisant des combustibles fossiles. Dans ces conditions, sa production de masse ne peut pas non plus être plus durable que ceux-ci ! On observe que les recherches se concentrent surtout sur le rendement de la transformation de l’énergie solaire en électricité, alors qu’il vaudrait peut-être mieux se concentrer sur le stockage de l’électricité ainsi produite et sur l’adaptation des réseaux pour qu’ils puissent accepter le plus possible d’électricité photovoltaïque. Étant donné la proximité des échéances, les chances que ces recherches débouchent à temps paraissent bien faibles. En revanche, l’électricité photovoltaïque, assistée de batteries au plomb, car ce sont actuellement les moins coûteuses et qu’elles sont relativement fiables, est déjà d’un grand secours dans des régions situées loin des réseaux électriques, et pourrait l’être aussi dans les zones rurales des pays pauvres, en permettant d’y faire fonctionner des équipements peu gourmands en énergie : pompage de l’eau, réfrigérateur, télévision… Un intérêt de l’électricité photovoltaïque produite par les bâtiments est que l’on diminuerait ainsi un peu les pertes d’électricité, en France environ 8 % de la production totale, qui sont dues au transport de celle-ci depuis les centrales électriques. Un autre intérêt est que l’électricité photovoltaïque produit du

232

La crise pétrolière

courant continu, que l’on transforme pour l’instant en courant alternatif avec un onduleur. Le passage du courant alternatif au courant continu pour alimenter les appareils électriques dans l’habitat entraînerait une diminution importante de la consommation d’électricité de ceux-ci. Mais il s’agirait là d’une révolution qui n’est pas prête de se produire. Dans un autre registre, il est souvent proposé d’utiliser la biomasse pour remplacer les autres sources d’électricité dans la régularisation des électricités intermittentes. La biomasse se substitue de plus en plus aux combustibles fossiles dans les centrales électriques, dans le but d’économiser ceux-ci, mais aussi de diminuer les émissions de gaz à effet de serre. Cette utilisation est encore confidentielle en France, alors que notre pays produit déjà une quantité considérable de biomasse à usage énergétique (chauffage résidentiel principalement), pour un équivalent de 10 Mtep d’énergie finale environ. Il semble possible d’en produire beaucoup plus : les estimations en net (c’est-à-dire après déduction des quantités d’énergie consommées par la filière) de la production totale possible en énergie primaire varient de 30 à 50 Mtep. Il est aisé de calculer que les quantités d’électricité que l’on pourrait en tirer seraient encore très loin de pouvoir suffire à la régularisation des 60 TWh d’électricité photovoltaïque qui représentent en France la production maximale imposée par son facteur de charge moyen. En effet, la biomasse devrait produire dans ce cas 520 TWh d’électricité, ce qui est l’équivalent d’environ 45 Mtep, mais beaucoup plus en énergie primaire. En effet, l’utilisation de cette biomasse dans des turbines à combustion, les plus à même de compenser les fluctuations de l’électricité photovoltaïque, se ferait avec un rendement énergétique de 25 %. D’autre part, la biomasse devrait être préalablement gazéifiée, ce qui diminue encore le rendement global de l’opération, à 15 % environ. On aboutirait donc à une consommation d’énergie primaire sous forme de biomasse de l’ordre de 300 Mtep, soit six fois plus que les estimations les plus optimistes de sa disponibilité en net ! La transformation de cette biomasse en biogaz pour alimenter les turbines à combustion aurait un rendement encore plus mauvais, puisqu’un tiers seulement du carbone initialement contenu dans la biomasse se retrouverait alors dans le méthane produit. Tout compte fait, l’utilisation du biogaz pour régulariser les 60 TWh d’électricité photovoltaïque qu’il est possible de produire avec l’assistance de turbines à combustion à biogaz demanderait alors, pour produire le biogaz nécessaire, de disposer en France de l’ordre de 540 Mtep par an de biomasse en énergie primaire. C’est complètement irréaliste.

Bernard Durand

233

La production d’électricité n’est de toute façon pas le meilleur usage énergétique que l’on puisse faire de la biomasse, la production directe de chaleur étant bien préférable. D’autre part, c’est aussi à la biomasse que l’on pense pour produire les biocarburants. Il faudra choisir entre toutes ces utilisations, car les quantités disponibles sont limitées. En définitive, la raison principale pour laquelle la contribution de l’électricité photovoltaïque produite par l’habitat à la production d’électricité française est pour l’instant négligeable est que son coût est bien trop élevé en comparaison de celui de l’électricité produite par le nucléaire. Elle ne présente donc à court et moyen terme guère d’intérêt, d’autant plus que la filière nucléaire émet moins de gaz carbonique que la filière photovoltaïque. Mais il faut bien réaliser que ses possibilités quantitatives et sa durabilité seront de toute façon limitées tant que les dispositifs de stockage n’auront pas une capacité massique suffisante pour pallier efficacement le problème de l’intermittence, puisque, faute de ces stockages, il faudra lui associer, pour qu’elle puisse être produite en grandes quantités, des quantités beaucoup plus grandes d’énergies non durables. On est pour l’instant encore très loin du compte ! Il ne faut donc pas espérer une production importante d’électricité photovoltaïque en France et plus généralement en Europe avant longtemps. Même les syndicats professionnels n’espèrent qu’une contribution d’environ 3 % à la production électrique européenne en 2030. La capacité de stockage offerte par les batteries des véhicules électriques et des véhicules hybrides rechargeables permettra peut-être, s’ils connaissent un fort développement, de résoudre pour une part le problème posé par l’intermittence du solaire. On voit ici que les réflexions sur la consommation énergétique des bâtiments, sur l’évolution des modes de transports et sur l’évolution de l’urbanisme doivent être associées dans un cadre global.

2.9. L’électricité éolienne et le microéolien L’électricité éolienne s’est beaucoup développée ces dernières années en Europe : le Danemark est le pays du monde ayant la plus forte proportion d’électricité éolienne dans son bouquet électrique, 14 % environ pour une production de 6 TWh en 2006, et 20 % en 2007 pour une production de 7,2 TWh. L’Allemagne a eu longtemps la production la plus élevée du monde, 4,7 % de son électricité pour 31 TWh en 2006, 7,2 % pour une production de 39,5 TWh en 2007 et vient seulement d’être dépassée par les États-Unis. L’Espagne la talonne avec 7,6 % de son électricité pour 23 TWh en 2006, et 11,8 % pour

234

La crise pétrolière

une production de 32 TWh en 2007. À l’échelle européenne, la production d’électricité éolienne ne représentait toutefois en 2006 que 2,4 % de la production totale d’électricité de l’Europe des 27, et n’en représentait encore que 3,8 % en 2007. La France n’a pour l’instant qu’une production modeste mais progresse très rapidement et prévoit, dans le cadre de sa programmation pluriannuelle des investissements de production d’électricité (PPI) de 2006, de produire environ 40 TWh d’électricité éolienne en 2015, soit environ 7 % de sa production actuelle d’électricité, vingt fois plus que fin 2006. Comme l’électricité photovoltaïque, l’électricité éolienne a une excellente image dans une très grande partie de l’opinion, qui y voit des aspects très positifs, comme son caractère propre et durable (nous allons voir plus loin ce qu’il en est réellement) mais a du mal à en comprendre les aspects négatifs, exception faite de la pollution visuelle et sonore, et des interférences occasionnelles avec les radars et la télévision. Certains, mais rarement ceux qui vivent à côté, les trouvent agréables et esthétiques. Pourtant, comme pour l’électricité photovoltaïque, la production d’électricité éolienne est très handicapée par son intermittence et par l’importance de l’espace nécessaire à sa mise en œuvre. La puissance du vent est extrêmement sensible aux variations de sa vitesse puisqu’elle varie comme le cube de cette dernière27. La figure 4.17 montre, pour une éolienne de type maintenant courant, comment varie en fonction de la vitesse du vent son facteur de charge, c’est-à-dire le rapport entre la quantité d’électricité que l’éolienne produit réellement à cette vitesse, et la quantité qui serait produite si elle fonctionnait en continu à sa puissance maximale. Le facteur de charge moyen d’une éolienne, calculé sur l’année, est en France de 25 % en moyenne pour les éoliennes installées dans les zones de vent les plus favorables, et seulement de 22 % en moyenne pour l’ensemble des éoliennes installées jusque fin 2007 (figure 4.18). Ceci ne signifie pas, comme certains le croient, que les éoliennes installées en France ne tournent que 22 % du temps. En fait elles tournent pendant 80 à 90 % du temps, mais la plupart du temps à faible puissance. 27

La puissance du vent traversant le rotor d’une éolienne se calcule par la formule 2 3 1 W = --- × ρ × π × r × ν , ␳ étant la masse spécifique de l’air, r le rayon des pales et ν la 2 vitesse du vent.

Bernard Durand

235

Figure 4.17. Variation du facteur de charge d’une éolienne Vesta 80 (puissance 1,8 MW, hauteur à la nacelle 80 mètres) en fonction de la vitesse du vent au niveau de la nacelle : jusqu’à 3 m/s environ, les forces de frottement l’emportent sur la force développée par le vent. Puis, jusqu’à 10 m /s la puissance électrique fournie croît comme un peu moins que le cube de la vitesse du vent, et pourrait continuer à croître ensuite selon cette loi audelà de 10 m/s (courbe en trait épais) si n’apparaissait alors un risque de destruction de l’éolienne. On modifie alors l’angle d’attaque des pales et on utilise des freins à disques pour limiter progressivement la puissance délivrée. Entre 15 et 25 m/s, le facteur de charge, c’est-à-dire le rapport de la puissance fournie à la puissance nominale de l’éolienne, est maintenu à 1 grâce à ces dispositifs, mais alors on n’utilise pas ou on transforme en chaleur une grande partie de l’énergie fournie par le vent. Au-delà de 25 m/s, il est nécessaire de mettre l’éolienne en drapeau pour éviter sa destruction. On voit sur cette figure que dans une très large gamme de vitesses du vent, les fluctuations de cette vitesse entraînent des fluctuations considérables du facteur de charge : ce facteur de charge est pour 10 m/s sept fois supérieur à ce qu’il est pour 5 m/s ! Les variations de la vitesse du vent entraînent donc une variation beaucoup plus grande de l’énergie qu’il communique aux pales de l’éolienne, et donc de sa production d’électricité. Le facteur de charge annuel moyen n’est que de 19 % en Allemagne, moins favorisée par la nature de ce point de vue. 22 %, ou même seulement 19 %, c’est nettement mieux que les panneaux photovoltaïques, et le vent ne s’arrête pas la nuit ! Contrairement au soleil, le vent est aussi en Europe plus fort en

236

La crise pétrolière

Figure 4.18. Facteur de charge mensuel moyen de l’éolien actuellement installé en France. Sur l’ensemble des deux années 2006 et 2007, il a varié de 10 à 35 % selon le mois, avec une moyenne de 22 %. (Source : ADEME.) hiver qu’en été. Il y a donc une certaine complémentarité entre électricité éolienne et électricité photovoltaïque. Mais un facteur de charge moyen annuel de 22 %28 signifie que pour assurer une production d’électricité à une valeur constante, une éolienne d’une puissance donnée doit être assistée à la demande par une source d’électricité de même puissance produisant au total 3,5 fois plus d’électricité qu’elle sur l’année, et que sa production annuelle d’électricité n’est que l’équivalent d’une production de 1930 heures par an à la puissance maximale (1660 heures seulement pour la moyenne allemande), alors que les centrales à chaudière fonctionnent l’équivalent de 6500 à 7500 heures par an (6620 pour les centrales nucléaires en 2007) à leur puissance maximale. En France, 1 MW d’éolien produit donc en moyenne dans l’année 3,4 fois moins d’électricité que 1 MW de centrale nucléaire. Comme pour le photovoltaïque, le facteur de charge est aussi à peu près la valeur maximale pouvant être atteinte, en l’absence d’importantes capacités 28

Ce facteur de charge est probablement moins fort qu’annoncé, car une partie de l’électricité produite est utilisée pour le fonctionnement de l’éolienne. Il serait souhaitable que les compagnies ayant installé des éoliennes en France publient les quantités d’électricité envoyées réellement sur le réseau, plutôt que de se borner comme actuellement à publier les puissances nominales de leurs machines. Nous utilisons donc ici des données approximatives et sans doute un peu surestimées.

Bernard Durand

237

de stockage, pour le taux de pénétration de l’électricité éolienne sur le réseau, c’est-à-dire le rapport, en moyenne annuelle, de la quantité d’électricité éolienne à la quantité totale d’électricité circulant sur ce réseau. Nous verrons cependant que ce taux de pénétration pourrait sans doute être amélioré par des adaptations du réseau, par la modification des habitudes des consommateurs, mais aussi par une répartition plus égale des éoliennes dans l’ensemble des zones bien ventées. Mais l’importance des gains ainsi réalisables ne semble pas devoir être considérable, tandis que le coût de ces adaptations serait élevé. La moyenne de 22 % en France recouvre des situations différentes d’un lieu à un autre. La vitesse moyenne du vent, dont dépend le facteur de charge moyen, et donc la quantité d’énergie électrique que l’on peut produire par unité de surface et par MW de puissance installée, varie en effet d’une région à une autre. Le laboratoire danois RISÖ a établi en 1989 des cartes pour l’Europe et délimité approximativement cinq zones de vitesses moyennes de vent croissantes, pour lesquelles on peut constater empiriquement, à partir des statistiques de production des éoliennes qui y sont déjà installées, des facteurs de charge moyens annuels d’environ 20, 25 et 30 % respectivement pour les zones 3, 4 et 5. Par extrapolation, car il n’y a que très peu d’éoliennes installées dans ces zones, on peut estimer à environ 15 % le facteur de charge de la zone 2 et à 10 % celui de la zone 1. En France, les côtes du Languedoc sont en bonne partie en zone 5, tandis que celles de la Manche et de la Bretagne sont en zone 4 (figure 4.19). Bien sûr, il y a toujours localement des emplacements où les facteurs de charge sont supérieurs à la moyenne de ces régions. Le vent soufflant de manière plus régulière en mer qu’à terre, on a intérêt à installer les éoliennes au large des côtes (offshore). Le facteur de charge peut en effet atteindre alors environ 35 % en moyenne annuelle, dans les zones les plus favorables. Pour que les éoliennes n’interfèrent pas entre elles, il faut les espacer d’environ 6 diamètres de rotor dans la direction du vent dominant et de 4 diamètres dans la direction perpendiculaire. Cela correspond à une puissance installable d’environ 8 MW/km2, quelle que soit la puissance unitaire des éoliennes. Si l’on retient les facteurs de charge moyens régionaux cités, le productible d’électricité éolienne au km2, va donc varier de 7 à 21 GWh entre la zone 1 et la zone 5. Si l’on retient un facteur de charge moyen de 15% pour l’ensemble du territoire métropolitain français, le productible moyen d’électricité éolienne au

238

La crise pétrolière

Terrain abrité

Plaine ouverte

Bord de mer

m.s–1

W.m–2

1m.s–1

W.m–2

m.s–1

W.m–2

Pleine mer m.s–1

W.m–2

m.s–1

Crêtes W.m–2

> 6,0

> 250

> 7,5

> 500

> 8,5

> 700

> 9,0

> 800

> 11,5

> 1 800

5,0-6,0 150-250 6,5-7,5 300-500 7,0-8,5 400-700 8,0-9,0 600-800 10,0-11,5 1 200-1 800 4,5-5,0 100-150 5,5-6,5 200-300 6,0-7,0 250-400 7,0-8,0 400-600 8,5-10,0 700-1 200 3,5-4,5 < 3,5

50-100

4,5,5

< 50