La décentralisation énergétique, un projet au bénéfice du localisme ?

Article de Théophile Ducran-Lapoigne, faisant partie du dossier « L’avenir de la production d’énergie » coordonné par mes soins.


Le point de départ : la nécessité de réforme du système français

Au lancement de son programme nucléaire civil en 1958, les objectifs de la France étaient de se doter de capacités de production d’énergie à bas coût, en grande quantité, et sans que leur mise en place ni leur fonctionnement ne puisse opposer de quelconques menaces à l’indépendance nationale.
Cela fût fait. En 2017, la France est le pays d’Europe occidentale où l’électricité est la moins chère, et possède un parc nucléaire de 58 réacteurs répartis dans une quinzaine de centrales, ce qui en fait le pays le plus « nucléarisé » au monde par habitant.
Ainsi, ce système de grandes centrales, réparties inéquitablement sur le territoire, s’appuie sur un vaste réseau de transport et de distribution d’électricité.

Les activités de production, de transport, de distribution, et de fourniture d’électricité ont été déposées, à l’origine, entre les mains d’un « champion » national : Électricité de France.

Toutefois, ce système centralisé du « tout-nucléaire » présente aujourd’hui ses limites : du coût de démantèlement des centrales – qui ne sont, hélas, pas éternelles ! – à celui de gestion des déchets nucléaires, de nombreux obstacles s’accumulent au fil du temps.
En effet, pour des raisons propres à l’énergie nucléaire, mais aussi inhérentes à lui-même, le système français s’avère difficilement compatible avec les exigences écologiques contemporaines.
Par définition, un système centralisé offre un résultat puissant – et la France en sait quelque chose ! – mais génère inévitablement des pertes. A titre d’exemple, seule 1/3 de l’énergie brute produite par une centrale nucléaire est transformée en électricité – le reste étant évacué à travers les tours de refroidissement.
Compte tenu des exigences croissante d’économie d’énergie, un tel blocage apparaît comme de moins en moins acceptable.

De là, la décentralisation énergétique apparaît comme une solution viable sur les plans économique et écologique.
Cette notion peut se définir comme la distribution des capacités de production d’énergie par région, de manière à ce que les unités de production se trouvent géographiquement proches des consommateurs finaux, limitant ainsi l’utilisation du réseau de transport et offrant des capacités de résilience locale.

En effet, ce système comporte un certain nombre d’avantages qui lui permettraient de combler efficacement les lacunes de notre « tout nucléaire-centralisé » gaulois, et, sur le plan politique, d’encourager un retour au localisme.

Quel calendrier pour un nouveau système décentralisé ?

Il faut d’abord poser un premier axiome : le processus de transition énergétique, sera inévitablement accolé à la méthode de la décentralisation énergétique. Objectif et méthode s’accordent donc.

De plus, la transition énergétique vers des énergies vertes – ce que l’énergie nucléaire n’est pas, étant « décarbonnée » mais néanmoins productrice de déchets dangereux pour l’environnement et la santé – pourrait être achevée en France d’ici 2080.
La décentralisation énergétique n’est donc pas une solution sur-mesure applicable instantanément, mais résultera d’un processus national de long terme découlant de politiques publiques cohérentes.

Quels outils ?

Les énergies renouvelables portent un maître-mot : la résilience.
Par ce terme, il doit être entendu la résistance économique et humaine à l’absence de production d’énergie par une unité sur une courte période. En effet, la production d’énergie renouvelable dépend intégralement des conditions météorologiques du lieu où elles se trouvent.
Par conséquent, il n’est pas possible de prévoir avec certitude la production d’un parc solaire photovoltaïque, ni celle d’une ferme éolienne.
Cela suppose donc l’installation d’une variété de sources de production d’énergie, complémentaires entre elles.

La spécialisation au service de la variété

Chaque terre de France possède des caractéristiques naturelles différentes.
Ainsi, l’ensoleillement en Provence n’est pas le même qu’en Bretagne ; de même que l’Aquitaine, dont les côtes sont venteuses, n’a pas une activité géothermique aussi importante que celle du bassin parisien.
Ainsi, les capacités de production, mises sur pieds par région, devront répondre aux spécificités de l’écosystème local.

Un réseau de transport et de distribution renouvelé

Le système de production par région implique un renouvellement complet du système de transport et de distribution d’électricité. Jusqu’à présent, les lignes à haute-tension et très haute-tension partent des centrales, et sont connectées à des réseaux à basse-tension jusqu’à la fourniture finale. Ce système implique une logistique complexe, et des pertes notables, même s’il permet de « déplacer » l’électricité sur de longues distances.

Une production locale organisée selon une superposition des mailles territoriales

Une autre caractéristique majeure de la décentralisation énergétique est le régionalisme.
En effet, la production décentralisée ne doit pas devenir un ensemble de mini-systèmes centralisés, mais elle doit être organisée selon la superposition de mailles territoriales.
Ainsi, l’on pourrait aisément imaginer un système où 50% de la production serait mis à la charge des départements, et 25% à celle des régions et communes.
Cela étant, les communes bénéficieraient aussi du développement de la production domestique.

Le rôle de la production domestique

La production domestique, c’est-à-dire l’installation de capacité de production d’énergie directement au sein des foyers, devrait permettre de renforcer leur autonomie vis-à-vis des grands fournisseurs (EDF, Engie).
Cela étant, en subventionnant l’installation de telles capacités de production, les collectivités territoriales seraient en droit d’espérer un dopage de l’économie locale, notamment en matière d’emploi, voire de recherche.

Pour conclure, la question qui peut se poser est la suivante : dans quelle mesure la relocalisation des moyens de production d’énergie peut-elle avoir un impact sur le localisme politique ?

Toute activité commune étant source d’union, il est très probable que des populations, qui, au niveau local, se regroupent pour prendre en charge leur propres besoins en énergie, seront amenées à renforcer leur esprit de communauté, et, par extension, leur sentiment d’enracinement.
Reste à voir par quels biais politiques la décentralisation énergétique sera mise en place. Quoi qu’il en soit, il devrait être possible d’en tirer parti.

Théophile Ducran-Lapoigne

Quel avenir pour la production d’énergie ?

Article du dossier « L’avenir de la production d’énergie » coordonné par mes soins


L’après-pétrole approche et il est temps de penser à son remplacement. Ecologistes et industriels doivent cesser leur autisme et entamer un vrai débat sur le mix énergétique de demain. Analyse d’un débat d’infirmes qui n’en finit plus.

Fission nucléaire : Rickover and over

Tous les réacteurs commerciaux au monde[1] héritent d’un réacteur originel, conçu par l’Amiral Rickover[2] pour propulser les sous-marins nucléaires américains. Il fut adapté pour la production d’énergie civile par Westinghouse, qui vendit la licence à Framatome (devenu Areva) et Mitsubishi. Les générations II (actuelle) et III (en cours de construction) ne sont rien d’autre que des améliorations. Or, le réacteur Rickover n’est pas conçu pour la production d‘énergie civile : il peut s’emballer (Three Miles Island, Fukushima) et produit une grande quantité de déchets radioactifs.

Pourquoi cette filière est-elle conservée ? Car la technologie est maîtrisée et amortie. Il existe pourtant des alternatives tout à fait crédibles, comme le Rubbiatron, le TRIGA ou les réacteurs à caloporteur hélium. Toutes sont reléguées en « génération IV ». Traduction : peut-être un jour, n’espérez rien.

Sur ce sujet, les écologistes sont les meilleurs ennemis de l’industrie. Ils font office d’épouvantail en rejetant complètement toute énergie nucléaire à l’heure où le charbon croît. Ils rendent inaudible toute critique fine du nucléaire, ce qui arrange bien l’industrie qui peut avancer sans garde-fou sérieux.

Fusion : Monomanie ITER

Pendant que ITER monopolise le budget de la recherche (19 milliards désormais), d’autres filières prometteuses sont anémiées par le manque de moyens. Malgré leurs budgets ridicules, la fusion aneutronique[3], la fusion par laser[4] ou les Z-machines pourraient donner des résultats avant qu’ITER n’ait abouti.

En plus d’être affreusement cher[5], ITER est une expérience dangereuse. Les Français seront rassurés d’apprendre que « La Commission européenne estime qu’en cas d’accident les rejets d’effluents radioactifs, sous quelque forme que ce soit, provenant d’ITER en France, ne seront jamais susceptibles d’entraîner, même en cas d’accident nucléaire, une contamination radioactive à l’extérieur des frontières françaises »[6]. En plus des matériaux radioactifs (dont le tritium, trop léger pour être confiné), ITER contient des matériaux aussi sains que du plomb, du lithium et du béryllium. Interrogez votre médecin, il vous expliquera.

De l’aveu même des physiciens, l’accident est probable : ITER est expérimental. Le dispositif contient de nombreux aimants supraconducteurs, capables d’exploser très violemment[7]. La plupart des savoirs mis en jeu seront testés pour la première fois à une telle échelle, avec tous les risques imprévisibles que cela occasionne.

Vive le charbon !

L’aveuglement idéologique des écologistes et les intérêts froids du cartel nucléaire embourbent tout débat. Le nucléaire actuel présente des défauts rédhibitoires, qui réclament un changement profond. Or tout débat sur l’avenir du nucléaire est bloqué par les écologistes, qui tiennent absolument à en sortir et par les industriels, trop satisfaits de vivre sur une technologie amortie. Les deux parties portent la responsabilité de l’accroissement du charbon.

Il est urgent de donner la parole aux physiciens et aux ingénieurs non-alignés sur ces questions, afin d’ouvrir un véritable débat national sur l’énergie de demain. Fusillons les clivages imbéciles et les intérêts à courte vue de l’Argent. En l’absence de souverain capable de trancher, c’est à la société civile d’arbitrer ces questions.

Enzo Sandré

[1] Deux exceptions : les CANDU canadiens, qui ne sont pas vendus et les VVER/RBMK soviétiques, instables et dangereux.

[2] Le réacteur de Shippingport

[3] La réaction Bore-Hydrogène semble la plus prometteuse, elle permettrait même la fabrication de réacteurs à fusion domestiques dans un futur lointain.

[4] Le Laser Mégajoule du CEA est le plus connu, il est principalement destiné à tester les futures bombes thermonucléaires, mais devrait accueillir des expériences civiles de fusion.

[5] 19 milliards d’euros pour l’instant, hors fonctionnement. Déjà 4x le budget prévisionnel alors que la construction n’est pas terminée.

[6] Avis de la Commission Européenne 2012/C 166/01

[7] Le 27 mars 2007, un aimant supraconducteur a explosé au CERN près de Genève.

Crise de l’énergie ou énergie de la crise ?

Article de Richard Bulan, faisant partie du dossier « L’avenir de la production d’énergie » coordonné par mes soins.


Depuis le premier choc pétrolier, les discours alarmistes se répercutent sur les montagnes de la bien-pensance et de la vue court-termiste comme un écho dans une vallée trop encaissée.

Les matières énergétiques ne vont pas manquer dans des délais proches puisque même avec les politiques volontaristes actuelles, l’Agence Internationale de l’Energie prévoit une baisse des énergies fossiles de 82% en 1990 à 75% en 2040, ce qui est passablement ridicule. Ainsi, ce n’est pas une crise de l’offre, notamment avec l’arrivée de l’Iran qui a augmenté leur production de 500 000 barils/jours après la fin de l’embargo[1]. De plus, avec les prix de pétrole supérieur à 80 dollars de 2008 à 2015 ont permis l’industrialisation de processus complexes, engendrant des économies d’échelles, permettant l’augmentation de la production. La fracturation hydraulique connue depuis 1947 couplée aux forages horizontaux, développés eux depuis 1980, en ont profité permettant l’exploitation du pétrole de schiste. Ce dernier est particulièrement exploité par les Etats-Unis dont la production à augmenté de manière constante jusqu’à la chute des cours en 2015[2], et qui est repartie à la hausse au début de l’année 2017[3]. La production est maintenant est susceptible de passer de 200 000 à 500 000 barils/jours. De plus, les différents fonds souverains issus de pays pétrolier, comme l’Arabie Saoudite ou la Norvège ne prévoit pas une sortie de la consommation pétrolière, mais souhaite diversifier leur énergie pour limiter la pollution que cette consommation énergétique engendre.

L’offre de pétrole n’est pas à proprement parlé en crise, on est loin du pic pétrolier, avec le ralentissement de la croissance de la Chine, la volonté globale de limiter la volatilité du marché en lissant les cours avec les différents fonds souverains, ainsi que le développement de nouvelles techniques. Ainsi ce pic pourra arriver dans une dizaine d’année (vers 2030), avec une réduction drastique des ressources vers 2200 en ne prenant en compte que les réserves connues actuellement (certains états ayant une politique de secret concernant leurs réserves)[4].

Le passage à des techniques non pétrolière ou gazière va juste déplacer le problème sur des nouvelles matières. La France n’utilise que 51% d’énergie fossile dans son mix énergétique, si bien qu’elle est très dépendante de l’énergie nucléaire et donc du marché de l’uranium. Des questions similaires vont ainsi se poser pour l’ensemble des matière premières permettant la création d’énergie. Ainsi les énergies dites « renouvelables » utilisent également des minéraux comme les terres rares ou le cobalt, qui engendrera de nouvelles crises et de nouvelles périodes fastes dans une perspective « schumpeterienne ». La crise de l’énergie dispose en elle-même de l’énergie des crises futures …

Richard Bulan

[1] AFP, « L’Iran augmente sa production de 500 000 barils par jour », Les échos, 18 janvier 2016

[2] S. Cornot-Gandolphe, « La révolution des pétroles de Schiste aux Etats-Unis. Le test du business-model en cours », Notes de l’IFRI, janvier 2015

[3] E. Conesa, « Pétrole : l’Amérique prête à augmenter sa production », Les Echos, 29 décembre 2016

[4] B. Durand, « Pétrole, gaz et charbon : nature, mécanismes de formation, perspective d’avenir dans la transition énergétique », Association pour l’étude des pics pétrolier et gazier France, 31 mars 2017

Entretien avec Jean-Pierre Petit

Entretien avec l’astrophysicien Jean-Pierre Petit, réalisé dans le cadre du dossier « L’avenir de la production d’énergie » coordonné par mes soins.


Ancien directeur de recherche du CNRS, M. Petit est un chercheur laissant derrière lui une fructueuse carrière dans l’astrophysique et la physique des plasmas. Très critique à l’égard de l’énergie nucléaire, M. Petit fut l’un des premiers à avertir de la gabegie que représente ITER.

Jean-Pierre Petit est également un vulgarisateur. Il est l’auteur de la série de bandes dessinées Anselme Lanturlu. Depuis quelques années, M. Petit diffuse des vidéos sur Internet, toujours dans le but d’expliquer la physique au plus grand nombre. Nous avons souhaité l’interroger sur sa vision du rapport entre l’homme et l’énergie.

Pensez-vous qu’il soit souhaitable pour les civilisations de disposer d’une énergie abondante ?

Les problèmes d’énergie, nous les avons évoqués dans notre dernier livre « OVNI, l’extraordinaire découverte », aux éditions Tredaniel. Dans l’histoire il y a toujours des changements qualitatifs profonds. Il y a eu l’invention de l’outil, qui a permis à l’homme de compléter son barrage biologique avec des griffes, des dents, des poings plus aiguisés et plus solides. Puis le feu, qui lui donnait accès à l’énergie que la nature abritait dans du bois, puis du charbon, des hydrocarbures. Enfin vint la vapeur qui transformait la chaleur en force colossale, capable de mouvoir des centaines de tonne d’acier sur des rails et d’actionner des machines outil, de travailler le fer et l’acier. En prime, derrière cette chimie et cette métallurgie, des armes de plus en plus perfectionnées, des canons, des blindages, des explosifs.

Et puis la conquête de tous les milieux. Se faufiler parmi les poissons, cette fois simplement pour mieux tuer. L’air, pour se déplacer, mais aussi pour porter des œuvres de mort. A la fin de la Seconde Guerre Mondiale, la course aux explosifs fait entrer l’homme dans le délire le plus total. Je crois que les êtres humains ne se rendent pas vraiment compte de ce que représente ce dernier saut. Ça n’est pas la capacité de destruction qui est en cause, c’est le dommage environnemental. Détruire, nous l’avons toujours fait. Des dizaines de millions de morts, des pays en ruine ? La belle affaire. On pensionne les veuves de guerre, on reconstruit, et un demi-siècle plus tard on ne voit plus les cicatrices de la dernière blessure. Un demi-siècle, qu’est-ce ? Deux générations d’êtres humains, sans plus.

Avec l’arme nucléaire il y a des produits de réaction, la radioactivité résiduelle, toutes ces saloperies dont les bombes nous gratifient et qui peuvent rendre des pays entiers, des continents, inhabitables pour des siècles, des dizaines de milliers d’années, voire plus. De terres rendues à ceux qui ont l’ADN solide, les scorpions par exemple.

Pour justifier cette industrie de guerre, on entreprend d’étendre les activités des réacteurs. Initialement conçus pour produire le plutonium des bombes, voilà qu’on en fait des générateurs d’électricité. La France joue un rôle de pointe et étend son parc.

Les années, les décennies passent. On découvre avec Tchernobyl et Fukushima la dangerosité folle de ces chaudières de l’enfer. Mais personne ne tire les leçons. Les réacteurs Japonais étaient installés au ras des flots. Ils le sont encore. L’inconscience, de nouveau, mène le bal.

Les Français ne réagissent pas encore dans ce domaine. Depuis des mois j’ai commencé à créer une suite de vidéos pour informer les gens. Les gens lisent de moins en moins. La vidéo, c’est le support de l’avenir. Je m’y suis mis. Allez regarder mon interview par Stéphane Allix à La science aux frontières du réel. Qu’un journaliste décide de m’interviewer intelligemment, c’est rare. C’est presque une première. Une seconde, en fait, car il y a eu le livre avec Bourret, issu d’une rencontre. Oui, je passe bien. Mais maintenant il n’est même plus besoin de journaliste, de plateau. On peut se débrouiller de manière autonome. Déjà 10 vidéos d’information scientifique sous le titre général JANUS.

Et l’énergie ? Ce sera la série suivante, avec très probablement un autre livre, avec Jean-Claude Bourret. Le titre ? « Nucléaire, suicide mode d’emploi ». Un livre urgent. Cela constituera une première réponse. S’il est un point sur lequel Mélenchon a raison, cent fois raison, c’est cette sortie urgente du nucléaire, avant qu’un réacteur de la région de Lyon n’explose, un jour de mistral, et que ceci rende toute la vallée du Rhône inhabitable.

Voyez-vous une piste intéressante pour la production d’énergie à grande échelle dans les recherches actuelles ?

Des solutions ? Nous en avons des milliers. Il faut dépenser de l’argent, créer des emplois, entreprendre des grands travaux.

Un exemple ? Couvrir les autoroutes de panneaux solaires thermiques, alimentant des turbines à gaz, elles même actionnant des alternateurs. Transformer tous les véhicules en hybrides, non pas seulement en les dotant de batteries, mais plutôt d’une perche rétractable qui leur permette sur les réseaux autoroutiers de puiser l’électricité, produite in situ, comme les auto-tamponneuses de nos enfances.

Il y a ça et des milliers, des millions d’autres solutions. A condition d’envisager, d’accepter de cesser d’être idiots, inconscients, irresponsables.

Ne pensez-vous pas que la centralisation soit un obstacle à la production d’énergie ?

On fait énormément de choses avec de l’énergie, surtout quand elle est renouvelable. On peut même, grâce à une production non centralisée, cesser d’être des esclaves pour redevenir des êtres humains, fiers de l’être et surtout fiers de pouvoir laisser à notre descendance un monde en meilleur état que celui dans lequel nous l’avions trouvé. Tant qu’à faire. On peut surtout arranger le mode de vie d’autres que nous avons délaissés et qui risquent de nous le faire payer très cher. Pourquoi ne deviendrions-nous pas optimistes, pour changer ?

Tout cela je vais l’écrire, le dire. En français et même dans les autres langues. Nous vivons à une époque où les citoyens prennent conscience qu’ils sont dirigés par des imbéciles. Il n’est pas trop tard, il est temps.

Jean-Pierre Petit,
Ancien directeur de recherche au CNRS

Présidentielles 2017 : les programmes scientifiques et techniques analysés

Après avoir invité Emmanuel Macron pour discuter écologie, recherche, numérique ou santé, le magazine Sciences et Avenir a envoyé un questionnaire similaire aux autres candidats[1]. Nous avons lu et synthétisé l’ensemble de leurs réponses. Pour chaque thème nous avons retenu une idée particulièrement intéressante[2]. Les lecteurs souhaitant lire l’intégralité des entretiens les trouveront sur le site de Sciences et Avenir.

Énergie : Le clivage droite-gauche a survécu.

Avec l’immigration, l’écologie est sans nul doute le sujet principal de cette campagne présidentielle. Chaque candidat a son idée sur le mix énergétique : Mélenchon et Hamon veulent du 100% renouvelable. Dupont-Aignan souhaite lancer la 4ème génération de réacteurs nucléaires (thorium). Fillon et Le Pen proposent un mix énergétique varié, excluant le charbon. Macron est dans le flou le plus total. Enfin, Jacques Cheminade semble être le dernier à croire en la fusion nucléaire à moyen-terme. Tous les candidats s’accordent sur la nécessité de financer la rénovation thermique des bâtiments pour économiser l’énergie.

Marine Le Pen semble la seule à proposer l’utilisation durable de la biomasse pour le chauffage.

Des transports peu ambitieux

Sur les transports, la gauche est très peu ambitieuse : elle veut la fin du diesel, point final. La volonté de récupérer l’électorat écologiste y est sans doute pour beaucoup. Il faut aller chez Fillon, Dupont-Aignan, Le Pen et Asselineau pour trouver une volonté de développer l’hydrogène et l’électrique, avec chez ces trois derniers, la création de champions français. Jacques Cheminade lie transport et économie dans un ambitieux projet ferroviaire.

Nicolas Dupont-Aignan est le seul à exiger la sobriété énergétique des véhicules thermiques. Il souhaite atteindre normativement une limite de 3L/100km, techniquement réaliste.

Economie : penser local, agir global

Réjouissons-nous : dans les discours l’heure est à la décentralisation ! Jean-Luc Mélenchon souhaite « plus d’état », mais déconcentré. Marine Le Pen rêve d’un souverainisme enraciné. Nicolas Dupont-Aignan et François Asselineau veulent des circuits courts et une production alimentaire intégralement locale. Les deux candidats PS sont dans un flou total à base de « circuits courts », « démocratie locale » et autres « décisions populaires ». François Fillon remporte la palme avec son concept d’agriculture locale et intensive (oui !). Seuls Nathalie Arthaud et Jacques Cheminade assument une doctrine centralisatrice. Tous les autres ont l’air de croire que la République peut décentraliser.

Jacques Cheminade souhaite une France des villes intermédiaires, redynamisées par le rail moyenne vitesse. Il propose la réouverture de très nombreuses lignes de province, afin de sortir du schéma en étoile actuel.

La France des robots

Tous font l’éloge de l’intelligence artificielle et du travail des robots. Seul Benoît Hamon souhaite taxer la valeur ajoutée produite par les machines. Sauf deux candidats, tous promettent une cyberdéfense nationale et la souveraineté numérique. Nathalie Arthaud refuse tout cela : ce sont des « ruses capitalistes » (sic). François Fillon lui, rêve d’une cyberdéfense européenne.

Soulignons la clairvoyance de Jacques Cheminade sur ces questions : pour lui la sécurité et la souveraineté sont une affaire de résilience, donc de décentralisation. Il souhaite préserver la vie privée des citoyens face à l’état et défend le logiciel libre, seule garantie d’indépendance.

Santé publique : clivage entre humanistes et techniciens.

Les questions de santé font apparaître de bien curieux clivages : Asselineau et Arthaud défendent une automatisation massive des soins. Mélenchon, Macron et Le Pen refusent cette déshumanisation. Les autres candidats restent flous et proposent de mettre de l’argent partout. Le principe de précaution est défendu par Mélenchon, Le Pen, Hamon et Asselineau. Fillon et Cheminade y sont opposés. Dupont-Aignan reste sceptique. Macron n’en parle pas.

Plutôt qu’un principe de précaution abstrait, Nathalie Arthaud souhaite une pénalisation dissuasive des scandales sanitaires, qui obligerait les cadres à la prudence en matière d’innovation.

Recherche : priorité nationale, comme le reste

Il faut de l’argent pour les chercheurs et les PME innovantes, tous sont d’accord ! Quelques légers clivages apparaissent autour du Crédit impôt recherche et de l’autonomie des universités, rien de grave.

L’absence de projet est plus préoccupante. Seul Jacques Cheminade fixe clairement un objectif avec son ambitieux programme spatial. Les autres candidats se contentent de promettre plus d’argent à tous, une méthode électoralement éprouvée.

Égalité, égalité !

Tous les candidats masculins ont promis une grande loi sur la parité homme/femme. Les plus libéraux comme Dupont-Aignan et Asselineau proposent des actions de communication et de labellisation des entreprises vertueuses. Mélenchon, Hamon, Macron et Fillon sont pour une parité stricte dans le public. Jacques Cheminade prône « L’Éducation du Peuple » (sic) et la camarade Arthaud assure que ça ira mieux avec un bon régime communiste.

Seule Marine Le Pen est défavorable à la stricte parité homme/femme. Elle préfère s’attaquer aux éventuels blocages point par point.

Enzo SANDRE

[1] Philippe Poutou n’a pas répondu et Jean Lassalle trop tard pour figurer dans cet article.

[2] Sans forcément être d’accord avec le reste du programme.

Principe de précaution, boulet économique ?

Dans le programme de François Fillon, en page Agriculture, on peut lire qu’il souhaite « Supprimer de notre Constitution un principe de précaution dévoyé et arbitraire. ». Il invoque la perte de compétitivité causée par ce principe et l’inflation normative qui en résulte.

La présence de cette proposition en page agriculture n’est pas innocente : le principe de précaution a déjà permis de bloquer la progression des OGM, ainsi que de nombreux intrants agricoles suspectés d’être dangereux pour les populations ou les pollinisateurs. Les partisans d’une agriculture intensive, agrochimistes et FNSEA en tête, réclament depuis des années l’abrogation de ce principe. François Fillon ne fait que la reprendre dans son programme.

Le principe de précaution constitutionnalise la primauté de l’environnement sur l’économie. Une partie des libéraux hurle contre cela, oubliant sans doute que sans environnement vivable, il n’y a pas d’hommes, donc pas d’économie[1]. Les règlementations environnementales sont des politiques de gestion du risque technicien. Aussi imparfaites qu’elles soient, elles réduisent le risque que les générations futures soient sacrifiées sur l’autel du bénéfice immédiat, ou du fameux automatisme technicien identifié par Ellul[2].

L’actuel principe de précaution est largement perfectible et les critiques de M. Fillon sont en grande partie recevables, bien que souvent hypocrites : Monsieur Fillon n’est-il pas pour l’Union Européenne, qui ne cesse de normaliser, sur ce sujet comme sur d’autres[3] ? Même si le candidat Fillon souhaitait sortir de l’UE, il lui resterait à affronter l’inertie du système républicain. Le principe de précaution, dans un état centralisé, ne peut pas donner autre chose qu’un monstre juridique tant les cas particuliers à chaque localité sont nombreux.

Autre conséquence funeste de la démocratie : Sur des sujets aussi clivants que les OGM, le parlementaire se retrouve pris en étau entre le lobbyiste et l’opinion publique. Le scientifique n’est pas non plus dans une position confortable : ses crédits dépendent fortement du pouvoir politique ou du monde de la grande entreprise, pendant que l’université française est contrôlée idéologiquement par de véritables ayatollahs de la surprotection contre les « ravages de la techno-science ». Les extrêmes sont hélas bien plus médiatiques que les nuances constructives.

Préserver l’héritage en attendant l’héritier. Le principe de précaution, malgré ses imperfections colle bien à notre objectif. Il est un bon palliatif à l’absence d’un souverain responsable, de par les garde-fous qu’il met à l’hybris technicienne et au capital sans fin. Ses défauts majeurs, que nous avons détaillés dans cet article, sont en grande partie issus de notre appartenance à l’UE et à une république incapable de donner du pouvoir aux localités. Rien de neuf sous le soleil.

Enzo Sandré


Historique du principe de précaution

François Fillon ne prend pas la peine de définir le « principe de précaution », pourtant largement polymorphe, dans son programme. Retour sur l’histoire d’une notion controversée.

Le principe de précaution est né dans les années 70, en Allemagne. Il est fortement inspiré par la philosophie d’Heidegger. Il entre dans le champ politique pour la première fois lors du Sommet de la Terre de 1992 à Rio ou il est formulé comme suit :
« En cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives visant à prévenir la dégradation de l’environnement. ».
Le principe de précaution est repris presque à l’identique en France dans la loi Barnier de 1995 en y ajoutant une condition de « coût économique acceptable ».

Le principe de précaution qu’évoque M. Fillon est celui intégré à la Constitution en 2004. Il est défini dans la Charte de l’Environnement et son but est d’empêcher des dommages potentiellement irréversibles, causés par une technique dont les effets ne sont pas encore bien connus. Le principe de précaution des années 1990 était avant tout une déclaration de principe assez inoffensive, aux conditions d’applications très floues. Le même principe, en 2004, désigne la primauté constitutionnelle de l’environnement sur l’économie.

[1] « économiser signifie d’abord et avant tout prendre soin. » rappelle Bernard Stiegler dans son manifeste Ars Industrialis

[2] L’automatisme peut être résumé par « Si on peut, on veut ». pour Ellul, il est caractéristique d’une société technicienne.

[3] Il accuse les parlementaires français de « surtransposer ». Quoi de plus normal lorsqu’il s’agit d’appliquer localement une directive générale et vague ?

Lire ou relire : Théodore Kaczynski

Théodore Kaczynski, plus connu sous le pseudonyme d’Unabomber, est un penseur néoluddite et un terroriste américain. Il est l’auteur du manifeste La Société Industrielle et son Avenir, synthèse de penseurs comme Jacques Ellul ou Georges Bernanos. Il défend la destruction complète de la société industrielle au motif qu’elle asservit inéluctablement l’homme.

J’ai souhaité écrire cet article suite à la relecture des œuvres d’Unabomber. Il est l’auteur qui m’a poussé à étudier la technique au travers d’Ellul, Mumford, Illich et d’autres. Je lui dois mon intérêt pour le phénomène technicien et souhaitais le relire, quatre ans et de nombreuses lectures après. Cet article présente les deux faces indissociables de Kaczynski : le penseur et le militant.

Le militant

Sa carrière de terroriste est entièrement ordonnée à la diffusion de sa pensée. L’analyse de ses actes révèle une intelligence stratégique et une méticulosité hors du commun. Kaczynski commence par envoyer une série de colis piégés assez artisanaux, afin de créer une agitation médiatique. Il prend bien soin de ne laisser aucune trace et se paye même le luxe de semer des fausses pistes. Après cela, il se retire pendant 6 ans, créant une attente immense auprès du grand public. Il aurait employé ce temps à peaufiner son manifeste.

 

La seconde phase commence en 1993 lorsque le criminel le plus célèbre des Etats-Unis refait surface. Prenant appui sur son immense renommée, il démarre une nouvelle campagne d’envoi de colis piégés, cette fois létaux et accompagnés de lettres. Il demande la publication de son manifeste, en échange de quoi il cessera de tuer. Faute de pistes sérieuses, le FBI recommande d’accéder à son souhait, dans l’espoir que quelqu’un reconnaisse l’auteur du manifeste.

Confondu par son frère, Kaczynski est arrêté le 3 avril 1996 dans sa cabane. Il a 54 ans, son manifeste est publié et ses actions terroristes ont donné à ses idées un écho gigantesque. Le dernier tour de force de Kaczynski fut d’être reconnu sain d’esprit lors de son procès, contre l’avis de nombreux psychiatres, tout en évitant l’exécution. Une irresponsabilité pour démence aurait été un accroc majeur dans la diffusion de ses idées.

Depuis sa cellule Kaczynski a publié plusieurs ouvrages, dont une version actualisée de son manifeste. Il communique avec ses contradicteurs et continue de rayonner. Il s’est fait capturer à un âge ou sa force physique devenait incompatible avec la vie sauvage. Sans doute envisageait-il la prison comme une retraite, qu’il pourrait employer à diffuser sa pensée. Il n’avait de toutes façons pas d’autres alternatives.

Nonobstant la question morale, la carrière d’Unabomber est un sans-faute. La succession de ses actes est une partie d’échecs : actions, retraites, tout est pensé longtemps à l’avance. Kaczynski laisse peu au hasard et déploie toute la force de son intelligence au service de sa cause. Il est bien loin de l’image du fou aveugle véhiculée par les médias. Si nous écartons son mode d’action, il est un exemple de militant efficace.

Le penseur

Dans l’imagerie médiatique, Unabomber est un tueur nihiliste, tentant de justifier ses actes par une pensée incohérente. La lecture de son manifeste révèle au contraire une réflexion certes radicale, mais très profonde, puisant ses racines dans des auteurs français et américains. La pensée de Kaczynski est une vulgarisation de celle de Jacques Ellul, il puise des inspirations dans La France contre les Robots de Bernanos et utilise des expressions propres à Lewis Mumford, Sigmund Freud ou bien Aldous Huxley.

Kaczynski résume lui-même sa pensée en quatre maximes :

  1. Le progrès technologique nous conduit à un désastre inéluctable ;
  2. Seul l’effondrement de la civilisation moderne peut empêcher le désastre ;
  3. La gauche politique est la première ligne de défense de la Société technologique contre la révolution ;
  4. Ce qu’il faut, c’est un nouveau mouvement révolutionnaire, voué à l’éradication de la société technologique, et qui prendra des mesures pour tenir à l’écart tous les gauchistes et consorts.

Tout au long de son manifeste, dans un style simple, clair et sans concessions, Kaczynski développe sa pensée. Loin d’être un pur théoricien, Kaczynski explique concrètement comment pousser la société industrielle jusqu’à son point de rupture, afin de la détruire pour qu’elle ne réapparaisse plus. Il est un militant et ce document est destiné à d’autres militants. Il ne croit absolument pas au pouvoir des masses, mais à celui des minorités agissantes, à qui il s’adresse.

Beaucoup de ceux qui n’ont pas lu Kaczynski le prennent pour un primitiviste et rejettent à raison cette pensée. Pourtant celui-ci a bien pris soin de se distinguer de ces derniers, notamment dans une série de lettres à John Zerzan. Unabomber ne souhaite pas un retour à l’âge de pierre, mais une société décentralisée, composée de paysans, d’éleveurs, de chasseurs et d’artisans, vivant en petites communautés et usant d’une série de techniques simples, dont la portée ne dépasse pas les terres environnantes. Il reprend la distinction entre Technique et techniques faite par Ellul, sous le vocable plus clair de « techniques cloisonnées » et « techniques systémiques ». Une technique cloisonnée est, pour lui, une technique pouvant être mise en œuvre par une poignée d’artisans et utilisant les ressources produites par les terres environnantes. Une définition fort intéressante à la veille d’une crise majeure de l’énergie, qui pourrait bien sonner le glas d’une révolution industrielle somme toute très récente à l’échelle des temps humains.

Enzo Sandré

Nouvelles subsidiarités : Quel est le rôle social des entreprises ?

L’entreprise au début de l’ère industrielle avait pour mission de fournir un bien ou un service de manière rentable. La main invisible du marché devait se charger de redistribuer les richesses, afin d’amener aux hommes bonheur et abondance. A l’époque il avait même été décrété que rien ne devait exister en dehors de l’entreprise, c’est dire si on y croyait. Adieu corporations, jurandes et autre reliquats d’une époque sombre. Le travailleur orphelin fut confié à sa marâtre : l’entreprise. Celle-ci devint le seul corps intermédiaire reconnu par la République.

ob_261c33_loi-le-chapelier2

Depuis, lorsque la société civile rencontre un problème, il est obligatoirement imputé à l’état ou aux entreprises, seuls corps sociaux significatifs. L’état répondra souvent par des lois qui vont s’accumuler. L’inflation législative va créer de nouveaux rôles à l’entreprise, pour lesquels elle n’est souvent pas outillée. A l’entreprise moderne, on demande d’être sobre en ressources, de ne pas polluer, de respecter les droits des animaux, d’insérer les personnes en difficulté, de ne pas discriminer les personnes transgenres issues de la diversité, de ne pas réduire ses salariés en esclavage et de ne pas trop escroquer ses clients, tout en restant rentable, rien que cela ! Tous ces rôles, autrefois assumés par des corps intermédiaires spécialisés, se retrouvent désormais dans l’indigeste notion de « Responsabilité sociétale des entreprises ».

L’entreprise n’a pas vocation à être l’avocat de la nature, la protectrice de la veuve intérimaire et du stagiaire orphelin ou la garante des règles de l’art. Son rôle est de produire de la richesse. L’état se fourvoie lorsqu’il greffe artificiellement des rôles sociaux à l’entreprise : elle cherchera toujours à les esquiver. L’entreprise doit avoir des responsabilités, mais elle ne saurait avoir un autre rôle que la création de richesse.

Les rôles sociaux doivent être joués par des corps intermédiaires dont l’intérêt intrinsèque est de les assumer, par exemple les corporations, les syndicats ou les corps territoriaux. Ces corps ne doivent surtout pas tirer leur pouvoir et leur légitimité d’une patente étatique, mais des personnes qui les composent. Ce sont les frictions entre ces corps intermédiaires arbitrées subsidiairement par le pouvoir politique, qui doivent définir les règles.

1155908_code-du-travail-pour-que-la-reforme-fonctionne-web-tete-021327785646_660x352p

En détruisant les corps intermédiaires, les libéraux ont créé une bombe à retardement : la société ne cesse pas d’avoir des revendications et faute d’exutoire, c’est l’entreprise qui doit y faire face. L’entreprise doit redevenir un corps social comme un autre si elle ne veut pas couler sous le poids des rôles artificiels que la société lui attribue. Son rôle privilégié en fait la cible des demandes les plus légitimes, comme les plus illégitimes. Le millefeuille règlementaire qui en résulte la tue.

Enzo Sandré

Rue Steve Jobs : Les précurseurs français d’Internet oubliés

Quel est le point commun entre Louis Pouzin, Gérard le Lann, François Flückiger, le projet CYCLADES et le Minitel ? Ils sont français, ont eu un rôle majeur, sinon crucial dans le développement de l’Internet moderne et n’ont pas de rue à leur nom. Contrairement à Steve Jobs, immortalisé par le maire socialiste du XIIIème arrondissement, qui aura prochainement sa trimarde dans la capitale.

Sans la France, sans ces ingénieurs aujourd’hui oubliés, Internet n’existerait pas. Peut-on en dire autant de Steve Jobs ? Rappelons le passif du personnage : commercial de génie, n’ayant jamais rien produit par lui-même ; véritable tyran d’entreprise, terrorisant tout autant ses salariés américains que les esclaves chinois travaillant pour lui ; fossoyeur de l’Internet libre, préférant un écosystème logiciel fermé et honteusement cher. Le personnage est bien sûr loué par tous les bien-pensants, les guerriers de la justice sociale et autres consommateurs de café équitable, plus avides de conformisme que de cohérence. Ils voient en lui un « visionnaire », un « innovateur », un « génie parti trop tôt » voire même un « artiste du capitalisme », bigre !

En France, ce pays d’ingénieurs de haut vol, les élus socialistes préfèrent un escroc, un imposteur et un marchand aux dignes artisans d’Internet. Faire de Jobs un modèle pour la jeunesse, c’est encourager le pillage anglo-saxon sur l’inventivité française. C’est gonfler l’égo de commerciaux déjà pleins de morgue. C’est encore un fois rabaisser la valeur du travail honnête et rémunérateur pour encourager le vol, la spéculation et la médiocrité. C’est donner raison à la consommation compulsive d’appareils monolithiques, jetables lorsqu’une nouvelle version sort.

Une rue qui a toute sa place dans le Paris du XXIème siècle, hélas.

Enzo Sandré


  • Louis Pouzin est l’inventeur du datagramme, capsule de données à la base des réseaux informatiques, dont Internet.
  • Gérard Le Lann est un des architectes des protocoles TCP/IP, squelette de l’Internet moderne. TCP est une amélioration du datagramme de son collègue Pouzin.
  • François Flückiger, scientifique au CERN, est un des bâtisseurs du réseau Internet européen contemporain.
  • Le projet CYCLADES fut une expérience française (IRIA) de réseau alternatif à ARPANET. Ce fut finalement ce dernier qui servit de base à Internet, non sans avoir absorbé les bonnes idées et la plupart des ingénieurs du premier. Sans CYCLADES, ARPANET n’aurait probablement pas été viable et Internet n’aurait pas existé.
  • Le Minitel fut un réservoir d’idées pour l’Internet naissant à l’époque. Il lui est injustement reproché le retard d’accès à Internet des Français.

L’informatique a-t-elle un avenir ?

bougie

Récemment, le président Barack Obama a accordé un entretien au magazine Wired[i], sur la robotisation, l’Intelligence Artificielle et la réduction du temps de travail. Le président américain prédit un avenir ou le travail humain sera remplacé progressivement par des machines, et les bénéfices reversés à la société toute entière. Un discours vieux de deux siècles, sans cesse remis au goût du jour[ii].

De notre point de vue, un futur où le travail est robotisé n’est absolument pas crédible. Nous allons même plus loin, en déclarant que dans la majorité de ses usages actuels, l’informatique n’a aucun avenir. Le monde de demain sera contraint en énergie, soit par manque de ressources, soit afin de ne pas dérégler massivement le climat. La plupart des spécialistes s’accordent à le dire : les énergies fossiles en général et le pétrole en particulier, voient déjà leur production décroître[iii] et ni les renouvelables, ni la fusion ne viendront nous sauver dans les prochaines décennies[iv]. La récession actuelle est donc là pour durer, balayant sur son passage tout l’accessoire.

Soyons clairs : l’informatique n’est pas économe. Les immenses fermes de serveurs, les innombrables routeurs assurant le transit mondial des données, les nombreux ordinateurs personnels et autres gadgets connectés consomment environ 10% de l’électricité mondiale[v], soit l’équivalent de la production d’électricité nucléaire.

Les utilisations de cette technologie sont, pour la plupart, soit énergivores, soit accessoires, soit les deux. Dans un monde contraint en énergie, l’informatique n’aura sa place que dans deux cas de figure : le remplacement de secteurs encore plus énergivores qu’elle et un nombre réduit de secteurs coûteux en énergie, mais pour lesquels les particuliers, les entreprises ou l’état sont prêts à payer cher. L’informatique de remplacement inclut par exemple les solutions de vidéoconférence, se substituant aux voyages en avion dans les milieux d’affaires. L’informatique énergivore est par exemple le e-commerce, pure annexe des transports. Il est à parier que les usages récréatifs et/ou nuisibles (pornographie notamment) deviendront un plaisir d’élite s’ils ne disparaissent pas complètement.

L’informatique de masse ne peut pas être viable. L’épuisement des terres rares va rendre obligatoire le recyclage minutieux de chaque unité, renchérissant le coût en énergie de chaque unité produite. Dans un contexte de tensions énergétiques, cela signifie un prix croissant des nouvelles machines. La mutualisation des machines risque de devenir la norme et le PC personnel un luxe. L’accroissement de la puissance de calcul unitaire devrait ralentir, pour se caler peu ou prou sur l’accroissement de l’efficience énergétique. La consommation énergétique par unité a peu de chances d’augmenter dans les machines grand public.

Si nous devions nous risquer à dessiner l’avenir chez les particuliers, ceux-ci recentreront sans doute leurs moyens autour d’un PC familial, doublé d’un smartphone professionnel basique selon les cas, le tout communiquant avec un nombre plus limité qu’aujourd’hui de services. L’avenir ne sera certainement pas dans la prolifération des sex toys connectés et autres brosses à dents intelligentes.

Du côté des entreprises, seules celles qui trouveront un avantage réel à s’informatiser davantage le feront. L’effet de mode et la simple technophilie cèderont la place au dur calcul économique. Le secteur numérique, aujourd’hui en plein boom, pourrait se retrouver du jour au lendemain en grave crise, comme lors de l’explosion de la bulle Internet. Brisons de suite un mythe répandu : non, le tertiaire n’est pas économe en énergie. Mettre quelqu’un dans un bureau signifie qu’il faut le remplacer par une machine dans le secteur primaire ou secondaire.

Dans les gros systèmes centralisés, la part de l’énergie consacrée au fonctionnement du système lui-même, par rapport aux applications hébergées augmente[vi]. La tendance sera donc à la décentralisation et aux systèmes distribués, dès que les économies d’échelle auront été annulées par le renchérissement du coût de l’énergie.

Les utopies californiennes d’un monde où robots et intelligences artificielles remplaceraient les humains à la tâche prennent du plomb dans l’aile. Le remplacement de l’homme par la machine ne vaut que tant que le coût de l’heure de fonctionnement de celle-ci (incluant son amortissement), dépasse les salaires des ouvriers qu’elle remplace. Le renchérissement du coût de l’énergie viendra rapidement remettre l’homme au travail. Les bras aujourd’hui au chômage ne suffiront pas à combler le manque d’énergie qui s’annonce. La « crise » de 2008 n’en est pas une. Elle est le début d’une récession mondiale après le passage du pic pétro-gazier. Cette récession remet en question de nombreux « progrès » de la société moderne, qui fondront comme neige au soleil face à la dure réalité physique. L’informatique en fait partie, tout comme l’internet libre, très belle idée, hélas irréaliste dans un monde à l’énergie contrainte.

[i] https://www.wired.com/2016/10/president-obama-guest-edits-wired-essay/

[ii] JARRIGE François, Technocritiques

[iii] En 2010, l’Agence Intenationale de l’Énergie déclarait que la production de pétrole ne dépasserait jamais le niveau de 2006 : le fameux pic du pétrole.

[iv] La fusion commerciale est estimée au mieux pour 2090

[v] Cloud begins with Coal, Digital Power Group, 2013

[vi] LUSSATO Bruno, La Troisième Révolution