Techniques au travail, Technique dans la Cité : Le mur de l’atelier devait-il tomber ?

Texte de mon intervention orale du 25 août 2018 au Camp Maxime Real del Sarte à Parigny.

Un lieu commun syndical voudrait que la séparation domicile/travail soit un acquis social, en permanence attaqué par le capitalisme vorace. C’est aller un peu vite aux conclusions. La thèse que je vais défendre est autre : il s’agit avant tout d’une affaire de Technique, non de politique.

Regardons l’histoire. Sans remonter à une Antiquité que je connais assez mal, au Moyen-Âge, à moins que vous soyez un marchand ou un transporteur, votre activité professionnelle se déroulait dans le cadre domestique. Le paysan travaillait à la ferme et l’artisan également sauf en cas de chantier. L’atelier ou le bureau étaient toujours à domicile. Vos collaborateurs étaient très souvent votre famille, l’épouse tenait la boutique et les comptes, les enfants étaient apprentis, chez leurs parents ou chez d’autres maîtres qui les logeaient. Le transport était lent et coûteux, la communication orale directe bien plus efficace.

La Renaissance connaît une première fissure dans le mur de l’atelier. L’apparition de l’horloge et de l’imprimerie séparent le cabinet du riche bourgeois, proche des lieux de pouvoir, de sa villa plus éloignée. En même temps, l’apparition du moulin à eau change les modes de production. L’Europe acquiert sa première source d’énergie pilotable centralisée (par opposition aux énergies fatales, vent par exemple et aux énergies décentralisées, comme le bétail). C’est désormais la disponibilité en ouvriers qualifiés qui limite la production. La Renaissance voit les maîtres-artisans se concentrer dans les manufactures, lieux optimisés pour une production à l’aide de machines-outils fonctionnant sur une source d’énergie puissante et centralisée.

Il faut attendre l’âge industriel pour voir le mur de l’atelier tomber à nouveau. Le gigantesque besoin de main d’œuvre et la faible vitesse des transports poussent les entreprises à loger leurs employés. A Nord c’était les corons dit la chanson, mais il n’était pas rare non plus que le capitaliste dorme à l’usine ou à la bourse. La seconde révolution industrielle voit l’apparition des banlieues pavillonnaires, véritables tissus adipeux des villes. La bagnole, si violemment dénoncée par André Gorz a permis l’éloignement géographique de la main d’œuvre.

Il faut attendre les années 2000 et Internet pour réunir à nouveau partiellement le domicile et le travail. Ces dernières années ont amplifié ce phénomène. Le cadre qui consulte ses mails dans le lit conjugal et le géant du web qui fait habiter ses salariés sur son lieu de travail participent du même phénomène. On notera aussi la mode des conciergeries d’entreprise, véritables auxiliaires de vie traitant le lavage, le repassage, la garderie, et j’en passe pour les salariés. Tout est fait pour maximiser le temps efficace du travailleur dans l’entreprise, souvent sous couvert de convivialité.

Notez que ces mutations ne sont pas une affaire de classe sociale ou de volonté politique. La caissière comme le trader sont touchés et même les patrons des GAFAM n’arrivent pas à complètement isoler leurs enfants de ces phénomènes. Les politiciens, tous pays confondus sont parfaitement désemparés face au phénomène. Instaurer un droit à la déconnexion est parfaitement vain face à l’ampleur de la déferlante. Dans une société technicienne, rien ne peut s’opposer à la marche de Technique, surtout pas le politique.

Toute technique modifie le rapport entre l’homme et le réel. Tout homme qui travaille produit des biens, des services ou des informations. Il est évident que toute technique modifiant la circulation des biens, des services ou des informations, modifiera très largement la société, mais plus particulièrement le rapport entre le domicile et le travail. Quand la transmission d’informations avec ses inconvénients est plus efficace que la rencontre physique avec le coût de transport, le domicile et le travail se séparent. Les technologies de l’information ont tendance à rapprocher le domicile du travail alors que les progrès dans les transports les éloignent.

Un autre phénomène modèle les rapports domicile/travail : la densité énergétique nécessaire au travail. Les concentrations manufacturières puis industrielles en sont des exemples : concentrez l’énergie, vous concentrez les lieux de travail de nombreux travailleurs en un point. Ce point n’est jamais le domicile d’un seul travailleur. Si les transports du moment ne permettent pas le déplacement pendulaire quotidien des salariés, les besoins de l’industrie les concentreront autour, voire dans l’usine. Les embouteillages chroniques de la Silicon Valley sont une des raisons qui poussent Apple et Google à loger leurs employés sur place.

Considérations sociales : est-ce souhaitable ?

Nous avons décrit ce phénomène comme étant cyclique et inéluctable si les technologies sont disponibles, étudions maintenant les avantages et les inconvénients de cette fusion entre domicile et travail, à l’heure actuelle.

Les principaux avantages de la chute du mur de l’atelier sont d’ordre écologiques : économies sur le trajet domicile-travail, diminution des surfaces de bureaux nécessaires et disparition des quartiers dortoirs. Le quartier redevient un lieu de vie, où les gens travaillent, habitent, commercent et se rencontrent. La souplesse dans son emploi du temps permet au travailleur d’avoir une activité associative et politique parallèle à son travail. La Cité renaît. Le télétravail permet des déplacements plus occasionnels du salarié à son lieu de travail, ce qui laisse sa chance à la ruralité. Un trajet quotidien de 2h est intolérable pour la plupart des salariés, il ne pose aucun problème pour une réunion hebdomadaire au siège de l’entreprise. Pour peu que la campagne s’équipe en télécommunications mobiles, elle attirera des cadres aisés capable de relancer l’économie locale. Enfin, la présence du travailleur à son domicile lui permet d’assumer un important travail fantôme, éducation des enfants, entretien du foyer, aide à la collectivité. Autant de tâches retirées au marché, rentrant donc à nouveau dans le champ du gratuit, ciment d’une communauté. Les familles éparpillées peuvent à nouveau faire souche si elles le souhaitent.

Cependant, ce tableau idyllique d’une France retrouvée ne doit pas occulter les inconvénients de l’absence de séparation entre domicile et travail. Le plus évident est la présence du patron dans la vie privée du salarié. Pire encore, la présence de votre moitié et de vos enfants en permanence sur votre lieu de travail. Des tyrans souvent contradictoires. Ensuite, le travail à domicile souffre de nombreux inconvénients pour qui travaille en équipe. Les télécommunications ne remplaceront jamais le contact humain direct, car elles réduisent bien souvent le langage à sa seule composante orale, occultant la gestuelle, le non-verbal, etc. L’absence de présence physique des collègues ne permet pas une véritable cohésion, autour de la machine à café ou de la pause de midi par exemple. La souplesse de l’emploi du temps a un revers : le manque de concentration. L’attention est sans cesse saisie par des taches multiples et le cerveau a besoin d’un temps non-négligeable pour se concentrer à nouveau après un changement de contexte. Le bureau permet plus facilement de se concentrer. Au domicile cela requiert une discipline monacale. Enfin, n’oublions pas le coût écologique des télécommunications, parfois bien plus élevé que les transports qu’elles remplacent. Le numérique vert est une vaste supercherie, le seul fonctionnement d’Internet est le premier poste de consommation d’électricité mondial. Ne parlons pas des ressources nécessaires à l’assemblage des ordinateurs, serveurs, routeurs et câbles.

A chaque métier son fonctionnement

Ma conclusion est d’abord un appel à ne pas être dogmatiques. Mes propositions vont être un appel aux professionnels mais aussi aux politiques.

Il est évident tout d’abord que certaines professions ne pourront jamais permettre une fusion domicile/travail, sauf à revenir aux heures les plus sombres de la Révolution Industrielle. C’est le cas pour tous les professionnels sur les chantiers, mais également dans l’industrie lourde. Les métallos, les mineurs de tungstène ou les constructeurs de missiles auront des difficultés à ramener le travail à la maison, vous en conviendrez. Cependant, cette concentration industrielle peut être réduite par un recours raisonné à une nébuleuse de sous-traitants plus petits et mieux répartis sur le territoire grâce aux technologies du transport et aux télécommunications. L’exemple du pôle aéronautique de Figeac doit servir de modèle.

Ma première proposition est de faire de la grande entreprise une affaire politique, soumis à un régime d’autorisation réservé aux seules industries de puissance. Les implications sociales, écologiques et géographiques de ces mastodontes sont trop lourdes pour être laissées à la seule loi du marché.

Pour toutes les autres entreprises, le choix doit être laissé aux salariés, sans régime incitatif dans aucun sens. Travailler chez soi ou à l’atelier doit être une liberté fondamentale et une responsabilité du professionnel. Chacun des modes de travail présente ses avantages et inconvénients, nous l’avons vu, seul le professionnel responsable sait quand rester à son domicile et quand se réunir dans les locaux de l’entreprise.

L’espace urbain doit être réorganisé pour faciliter ce choix. La mode des espaces de coworking doit se pérenniser afin de réduire la surface et donc l’empreinte écologique des bureaux. La rotation des salariés permet évidemment une réduction du nombre de bureaux utilisés en même temps. La numérisation des documents rend obsolète le bureau nominatif, servant également de zone de stockage. Ils sont amenés progressivement à être remplacés par des sièges minimaux, simples lieux de rencontre pour les parties prenantes de l’entreprise, plus que lieu de travail.

Au cœur des villes, il faut encourager les maires et cafetiers à recréer des espaces collectifs calmes et beaux : parcs, places ou bâtiments, équipés en WiFi et en tables, qui permettraient aux professionnels de recréer des communs, permettant autant de travailler que d’échanger et de prendre une pause. L’urbanisme des cubes de béton anonymes doit être démoli pour recréer des points de convergence.

Enfin, le raccordement des zones rurales à Internet doit être encouragé afin de redynamiser ces territoires. Des aides peuvent être accordées aux salariés pour l’installation d’un réseau haut-débit à leur domicile, par exemple. Il serait également temps d’ubériser les bus, pour créer un réseau de transports collectifs à la demande.

J’encourage chacun d’entre vous à porter ces propositions dans son entreprise ou dans sa mairie. Elles sont simples à mettre en œuvre, ne nécessitent que peu d’efforts des politiques et des patrons.

Enzo Sandré

Vers la fin (de la neutralité) d’Internet ?

Le 14 décembre 2017, la FCC[i] a officiellement mis fin à la neutralité du net. Hurlements du côté des « défenseurs des libertés » pro-neutralité, cris de joie du côté des « défenseurs des libertés » anti-neutralité. Cette décision n’est pourtant qu’un symptôme : la toile craque sous le poids des géants du web.

Le postier libre dans le monde libre

Revenons aux origines : Internet était un petit réseau reliant des utilisateurs de taille comparable, souvent à la fois clients[ii] et serveurs[iii]. Le réseau est conçu pour dissocier complètement la couche physique (transmission des informations) du transport (adressage, routage) et de l’information transmise. Pour prendre une image, n’importe quel colis bien adressé peut aller n’importe où en passant par un nombre indéterminé de bureaux de poste, qui communiquent entre eux comme bon leur semble (avion, barque, etc.). Implicitement, le postier n’avait pas le droit de discriminer le colis selon son origine, sa destination, son poids ou son contenu, par exemple en forçant les gros colis à prendre le bateau. Cette neutralité de fait d’Internet a permis son essor face aux réseaux concurrents.

Mon postier est surchargé

La neutralité de principe n’existait pas avant 2004, car elle allait de soi dans un réseau décentralisé. Quand la FCC adopte une déclaration sur la neutralité du net, il s’agissait déjà de sauver ce principe dans un réseau en cours de centralisation.

Les états, renseignement et justice en tête, ne pouvaient pas laisser cette immense cour de récréation sans surveillance. Avènement des pandémies informatiques, expansion du crime ou du simple délit contre le droit d’auteur : Internet devait être surveillé et censuré au besoin. Même les plus grands défenseurs de l’Internet Libre n’ont rien vu à redire. Certains hypocrites craignent une censure extra-légale par les opérateurs privés avec la fin de la neutralité. N’est-ce pas déjà le cas ? L’affaire Stormfront évoquée dans nos colonnes n’est pas autre chose, au nom de la lutte contre les discours de haine. Que dire des réseaux sociaux, véritables sous-réseaux d’Internet, qui censurent à tour de bras ?

Les nouveaux usages d’Internet ont polarisé le réseau : une multitude d’utilisateurs ne fournissant aucune ressource consommant des plateformes toujours plus fréquentées. Pour relier plusieurs villages autonomes, un réseau de petites routes fonctionne très bien. Autour d’une grande ville, vous devrez créer des autoroutes, des ponts, des métros. Internet fonctionne de la même manière. La polarisation crée de la centralisation, qui crée des coûts d’infrastructure.

L’infrastructure d’Internet est gérée par des transiteurs, dont les FAI[iv]. Ils doivent dimensionner la taille des tuyaux au volume qui y circule. Avec la neutralité du net, ils n’ont pas le droit de ralentir ou bloquer un flux sur la base de son contenu, de sa source ou de sa destination. Les transiteurs se voient obligés d’accepter le tout-venant et de dimensionner leurs infrastructures en conséquence. La neutralité du net a un effet pervers : elle permet un chantage des plateformes envers les transiteurs. Un exemple : YouTube est très apprécié des utilisateurs, qui se plaignent auprès de leur FAI à la moindre lenteur (« je paie pour ça »). Le FAI fait pression sur le transiteur pour augmenter la taille du tuyau le reliant à YouTube. Le transiteur doit réaliser des investissements assez lourds auquel YouTube refuse de participer, arguant que le tuyau bâti pour lui est neutre, donc théoriquement utile à tous. Les abonnements à la carte étant interdits par la neutralité du net, le coût est globalement répercuté sur l’utilisateur final.

Internet : une ressource

La fin de la neutralité du net va coûter cher aux plateformes comme YouTube ou Netflix, obligées de partager la facture de transit avec les utilisateurs qui les regardent. Pour la France, ce sera la seule conséquence de cette décision américaine, à moins que les autorités européennes ne décident d’en finir elles aussi avec la neutralité du net.

La fin de la neutralité est un symptôme de l’internet-marché : un portail de services à la carte. 5€/mois pour YouTube, 10€ pour Google, ne laissant pas de place en dehors des géants prêts à payer pour y figurer. L’utilisateur possèdera un simple terminal, sorte de smartphone verrouillé où l’on ajoute des applications.

L’avenir d’Internet est sombre, mais il est tout à fait probable qu’un autre réseau le remplace dans les années à venir. Il devra éviter les trois écueils qui tuent Internet : régulation des géants qui déstabilisent physiquement le réseau (GAFA, mais aussi FAI obèses), chiffrement intégral des échanges pour éviter les intermédiaires trop curieux et atténuation de la dichotomie client/serveur (P2P, réseau distribué).

La liberté du réseau a un prix, incompatible avec sa centralisation.

[i] Federal Communications Commission, l’autorité régulatrice des télécoms aux USA.

[ii] Le client demande une ressource sur le réseau

[iii] Le serveur fournit une ressource à la demande

[iv] Fournisseurs d’accès à Internet

Les “alternet” sont-ils viables ?

S’estimant privés de leur liberté d’expression, les groupes d’alt-right américains s’organisent face à la censure des géants de la Silicon Valley, très marqués à gauche. Posséder son propre serveur n’est aujourd’hui plus suffisant : les entreprises gérant l’infrastructure d’Internet n’hésitent pas à filtrer jusque dans les couches les plus basses du net : déconnexion de serveurs, retrait de noms de domaine, etc. Stormfront et The Daily Stormer, deux sites d’information de l’alt-right ont eu leur domaine retiré. Le site d’écoute musicale Spotify, le site de rencontre OkCupid et Paypal bannissent les prétendus « nazis » hors du web. Facebook et AirBnb ont supprimé les comptes liés à la manifestation de Charlottesville. Des centaines de comptes Facebook et Twitter sont suspendus chaque jour, y compris en France.

Pour l’instant, la censure extra-judiciaire ne concerne que les terroristes et « la haine », réelle ou soupçonnée. Les hypocrites défenseurs de la neutralité du net peuvent donc encore faire semblant de croire que cette dernière, morte depuis des années, existe toujours.

Une réussite très élitiste

Le réseau social Gab , fer de lance de la contestation, a proclamé le 10 août dernier la naissance de la « Free Speech Tech Alliance ». Cette alliance de professionnels doit permettre à terme la création d’un véritable « Alternet » : une partie d’Internet débarrassée de la Silicon Valley et de sa censure morale. Sur le papier, le projet sonne bien, mais sa viabilité est questionnable.

D’autres ont essayé avant eux, la réputation sulfureuse en moins. Depuis les années 90 les groupes crypto-anarchistes combattent l’Internet centralisé qui a accouché des fameux GAFA. Leur credo ? Les méthodes de chiffrement utilisées massivement doivent permettre la protection des échanges. Si vous envoyez un message chiffré, ce message est suspect pour d’éventuels attaquants, qui tenteront de le déchiffrer. Si vous chiffrez tout jusqu’à votre liste de courses, le volume de données sera trop important pour être traité.

Le succès de ces activistes est mitigé, malgré leur présence très importante dans le monde du logiciel libre. C’est une réussite technique très élitiste : l’essor des crypto-monnaies, des réseaux cachés, des darknets et des blockchains le prouve. Leurs seules réussites « grand public » sont la généralisation du protocole web chiffré HTTPS (car largement soutenu par la banque et le e-commerce) et la généralisation de messageries instantanées supportant le chiffrement de manière limitée (Telegram, Messenger …)

Difficile de réformer internet

Le projet de la Free Speech Tech Alliance est plus ambitieux. Une poignée de militants peut parfaitement communiquer à l’insu des services de renseignement, Daech et les fameux « hackers russes » de la campagne américaine l’ont prouvé. Pour toucher un public plus large, donc bien moins formé, il faut des outils plus conviviaux, ayant une certaine masse critique pour se faire connaître, mais surtout contrôlant toutes les couches du réseau.

Les réseaux informatiques fonctionnent comme un empilement de couches techniques (modèle OSI). La plus basse est la liaison physique, le signal électrique, lumineux, radio qui permet d’acheminer les données. La plus haute est constituée des programmes utilisant le réseau. Chaque couche est en principe indépendante des autres : on peut faire passer la même information par différents chemins sur le réseau, utilisant diverses technologies (fibre, ADSL, 4G) sans que cela change quoi que ce soit à l’arrivée.

Celui qui contrôle les couches les plus basses peut toujours censurer les couches au-dessus. Coupez le câble réseau, l’application la plus performante tombe. Un site Internet, un service de noms de domaine (DNS) se situent tous sur la dernière couche du réseau. Les géants du net contrôlent les couches inférieures : ils peuvent censurer à volonté.

Si l’alt-right a pour ambition de créer son propre safe-space sur Internet, elle devra bâtir toute une infrastructure. Elle doit donc posséder à minima : ses hébergeurs[1], ses bureaux d’enregistrement de noms de domaine[2], ses autorités de certification[3], ses fournisseurs d’accès à Internet[4] et ses transiteurs de contenu[5]. Tous ces acteurs doivent être utilisés par une certaine masse de sites lambda afin d’être indispensables à la vie d’Internet et ne pas se faire censurer. S’ils ne sont utilisés que par l’alt-right, ils seront rapidement mis au ban d’Internet. Chacun de ces acteurs nécessite des millions de dollars d’investissements, plusieurs années de dissimulation et des centaines de professionnels. L’alt-right a-t-elle les épaules de ses ambitions ?

Je n’ai évoqué ici que les cas des USA. Dans les pays où l’état se mêle de liberté d’expression comme en France, il faut aller bien plus loin, parfois contre la loi ce qui rend toute solution grand public complètement irréaliste. Dans notre pays, l’Internet libre ne sera toujours qu’un fantasme. Sauf changement politique radical, la liberté d’expression ne pourra qu’être le luxe d’une avant-garde de techniciens.

Enzo Sandré

[1] Mettent des machines connectées 24/24 à disposition de clients : sites Internet ou logiciels divers.

[2] Permettent de retrouver une ressource à partir d’un nom simple à retenir : enzosandre.fr par exemple

[3] Délivrent des certificats permettant de s’assurer qu’un contenu est bien émis par qui de droit

[4] Connectent les particuliers au réseau Internet, ils sont la première ligne de la censure.

[5] Les « plombiers » du net : ils connectent tous les acteurs ci-dessus entre eux via de vastes réseaux régionaux

Google au secours des obèses de l’Internet

QUIC, SPDY et maintenant BBR. Les initiatives de Google sont louables, mais vaines.

Pour prendre une image : C’est comme agrandir les portes pour laisser passer les obèses. Quand ils auront encore grossi ils ne passeront plus. De plus l’agrandissement des portes n’apporte rien aux gens bien-portants et peut même en inciter certains à se laisser aller puisqu’il est aussi facile de vivre obèse que sain.

La seule solution pérenne capable de sauver la neutralité du net et Internet en général, c’est de dégraisser.
Non, une page web de 1Mo n’est pas normale. En comparaison, les œuvres complètes de Shakespeare pèsent 100 fois moins !
Même une vue Google Maps ne dépasse pas 500ko.

Mais pour ça encore faudrait-il que les développeurs web se forment à ne plus être des porcs. Il faudrait d’abord qu’ils aient conscience d’être d’ignobles saligauds, ce qui pose la question de créer un label de qualité, voire de réglementer l’accès à la profession pour les pires d’entre eux.

Salopez le serveur avec votre code bancal c’est vous qui payez, mais ne refilez pas votre chtouille au client. Si votre site ne peut pas être chargé en moins de deux secondes par la mamie du Cantal sur son ADSL (1Mb/s) c’est de la merde. Point, fin du débat.

Les administrateurs réseau se cassent le cul depuis 20 ans à accélérer le web. La seule réponse des devs web a été d’alourdir encore les pages. C’est comme si les constructeurs automobiles avaient profité de la sobriété en carburant des nouveaux moteurs pour créer des bagnoles à 24 cylindres.Très responsable comme comportement.

Je n’épargne pas les graphistes, qui ont pris tellement de drogues ces dernières années qu’une page doit à minima avoir 3 carrousels et 2 images en 4K et 18 feuilles de style pour être considérée comme belle. Même Pieter Bruegel faisait moins chargé que vos bouses.

Lussato avait averti dans les années 80 : soit l’informatique s’amende, s’allège et privilégie les microsystèmes décentralisés, soit elle crèvera de sa centralisation et de son obésité, devenant le jouet exclusif de quelques multinationales. Et ce sera bien fait.

Enzo Sandré

La décentralisation énergétique, un projet au bénéfice du localisme ?

Article de Théophile Ducran-Lapoigne, faisant partie du dossier « L’avenir de la production d’énergie » coordonné par mes soins.


Le point de départ : la nécessité de réforme du système français

Au lancement de son programme nucléaire civil en 1958, les objectifs de la France étaient de se doter de capacités de production d’énergie à bas coût, en grande quantité, et sans que leur mise en place ni leur fonctionnement ne puisse opposer de quelconques menaces à l’indépendance nationale.
Cela fût fait. En 2017, la France est le pays d’Europe occidentale où l’électricité est la moins chère, et possède un parc nucléaire de 58 réacteurs répartis dans une quinzaine de centrales, ce qui en fait le pays le plus « nucléarisé » au monde par habitant.
Ainsi, ce système de grandes centrales, réparties inéquitablement sur le territoire, s’appuie sur un vaste réseau de transport et de distribution d’électricité.

Les activités de production, de transport, de distribution, et de fourniture d’électricité ont été déposées, à l’origine, entre les mains d’un « champion » national : Électricité de France.

Toutefois, ce système centralisé du « tout-nucléaire » présente aujourd’hui ses limites : du coût de démantèlement des centrales – qui ne sont, hélas, pas éternelles ! – à celui de gestion des déchets nucléaires, de nombreux obstacles s’accumulent au fil du temps.
En effet, pour des raisons propres à l’énergie nucléaire, mais aussi inhérentes à lui-même, le système français s’avère difficilement compatible avec les exigences écologiques contemporaines.
Par définition, un système centralisé offre un résultat puissant – et la France en sait quelque chose ! – mais génère inévitablement des pertes. A titre d’exemple, seule 1/3 de l’énergie brute produite par une centrale nucléaire est transformée en électricité – le reste étant évacué à travers les tours de refroidissement.
Compte tenu des exigences croissante d’économie d’énergie, un tel blocage apparaît comme de moins en moins acceptable.

De là, la décentralisation énergétique apparaît comme une solution viable sur les plans économique et écologique.
Cette notion peut se définir comme la distribution des capacités de production d’énergie par région, de manière à ce que les unités de production se trouvent géographiquement proches des consommateurs finaux, limitant ainsi l’utilisation du réseau de transport et offrant des capacités de résilience locale.

En effet, ce système comporte un certain nombre d’avantages qui lui permettraient de combler efficacement les lacunes de notre « tout nucléaire-centralisé » gaulois, et, sur le plan politique, d’encourager un retour au localisme.

Quel calendrier pour un nouveau système décentralisé ?

Il faut d’abord poser un premier axiome : le processus de transition énergétique, sera inévitablement accolé à la méthode de la décentralisation énergétique. Objectif et méthode s’accordent donc.

De plus, la transition énergétique vers des énergies vertes – ce que l’énergie nucléaire n’est pas, étant « décarbonnée » mais néanmoins productrice de déchets dangereux pour l’environnement et la santé – pourrait être achevée en France d’ici 2080.
La décentralisation énergétique n’est donc pas une solution sur-mesure applicable instantanément, mais résultera d’un processus national de long terme découlant de politiques publiques cohérentes.

Quels outils ?

Les énergies renouvelables portent un maître-mot : la résilience.
Par ce terme, il doit être entendu la résistance économique et humaine à l’absence de production d’énergie par une unité sur une courte période. En effet, la production d’énergie renouvelable dépend intégralement des conditions météorologiques du lieu où elles se trouvent.
Par conséquent, il n’est pas possible de prévoir avec certitude la production d’un parc solaire photovoltaïque, ni celle d’une ferme éolienne.
Cela suppose donc l’installation d’une variété de sources de production d’énergie, complémentaires entre elles.

La spécialisation au service de la variété

Chaque terre de France possède des caractéristiques naturelles différentes.
Ainsi, l’ensoleillement en Provence n’est pas le même qu’en Bretagne ; de même que l’Aquitaine, dont les côtes sont venteuses, n’a pas une activité géothermique aussi importante que celle du bassin parisien.
Ainsi, les capacités de production, mises sur pieds par région, devront répondre aux spécificités de l’écosystème local.

Un réseau de transport et de distribution renouvelé

Le système de production par région implique un renouvellement complet du système de transport et de distribution d’électricité. Jusqu’à présent, les lignes à haute-tension et très haute-tension partent des centrales, et sont connectées à des réseaux à basse-tension jusqu’à la fourniture finale. Ce système implique une logistique complexe, et des pertes notables, même s’il permet de « déplacer » l’électricité sur de longues distances.

Une production locale organisée selon une superposition des mailles territoriales

Une autre caractéristique majeure de la décentralisation énergétique est le régionalisme.
En effet, la production décentralisée ne doit pas devenir un ensemble de mini-systèmes centralisés, mais elle doit être organisée selon la superposition de mailles territoriales.
Ainsi, l’on pourrait aisément imaginer un système où 50% de la production serait mis à la charge des départements, et 25% à celle des régions et communes.
Cela étant, les communes bénéficieraient aussi du développement de la production domestique.

Le rôle de la production domestique

La production domestique, c’est-à-dire l’installation de capacité de production d’énergie directement au sein des foyers, devrait permettre de renforcer leur autonomie vis-à-vis des grands fournisseurs (EDF, Engie).
Cela étant, en subventionnant l’installation de telles capacités de production, les collectivités territoriales seraient en droit d’espérer un dopage de l’économie locale, notamment en matière d’emploi, voire de recherche.

Pour conclure, la question qui peut se poser est la suivante : dans quelle mesure la relocalisation des moyens de production d’énergie peut-elle avoir un impact sur le localisme politique ?

Toute activité commune étant source d’union, il est très probable que des populations, qui, au niveau local, se regroupent pour prendre en charge leur propres besoins en énergie, seront amenées à renforcer leur esprit de communauté, et, par extension, leur sentiment d’enracinement.
Reste à voir par quels biais politiques la décentralisation énergétique sera mise en place. Quoi qu’il en soit, il devrait être possible d’en tirer parti.

Théophile Ducran-Lapoigne