Les « alternet » sont-ils viables ?

S’estimant privés de leur liberté d’expression, les groupes d’alt-right américains s’organisent face à la censure des géants de la Silicon Valley, très marqués à gauche. Posséder son propre serveur n’est aujourd’hui plus suffisant : les entreprises gérant l’infrastructure d’Internet n’hésitent pas à filtrer jusque dans les couches les plus basses du net : déconnexion de serveurs, retrait de noms de domaine, etc. Stormfront et The Daily Stormer, deux sites d’information de l’alt-right ont eu leur domaine retiré. Le site d’écoute musicale Spotify, le site de rencontre OkCupid et Paypal bannissent les prétendus « nazis » hors du web. Facebook et AirBnb ont supprimé les comptes liés à la manifestation de Charlottesville. Des centaines de comptes Facebook et Twitter sont suspendus chaque jour, y compris en France.

Pour l’instant, la censure extra-judiciaire ne concerne que les terroristes et « la haine », réelle ou soupçonnée. Les hypocrites défenseurs de la neutralité du net peuvent donc encore faire semblant de croire que cette dernière, morte depuis des années, existe toujours.

Une réussite très élitiste

Le réseau social Gab , fer de lance de la contestation, a proclamé le 10 août dernier la naissance de la « Free Speech Tech Alliance ». Cette alliance de professionnels doit permettre à terme la création d’un véritable « Alternet » : une partie d’Internet débarrassée de la Silicon Valley et de sa censure morale. Sur le papier, le projet sonne bien, mais sa viabilité est questionnable.

D’autres ont essayé avant eux, la réputation sulfureuse en moins. Depuis les années 90 les groupes crypto-anarchistes combattent l’Internet centralisé qui a accouché des fameux GAFA. Leur credo ? Les méthodes de chiffrement utilisées massivement doivent permettre la protection des échanges. Si vous envoyez un message chiffré, ce message est suspect pour d’éventuels attaquants, qui tenteront de le déchiffrer. Si vous chiffrez tout jusqu’à votre liste de courses, le volume de données sera trop important pour être traité.

Le succès de ces activistes est mitigé, malgré leur présence très importante dans le monde du logiciel libre. C’est une réussite technique très élitiste : l’essor des crypto-monnaies, des réseaux cachés, des darknets et des blockchains le prouve. Leurs seules réussites « grand public » sont la généralisation du protocole web chiffré HTTPS (car largement soutenu par la banque et le e-commerce) et la généralisation de messageries instantanées supportant le chiffrement de manière limitée (Telegram, Messenger …)

Difficile de réformer internet

Le projet de la Free Speech Tech Alliance est plus ambitieux. Une poignée de militants peut parfaitement communiquer à l’insu des services de renseignement, Daech et les fameux « hackers russes » de la campagne américaine l’ont prouvé. Pour toucher un public plus large, donc bien moins formé, il faut des outils plus conviviaux, ayant une certaine masse critique pour se faire connaître, mais surtout contrôlant toutes les couches du réseau.

Les réseaux informatiques fonctionnent comme un empilement de couches techniques (modèle OSI). La plus basse est la liaison physique, le signal électrique, lumineux, radio qui permet d’acheminer les données. La plus haute est constituée des programmes utilisant le réseau. Chaque couche est en principe indépendante des autres : on peut faire passer la même information par différents chemins sur le réseau, utilisant diverses technologies (fibre, ADSL, 4G) sans que cela change quoi que ce soit à l’arrivée.

Celui qui contrôle les couches les plus basses peut toujours censurer les couches au-dessus. Coupez le câble réseau, l’application la plus performante tombe. Un site Internet, un service de noms de domaine (DNS) se situent tous sur la dernière couche du réseau. Les géants du net contrôlent les couches inférieures : ils peuvent censurer à volonté.

Si l’alt-right a pour ambition de créer son propre safe-space sur Internet, elle devra bâtir toute une infrastructure. Elle doit donc posséder à minima : ses hébergeurs[1], ses bureaux d’enregistrement de noms de domaine[2], ses autorités de certification[3], ses fournisseurs d’accès à Internet[4] et ses transiteurs de contenu[5]. Tous ces acteurs doivent être utilisés par une certaine masse de sites lambda afin d’être indispensables à la vie d’Internet et ne pas se faire censurer. S’ils ne sont utilisés que par l’alt-right, ils seront rapidement mis au ban d’Internet. Chacun de ces acteurs nécessite des millions de dollars d’investissements, plusieurs années de dissimulation et des centaines de professionnels. L’alt-right a-t-elle les épaules de ses ambitions ?

Je n’ai évoqué ici que les cas des USA. Dans les pays où l’état se mêle de liberté d’expression comme en France, il faut aller bien plus loin, parfois contre la loi ce qui rend toute solution grand public complètement irréaliste. Dans notre pays, l’Internet libre ne sera toujours qu’un fantasme. Sauf changement politique radical, la liberté d’expression ne pourra qu’être le luxe d’une avant-garde de techniciens.

Enzo Sandré

[1] Mettent des machines connectées 24/24 à disposition de clients : sites Internet ou logiciels divers.

[2] Permettent de retrouver une ressource à partir d’un nom simple à retenir : enzosandre.fr par exemple

[3] Délivrent des certificats permettant de s’assurer qu’un contenu est bien émis par qui de droit

[4] Connectent les particuliers au réseau Internet, ils sont la première ligne de la censure.

[5] Les « plombiers » du net : ils connectent tous les acteurs ci-dessus entre eux via de vastes réseaux régionaux

Se priver de machines pour un ascétisme moderne

Cet article est une recension du livre de l’abbé Philibert Rigaut, Le Bon Travail, publié aux éditions de Chiré


Jacques Ellul avait théorisé la non-puissance comme remède à la toute-puissance de la Technique sur nos vies. Cette solution est acceptable pour le protestant Ellul, elle ne saurait l’être pour un catholique : on se sanctifie en société et se couper du monde n’est aucunement de la charité. On attend encore une réponse catholique à la maladie technicienne. L’abbé Philibert Rigault dans son livre « Le Bon Travail », paru chez Chiré a le mérite de faire un premier pas dans ce sens.

« Tu gagneras ton pain à la sueur de ton front » : tout l’ouvrage est centré autour de cette injonction divine tirée du livre de la Genèse. L’abbé Rigault en tire le raisonnement suivant : Dieu est omnipotent, il pourrait créer de rien ce que les hommes font de leurs mains. S’Il veut que les hommes travaillent, il doit y avoir une raison. Dieu est amour : cela doit forcément être pour nous rapprocher de Lui.

La machine permet à l’homme de réaliser sans effort un travail. Si la machine est moralement neutre, son usage peut parfois aller contre l’injonction divine, la rendant mauvaise.

Pour l’auteur, la vision du travail a changé à l’âge industriel. Nous sommes passés d’une société de bâtisseurs de cathédrales se sanctifiant par le travail à une séparation du temps de travail et du temps d’élévation spirituelle. Ce dernier est fréquemment remplacé par des loisirs, rendus nécessaires par un labeur aliénant et éreintant. L’homme moderne trouve normal de s’abrutir tout le jour pour gagner sa croûte, puis d’employer le temps restant à en réparer les dégâts physiques et spirituels.

L’abbé Rigault appelle les fidèles à faire de la privation des machines un ascétisme moderne, s’ajoutant au jeûne et à la prière. Chaque fidèle est appelé à faire des sacrifices, à remplacer la machine par l’humain dans un aspect de sa vie : labourer à la main plutôt qu’au motoculteur, renoncer à la voiture pour les petits trajets, rencontrer les gens plutôt que de leur téléphoner ; bref recréer un dialogue avec le réel.

On regrettera cependant que ce petit opuscule brillant soit entaché de formules repoussoirs dont seule la Fraternité Saint-Pie-X a le secret. L’excès gâche un raisonnement pertinent : si votre enfant allume lui-même la lumière, il est mal élevé ; de mon temps le nourrisson jouait avec une vieille casserole et c’était mieux ainsi et tutti quanti.

Enzo Sandré


Cet article est une recension du livre de l’abbé Philibert Rigaut, Le Bon Travail, publié aux éditions de Chiré

Le vice-amiral Coustillière se fiche des backdoors

La nomination du vice-amiral Coustillière comme DGSI[1] du MINDEF est mal passée auprès de certains experts français de la cybersécurité. En cause : une déclaration datant d’un an dans laquelle le gradé déclare que les principales failles de sécurité ne viennent pas des portes dérobées[2] introduites dans les logiciels de Microsoft et qu’il « se fout de ce débat ».

Au-delà de son manque de subtilité, l’Amiral n’a peut-être pas tort. Dans le cadre de l’OTAN, nos systèmes militaires n’ont en théorie rien à craindre des américains, nos « amis ». Il est même plus utile que tous les pays alliés travaillent sur une base logicielle commune.

Si la souveraineté de la France intéresse tant les experts de la cybersécurité française, qu’ils demandent d’abord la sortie de l’OTAN, ils n’en seront que moins hypocrites.

Enzo Sandré

[1] Directeur général des systèmes d’information

[2] Failles de sécurité intentionnellement introduites par l’éditeur du logiciel, notamment sur demande de services de renseignement (NSA, CIA …)

La Puissance moderne

Recension d’un ouvrage de Raphaël Chauvancy – La Puissance moderne, aux éditions Apopsix


Retournons à une période clé de notre histoire : le règne de Louis XVI. La France est devenue la première puissance mondiale, grâce à une ambitieuse politique de guerre économique. Son armée de terre est la plus puissante d’Europe et les efforts de Vergennes ont porté leurs fruits sur mer : la flotte française pèse suffisamment pour infliger de sérieux revers à la perfide Albion, entamant son commerce sur la route des Indes. On le sait depuis Thucydide : on ne peut vaincre une puissance maritime que par la mer.

La diplomatie de la France est une merveilleuse machine à créer l’équilibre. Ayant bien compris qu’une puissance détruite cherche à se venger, la France réussit par de subtils jeux d’alliance à contenir les visées déraisonnables de ses voisins. Le royaume est allié à l’Espagne, par le sang, à la Hollande par anglophobie et à l’Autriche, par ruse.

A l’exception notable du redressement de la Royale, tous ces succès ne sont hélas que l’œuvre d’habiles et patients ministres. Louis XVI savait s’entourer pour compenser sa bonhommie. Les qualités qui font un admirable humain sont hélas des marqueurs de faiblesse pour un souverain, qui ne peut se permettre la gentillesse. La realpolitik française est morte avec Vergennes, quand le Bon Louis jugea pertinent de faire arbitrer la guerre civile en cours chez son allié Hollandais par l’Angleterre et la Prusse. Tout le jeu d’alliance français s’est effondré comme un parcours de dominos après cela. Ce fut le premier clou sur le cercueil de la dynastie Capétienne.

La France de Louis XVI était une cocotte-minute prête à exploser. La paix venait de la prospérité, car chacun avait d’excellentes raisons d’espérer mieux pour ses enfants. La Royale en pleine expansion était le formidable ascenseur social que l’armée de terre, sclérosée par la noblesse, avait cessé d’être. Le commerce florissant occupait les bourgeois, les détournant de leur jalousie envers les nobles. Le peuple était occupé à assimiler les techniques nouvelles, découvertes en France ou pillées aux Anglais par les agents de la guerre économique française. Hélas la prospérité était un exutoire, non une solution. La débâcle diplomatique provoquée par Louis XVI après la mort de Vergennes allait siffler la fin de la trêve intérieure.

La diplomatie équilibrée de la France, trop novatrice à l’époque où la puissance se comptait en hectares, n’avait pas valu au royaume que des amis. L’Europe n’aimait pas cette France médiatrice et pacificatrice, qui frustrait leurs envies de conquête. L’Angleterre avait échappé de peu à la perte de son statut de première puissance maritime. L’Europe fut trop heureuse de jeter de l’huile sur le feu pour embourber la France dans une révolte intérieure.

Toutes les composantes de la société française avaient des raisons de vouloir un changement radical. Louis XVI, grand conciliateur dans l’âme et montagne de bonté se trouvait bien seul à Versailles pour gérer une situation nécessitant de la poigne. Il fut incapable d’être le chef fort dont les français avaient besoin et le paya de sa vie. Telle une étoile en fin de vie, la France s’embrasa violemment, utilisant les réserves patiemment construites par la monarchie dans un grand éclat qui allait détruire l’Europe et laisser notre pays exsangue. La puissance accumulée par la France ne fut jamais autant visible que pendant sa chute.

Le livre de Raphaël Chauvancy explique à merveille les clés de la puissance française à l’aube de la Révolution. Très facile d’accès il n’en est pas moins très complet.

Enzo Sandré

Simone Veil : Se protéger quand la censure frappe

Le 30 juin 2017, jour de la mort de Simone Veil, un visuel aux airs d’hommage est diffusé sur les réseaux sociaux. Il indique un site simoneveil.com, dénonçant très subtilement l’avortement de masse comme un abus non désiré par la défunte. Le groupe anti-avortement Les Survivants avait préparé son coup bien à l’avance puisque le nom de domaine a été réservé le 7 septembre dernier.

Un cadre légal bafoué

Quelques heures après sa publication, le site des Survivants a été suspendu par l’hébergeur OVH, sans qu’aucune décision de justice ne l’ait autorisé à faire cela. Un coup de fil de l’avocat de la famille a suffi pour que l’hébergeur se couche devant les menaces, au mépris de la loi. Ca n’est pas la première fois que les Survivants essuient un tel revers extra-légal : la plateforme de cagnotte HelloAsso avait ainsi supprimé la collecte de l’association quelques jours auparavant.

Le droit français fait d’un site Internet une publication comme un autre, soumise aux règles relatives à la liberté d’expression. La censure d’un contenu doit obligatoirement être prononcée par un juge, lors d’une procédure classique ou en référé. Dans cette affaire, aucun juge n’a été saisi, ni pour atteinte à l’image de la défunte, ni pour délit d’entrave à l’IVG, ni pour diffamation.

La presse, qui se targue d’être la gardienne de la liberté d’expression et de l’état de droit© s’est unanimement félicitée de cette décision. Certains sites insoupçonnables d’incompétence comme Numerama ont même sciemment menti. En jouant sur une nuance imperceptible par le profane, ils expliquent que le site n’a pas été censuré, mais que le nom de domaine simoneveil.com l’a été au motif qu’il utilise le nom et l’image de la défunte sans autorisation.

Cela est faux : le nom de domaine n’a pas été suspendu et fonctionne toujours. Quand l’internaute tente de se connecter le message signifie implicitement que l’hébergeur OVH a suspendu le site. Dans le cas contraire une erreur « Adresse Introuvable » aurait été affichée comme  si vous saisissiez une adresse inexistante (exempledesiteinexistant.com par exemple). Les domaines .com appartiennent à l’ICANN, une autorité administrative américaine avec ses propres règles, qui n’a que faire des caprices d’un avocat parisien. Le motif n’est pas invalide pour autant : les Survivants pourront ultérieurement se voir retirer le domaine, après de nombreux mois et une longue procédure.

Se protéger face à la censure

En France, un hébergeur peut violer la liberté d’expression et être félicité par la caste journalistique. A cela s’ajoutent des lois à la légitimité discutable, comme le délit d’entrave numérique à l’IVG ou une vision très large de l’incitation à la haine. Il peut parfois être légitime de prendre des mesures contre la censure afin de poursuivre de combats nécessaires au bien commun.

Pour censurer, la justice dispose de quatre angles d’attaque : suspension du contenu chez l’hébergeur,  suspension du nom de domaine, condamnation pénale du responsable éditorial et blocage administratif. Chacune de ces mesures obéit à un cadre légal bien précis, dont il suffit de sortir pour échapper à la loi.

Ce qui est arrivé aux Survivants est une suspension de contenu. Elle n’est possible qu’auprès d’un hébergeur français ou ayant des accords judiciaires avec la France. Si les Survivants décidaient d’héberger leur site aux U.S.A, au Cameroun ou en Corée du Nord, le site fonctionnerait de nouveau normalement.

La suspension de nom de domaine est plus complexe, mais on peut esquiver le problème. Si un nom de domaine est bloqué, un autre peut être facilement acheté, puis à nouveau un autre. Le site T411 a survécu des années comme cela grâce à la lenteur des procédures administratives. Exemple : simoneveil.net.

Un responsable éditorial ne peut être condamné que s’il est soumis à la loi française. L’utilisation de prête-noms étrangers est une solution abordable. Renseignez-vous impérativement auprès d’un avocat, la loi française a pris des mesures contre ces pratiques.

Le blocage administratif sert à l’état lorsqu’il a épuisé les autres recours. Il s’agit d’un blocage du site chez le FAI de l’internaute, au moment de la consultation. Il empêche la consultation par tous les internautes n’ayant pas de connaissances techniques étendues, ce qui est redoutable. TOR est le moyen le plus connu de contournement.

Au nom de bons sentiments ou d’idéologies moralisatrices, états et entreprises se permettent de châtier le mal-pensant, censurant à tour de bras. Il est important pour tout créateur de contenu de connaître des contre-mesures. A ceux qui pensent que la neutralité du net et la liberté d’expression tombent du ciel, nous répondons par la phrase de Maurras : « Les libertés ne s’octroient pas, elles se prennent ».

Avertissement : Ce court article ne saurait être exhaustif ou exact : prenez contact avec un spécialiste (technique et juridique) avant de mettre en œuvre de telles solutions.

Enzo Sandré

Décoder les développeurs : enquête sur une profession à l’avant-garde

Celui qui raisonne comme au XXème siècle ne peut pas comprendre les développeurs. Ils sont les enfants terribles de la post-modernité, dans toutes ses contradictions : symboles du progrès technologique guidés par une conscience artisanale ; cols blancs à la mentalité ouvrière bien trempée ; libertaires contractualistes rêvant de communautés de métier ; geeks technophiles sévèrement critiques de la machine.

Cette profession si particulière (que j’exerce moi-même avec beaucoup de fierté) annonce-t-elle un nouvel âge du travailleur qualifié ? Elle pourrait, comme le dit l’auteur « dessiner les contours d’organisations différentes, qui valorisent l’autonomie, la collaboration et l’énergie créative » et estomper le brouillard du taylorisme. Pour comprendre comment, il est incontournable de se pencher sur les caractéristiques du métier de développeur.

Le col ciel : un artisan de l’information

Le rôle d’un développeur est de programmer des logiciels en écrivant des instructions exécutées par la machine : le code. Le travail de développeur est hybride entre la profession intellectuelle et l’artisanat. L’auteur utilise l’expression « cols ciel », jonction entre les « cols bleus » et les « cols blancs » pour les désigner.

Comme tout artisan, le développeur ne peut pas être un individualiste. Même celui qui travaille seul a besoin de ses pairs. De nombreuses communautés en ligne ou physiques permettent au développeur de se former, de résoudre des problèmes rencontrés par d’autres ou de partager du code, en dehors de tout cadre marchand. La plupart des logiciels qui forment l’écosystème informatique aujourd’hui sont libres et aucun développeur ne pourrait travailler en autarcie sans programmer des années pour afficher la moindre image. En un sens, tout développeur est un héritier, devant tout à ses prédécesseurs.

Celui qui travaille en équipe est étroitement lié à ses coéquipiers, car tous modèlent en même temps le produit. Tout comme un orchestre, une équipe doit d’abord apprendre à travailler ensemble et le moindre changement humain est handicapant, le temps d’apprendre à travailler avec le nouveau venu. La taille d’une équipe n’indique en rien sa productivité : si un développeur peut faire un programme en neuf mois, neuf développeurs n’arriveront pas forcément à faire un programme en un mois, sauf s’ils ont appris à œuvrer ensemble.

Les rapports des développeurs avec les managers sont souvent conflictuels : les deux mondes ne se comprennent pas. Des pratiques comme la programmation en binôme, la revue de code mutuelle, le développement piloté par les tests et les entraînements sur du code improductif sont courantes dans les équipes de développement mais constituent de vraies hérésies pour un successeur de Taylor. Plus frustrant : les managers ont rarement le dernier mot face aux développeurs. Le code peut être soumis à des mesures objectives de qualité et de fonctionnalité. Comme le menuisier peut renvoyer son chef à la mesure de l’équerre et du fil à plomb, le développeur peut prouver la conformité du programme aux spécifications par des tests.

Chaque morceau de code produit doit pouvoir être relu et édité facilement, il en va de la productivité de l’équipe. « Laisse le code plus propre que tu ne l’as trouvé » est une des devises des développeurs. Etonnamment, ceux qui suivent cette règle finissent par l’intérioriser en une sorte de conscience ouvrière : le travail bien fait devient un primat.

Une profession en devenir

L’auteur dresse un portrait particulièrement élogieux des développeurs. Je dois dire que je m’y retrouve presque intégralement, me définissant moi-même comme « artisan-développeur ». Hélas l’auteur laisse dans l’ombre la majorité de la profession, les « analystes-programmeurs » et autres « ingénieurs développement ». L’analyste-programmeur pratique le même métier que le développeur, mais avec une mentalité différente : il privilégie un logiciel rapidement fonctionnel à un travail léché et préfère tout planifier à l’avance dans d’énormes cahiers des charges. Alors que le développeur n’a pas d’autre plan de carrière que de devenir un maître, l’analyste programmeur ne rêve que d’être un chef de projet, puis de suivre le parcours balisé du management technique d’entreprise. Les deux composantes de la profession se méprisent mutuellement : les développeurs voient les programmeurs comme des professionnels peu consciencieux, ceux-ci rétorquent en accusant les développeurs d’utopisme et de caprice d’enfant gâté. Il est intéressant de voir qu’à technique égale, la culture est déterminante dans l’usage que l’on en fait.

L’auteur a pris le parti de décrire une avant-garde artisanale de la profession, appelée sans nul doute à grandir et à s’organiser dans les prochaines années. Les déboires de monstres logiciels comme Louvois (logiciel de paiement des soldes de l’armée française) donnent des arguments de choc aux développeurs. Les sessions d’entraînement de type « coding dojo », le désormais célèbre Agile Tour et l’Ordre des Développeurs naissant sont autant de projets extrêmement stimulants, annonciateurs d’un nouvel âge du travailleur qualifié.

Enzo SANDRE
Artisan-développeur

Références

Décoder les développeurs – Un livre sur une profession à l’avant-garde

Benjamin Tainturier – Préface d’Emmanuelle Duez – The Boson Project – Enquête sur une profession à l’avant-garde 138 pages – 19 € – G 56739

Livre gracieusement offert par l’éditeur Eyrolles.

Photo d’entête : atelier logiciel Arpinum

L’APRIL et son pacte du logiciel libre

C’est désormais une habitude : comme à chaque élection depuis 2007, l’association APRIL propose aux candidats de signer son Pacte du logiciel libre. Dans ce document minimaliste, les candidats s’engagent à ne pas voter de lois allant contre le logiciel libre s’ils sont élus. Se voulant le plus rassembleur possible, ce pacte ne rentre pas dans les querelles de licences ni dans les guerres de chapelles qui animent le monde du libre : son but est de sensibiliser les élus par un texte simple et compréhensible. L’initiative est prometteuse ; nous déplorons simplement les statistiques par parti, qui incitent les élus à parapher par discipline partisane plus que pour signifier des convictions personnelles. Nous regrettons également que les « coordinateurs » chargés de prendre contact avec les candidats soient trop souvent des militants de gauche, qui pratiquent un démarchage très sélectif, donnant l’illusion que seule leur famille politique s’intéresse au sujet du libre.

Industrie et énergie : dépendances

Introduction du dossier « L’avenir de la production d’énergie » coordonné par mes soins


Taquinons un peu nos bons écologistes, par ailleurs adeptes du « Progrès » et du « sens de l’histoire » : avant la Révolution Industrielle, la production énergétique était 100% renouvelable !

L’homme connaît l’existence du charbon et du pétrole depuis le néolithique. Il faut attendre l’âge industriel pour qu’il devienne une ressource énergétique nécessaire à l’industrie. Historiquement, le charbon a sauvé les forêts françaises d’un abattage méthodique, pour nourrir le Moloch industriel. Plus tard sont apparus le pétrole et le gaz, qui n’ont jamais diminué la part du charbon dans le mix énergétique mondial. Le nucléaire vint s’additionner.

La part d’énergie dite renouvelable est ridicule. Le sens de l’histoire semble aller vers leur disparition, au profit de ressources de plus en plus denses en énergie. S’il y a un sens à l’histoire, l’avenir se trouve dans les centrales à fusion, non dans les panneaux solaires personnels.

Nous avons l’effronterie de ne pas croire que l’histoire ait un sens. Nous comptons bien dans ce dossier renvoyer dos à dos les écologistes et le cartel des énergéticiens. La centralisation de la production d’énergie n’est pas plus une fatalité que le retour à un passé fantasmé fait de silex entrechoqués et de feux d’excréments.

A l’âge des machines, celui qui produit l’énergie détient le pouvoir. Une production centralisée aux mains de l’État ou d’un cartel va inévitablement centraliser la société bien plus profondément que n’importe quelle idéologie politique. Pour libérer l’avenir, il est urgent de proposer des solutions réalistes de décentralisation. Les écologistes avec leur photovoltaïque ruineux, leur antinucléarisme de slogans et leur catastrophisme sur la fin imminente du pétrole représentent un épouvantail idéal. Il est impossible de bâtir l’avenir avec des bouffons aussi caricaturaux, ils ouvrent un boulevard aux industriels du nucléaire et aux escrocs de la fusion, ravis d’avoir en face d’eux d’aussi ridicules adversaires. Il est temps de bâtir un contre-discours sérieux sur l’énergie, laissant s’exprimer tous ceux qui refusent de participer à cette mascarade. Nous ne sommes pas obligés de choisir entre l’EPR et les éoliennes.

Enzo Sandré

La décentralisation énergétique, un projet au bénéfice du localisme ?

Article de Théophile Ducran-Lapoigne, faisant partie du dossier « L’avenir de la production d’énergie » coordonné par mes soins.


Le point de départ : la nécessité de réforme du système français

Au lancement de son programme nucléaire civil en 1958, les objectifs de la France étaient de se doter de capacités de production d’énergie à bas coût, en grande quantité, et sans que leur mise en place ni leur fonctionnement ne puisse opposer de quelconques menaces à l’indépendance nationale.
Cela fût fait. En 2017, la France est le pays d’Europe occidentale où l’électricité est la moins chère, et possède un parc nucléaire de 58 réacteurs répartis dans une quinzaine de centrales, ce qui en fait le pays le plus « nucléarisé » au monde par habitant.
Ainsi, ce système de grandes centrales, réparties inéquitablement sur le territoire, s’appuie sur un vaste réseau de transport et de distribution d’électricité.

Les activités de production, de transport, de distribution, et de fourniture d’électricité ont été déposées, à l’origine, entre les mains d’un « champion » national : Électricité de France.

Toutefois, ce système centralisé du « tout-nucléaire » présente aujourd’hui ses limites : du coût de démantèlement des centrales – qui ne sont, hélas, pas éternelles ! – à celui de gestion des déchets nucléaires, de nombreux obstacles s’accumulent au fil du temps.
En effet, pour des raisons propres à l’énergie nucléaire, mais aussi inhérentes à lui-même, le système français s’avère difficilement compatible avec les exigences écologiques contemporaines.
Par définition, un système centralisé offre un résultat puissant – et la France en sait quelque chose ! – mais génère inévitablement des pertes. A titre d’exemple, seule 1/3 de l’énergie brute produite par une centrale nucléaire est transformée en électricité – le reste étant évacué à travers les tours de refroidissement.
Compte tenu des exigences croissante d’économie d’énergie, un tel blocage apparaît comme de moins en moins acceptable.

De là, la décentralisation énergétique apparaît comme une solution viable sur les plans économique et écologique.
Cette notion peut se définir comme la distribution des capacités de production d’énergie par région, de manière à ce que les unités de production se trouvent géographiquement proches des consommateurs finaux, limitant ainsi l’utilisation du réseau de transport et offrant des capacités de résilience locale.

En effet, ce système comporte un certain nombre d’avantages qui lui permettraient de combler efficacement les lacunes de notre « tout nucléaire-centralisé » gaulois, et, sur le plan politique, d’encourager un retour au localisme.

Quel calendrier pour un nouveau système décentralisé ?

Il faut d’abord poser un premier axiome : le processus de transition énergétique, sera inévitablement accolé à la méthode de la décentralisation énergétique. Objectif et méthode s’accordent donc.

De plus, la transition énergétique vers des énergies vertes – ce que l’énergie nucléaire n’est pas, étant « décarbonnée » mais néanmoins productrice de déchets dangereux pour l’environnement et la santé – pourrait être achevée en France d’ici 2080.
La décentralisation énergétique n’est donc pas une solution sur-mesure applicable instantanément, mais résultera d’un processus national de long terme découlant de politiques publiques cohérentes.

Quels outils ?

Les énergies renouvelables portent un maître-mot : la résilience.
Par ce terme, il doit être entendu la résistance économique et humaine à l’absence de production d’énergie par une unité sur une courte période. En effet, la production d’énergie renouvelable dépend intégralement des conditions météorologiques du lieu où elles se trouvent.
Par conséquent, il n’est pas possible de prévoir avec certitude la production d’un parc solaire photovoltaïque, ni celle d’une ferme éolienne.
Cela suppose donc l’installation d’une variété de sources de production d’énergie, complémentaires entre elles.

La spécialisation au service de la variété

Chaque terre de France possède des caractéristiques naturelles différentes.
Ainsi, l’ensoleillement en Provence n’est pas le même qu’en Bretagne ; de même que l’Aquitaine, dont les côtes sont venteuses, n’a pas une activité géothermique aussi importante que celle du bassin parisien.
Ainsi, les capacités de production, mises sur pieds par région, devront répondre aux spécificités de l’écosystème local.

Un réseau de transport et de distribution renouvelé

Le système de production par région implique un renouvellement complet du système de transport et de distribution d’électricité. Jusqu’à présent, les lignes à haute-tension et très haute-tension partent des centrales, et sont connectées à des réseaux à basse-tension jusqu’à la fourniture finale. Ce système implique une logistique complexe, et des pertes notables, même s’il permet de « déplacer » l’électricité sur de longues distances.

Une production locale organisée selon une superposition des mailles territoriales

Une autre caractéristique majeure de la décentralisation énergétique est le régionalisme.
En effet, la production décentralisée ne doit pas devenir un ensemble de mini-systèmes centralisés, mais elle doit être organisée selon la superposition de mailles territoriales.
Ainsi, l’on pourrait aisément imaginer un système où 50% de la production serait mis à la charge des départements, et 25% à celle des régions et communes.
Cela étant, les communes bénéficieraient aussi du développement de la production domestique.

Le rôle de la production domestique

La production domestique, c’est-à-dire l’installation de capacité de production d’énergie directement au sein des foyers, devrait permettre de renforcer leur autonomie vis-à-vis des grands fournisseurs (EDF, Engie).
Cela étant, en subventionnant l’installation de telles capacités de production, les collectivités territoriales seraient en droit d’espérer un dopage de l’économie locale, notamment en matière d’emploi, voire de recherche.

Pour conclure, la question qui peut se poser est la suivante : dans quelle mesure la relocalisation des moyens de production d’énergie peut-elle avoir un impact sur le localisme politique ?

Toute activité commune étant source d’union, il est très probable que des populations, qui, au niveau local, se regroupent pour prendre en charge leur propres besoins en énergie, seront amenées à renforcer leur esprit de communauté, et, par extension, leur sentiment d’enracinement.
Reste à voir par quels biais politiques la décentralisation énergétique sera mise en place. Quoi qu’il en soit, il devrait être possible d’en tirer parti.

Théophile Ducran-Lapoigne

Quel avenir pour la production d’énergie ?

Article du dossier « L’avenir de la production d’énergie » coordonné par mes soins


L’après-pétrole approche et il est temps de penser à son remplacement. Ecologistes et industriels doivent cesser leur autisme et entamer un vrai débat sur le mix énergétique de demain. Analyse d’un débat d’infirmes qui n’en finit plus.

Fission nucléaire : Rickover and over

Tous les réacteurs commerciaux au monde[1] héritent d’un réacteur originel, conçu par l’Amiral Rickover[2] pour propulser les sous-marins nucléaires américains. Il fut adapté pour la production d’énergie civile par Westinghouse, qui vendit la licence à Framatome (devenu Areva) et Mitsubishi. Les générations II (actuelle) et III (en cours de construction) ne sont rien d’autre que des améliorations. Or, le réacteur Rickover n’est pas conçu pour la production d‘énergie civile : il peut s’emballer (Three Miles Island, Fukushima) et produit une grande quantité de déchets radioactifs.

Pourquoi cette filière est-elle conservée ? Car la technologie est maîtrisée et amortie. Il existe pourtant des alternatives tout à fait crédibles, comme le Rubbiatron, le TRIGA ou les réacteurs à caloporteur hélium. Toutes sont reléguées en « génération IV ». Traduction : peut-être un jour, n’espérez rien.

Sur ce sujet, les écologistes sont les meilleurs ennemis de l’industrie. Ils font office d’épouvantail en rejetant complètement toute énergie nucléaire à l’heure où le charbon croît. Ils rendent inaudible toute critique fine du nucléaire, ce qui arrange bien l’industrie qui peut avancer sans garde-fou sérieux.

Fusion : Monomanie ITER

Pendant que ITER monopolise le budget de la recherche (19 milliards désormais), d’autres filières prometteuses sont anémiées par le manque de moyens. Malgré leurs budgets ridicules, la fusion aneutronique[3], la fusion par laser[4] ou les Z-machines pourraient donner des résultats avant qu’ITER n’ait abouti.

En plus d’être affreusement cher[5], ITER est une expérience dangereuse. Les Français seront rassurés d’apprendre que « La Commission européenne estime qu’en cas d’accident les rejets d’effluents radioactifs, sous quelque forme que ce soit, provenant d’ITER en France, ne seront jamais susceptibles d’entraîner, même en cas d’accident nucléaire, une contamination radioactive à l’extérieur des frontières françaises »[6]. En plus des matériaux radioactifs (dont le tritium, trop léger pour être confiné), ITER contient des matériaux aussi sains que du plomb, du lithium et du béryllium. Interrogez votre médecin, il vous expliquera.

De l’aveu même des physiciens, l’accident est probable : ITER est expérimental. Le dispositif contient de nombreux aimants supraconducteurs, capables d’exploser très violemment[7]. La plupart des savoirs mis en jeu seront testés pour la première fois à une telle échelle, avec tous les risques imprévisibles que cela occasionne.

Vive le charbon !

L’aveuglement idéologique des écologistes et les intérêts froids du cartel nucléaire embourbent tout débat. Le nucléaire actuel présente des défauts rédhibitoires, qui réclament un changement profond. Or tout débat sur l’avenir du nucléaire est bloqué par les écologistes, qui tiennent absolument à en sortir et par les industriels, trop satisfaits de vivre sur une technologie amortie. Les deux parties portent la responsabilité de l’accroissement du charbon.

Il est urgent de donner la parole aux physiciens et aux ingénieurs non-alignés sur ces questions, afin d’ouvrir un véritable débat national sur l’énergie de demain. Fusillons les clivages imbéciles et les intérêts à courte vue de l’Argent. En l’absence de souverain capable de trancher, c’est à la société civile d’arbitrer ces questions.

Enzo Sandré

[1] Deux exceptions : les CANDU canadiens, qui ne sont pas vendus et les VVER/RBMK soviétiques, instables et dangereux.

[2] Le réacteur de Shippingport

[3] La réaction Bore-Hydrogène semble la plus prometteuse, elle permettrait même la fabrication de réacteurs à fusion domestiques dans un futur lointain.

[4] Le Laser Mégajoule du CEA est le plus connu, il est principalement destiné à tester les futures bombes thermonucléaires, mais devrait accueillir des expériences civiles de fusion.

[5] 19 milliards d’euros pour l’instant, hors fonctionnement. Déjà 4x le budget prévisionnel alors que la construction n’est pas terminée.

[6] Avis de la Commission Européenne 2012/C 166/01

[7] Le 27 mars 2007, un aimant supraconducteur a explosé au CERN près de Genève.