Délit d’initié : le PDG d’Intel a vendu ses parts le 29 novembre

Tempête mondiale dans le monde numérique : Intel, géant mondial des microprocesseurs vient d’annoncer la découverte et la correction d’une faille présente depuis plus de 10 ans dans ses produits. 5 à 30% de réduction des performances sont annoncés après application du correctif.

Cette affaire est sans doute connue depuis des mois chez Intel, à en juger par l’étrange transaction réalisée le 29 novembre par son PDG, Brian Krzanich. Le dirigeant a vendu l’intégralité de ses Stock-Options, ne gardant que le strict minimum. Coïncidence ou délit d’initié ? La presse française n’a pas encore évoqué l’affaire.

Enzo Sandré


Pour plus de détails, nous vous proposons un article du site The Motley Fool, traduit par nos soins.

Le PDG d’Intel vient de vendre beaucoup d’actions

Ces transactions ne sont pas à prendre à la légère.

Le 29 novembre, Brian Krzanich, le PDG du géant des puces Intel (NASDAQ:INTC), a déclaré plusieurs transactions sur des actions Intel dans un Formulaire 4 déposé auprès de la SEC (Securities and Exchange Commission).

La plupart des transactions impliquaient l’exercice par Krzanich de stock-options, qui lui permettaient d’acheter des actions Intel à des prix nettement inférieurs à ceux du cours à l’heure actuelle, et leur revente immédiate sur le marché.

Il n’y a en soi rien de mal, ou même d’inhabituel, dans de telles transactions. Les dirigeants d’entreprise, et même certains employés, reçoivent souvent soit des stock-options et / ou des unités d’actions restreintes (UAR) dans le cadre de leurs régimes de rémunération, et les bénéficiaires de cette rémunération voudront tôt ou tard les convertir en liquidités.

En effet, comme expliqué ici, la vente faite par des initiés n’est pas toujours de nature à susciter l’inquiétude.

Toutefois, deux des transactions déclarées par Krzanich dans le formulaire 4 me semblent plus importantes que les exercices de stock-options ordinaires et les ventes subséquentes d’actions. Regardons de plus près.

Krzanich garde le strict minimum

Les statuts d’Intel imposent aux dirigeants et aux membres du conseil d’administration de détenir un certain nombre de titres de propriété à partir du moment où ils travaillent pour l’entreprise depuis cinq ans. Voici les montants basés sur le rang au sein de l’entreprise :

PDG 250,000
Directeur exécutif et président 150,000
Directeur financier 125,000
Vice-président exécutif 100,000
Vice-président senior 65,000
Vice-président administration 35,000
Autres vice-présidents et hauts responsables 5,000-10,000

Krzanich ayant été nommé PDG d’Intel en mai 2013, il devrait avoir 250 000 actions d’ici mai 2018, soit dans environ cinq mois. Il est donc intéressant de noter qu’avant de faire l’une des transactions qu’il a déclarées dans son dernier formulaire 4, il détenait 495 743 actions.

Après les exercices d’options et les ventes subséquentes (qui ont laissé sa position inchangée à 495 743 actions), Krzanich a ensuite réalisé deux autres transactions : une vente de 242 830 actions et une vente de 2 913 actions, chacune s’étant faite au prix moyen de 44,555 $.

Suite à ces deux transactions, Krzanich détient exactement 250 000 actions – soit le strict minimum qu’il doit détenir en tant que PDG.

Qu’est-ce que cela signifie ?

Krzanich a peut-être vendu ces 245 743 actions évaluées à près de 11 millions de dollars au moment des transactions pour payer une nouvelle maison ou acheter une œuvre d’art rare. Cependant, cette explication est trop simple et assez vague, notamment à la lumière de la grande manne qu’il a reçue lorsqu’il a exercé et vendu toutes ces options d’achat d’actions.

Au lieu de cela, étant donné que Krzanich semble avoir vendu toutes les actions qu’il pouvait sauf celles que les statuts d’Intel l’obligent à détenir, j’ai l’impression qu’il n’a pas une grande confiance dans le potentiel des actions Intel. Il est peut-être en cela influencé par un point de vue tiède (voire même négatif) des perspectives commerciales de l’entreprise à court et à moyen-terme.

Après tout, si on se souvient que le directeur financier d’Intel, Robert Swan, aurait déclaré dans une note rapportée par The Oregonian que la société a pour objectif d’augmenter sa capitalisation boursière à 300 milliards de dollars (avec des actions à plus de 60 dollars) d’ici 2021, n’aurait-il pas été plus sage pour Krzanich de garder ces actions, en collectant environ un quart de million de dollars par an en versements de dividendes, jusqu’à ce que chacune rapporte 16 dollars de plus, pour une valeur additionnelle de près de 4 millions de dollars ?

En effet, si on prend en compte l’affirmation qu’il a faite en février selon laquelle le marché potentiel d’Intel devrait atteindre les 220 milliards de dollars d’ici 2021, il semble étrange que Krzanich choisisse de ne garder que les actions que le règlement d’Intel lui impose.

Source : https://www.fool.com/investing/2017/12/19/intels-ceo-just-sold-a-lot-of-stock.aspx

Vers la fin (de la neutralité) d’Internet ?

Le 14 décembre 2017, la FCC[i] a officiellement mis fin à la neutralité du net. Hurlements du côté des « défenseurs des libertés » pro-neutralité, cris de joie du côté des « défenseurs des libertés » anti-neutralité. Cette décision n’est pourtant qu’un symptôme : la toile craque sous le poids des géants du web.

Le postier libre dans le monde libre

Revenons aux origines : Internet était un petit réseau reliant des utilisateurs de taille comparable, souvent à la fois clients[ii] et serveurs[iii]. Le réseau est conçu pour dissocier complètement la couche physique (transmission des informations) du transport (adressage, routage) et de l’information transmise. Pour prendre une image, n’importe quel colis bien adressé peut aller n’importe où en passant par un nombre indéterminé de bureaux de poste, qui communiquent entre eux comme bon leur semble (avion, barque, etc.). Implicitement, le postier n’avait pas le droit de discriminer le colis selon son origine, sa destination, son poids ou son contenu, par exemple en forçant les gros colis à prendre le bateau. Cette neutralité de fait d’Internet a permis son essor face aux réseaux concurrents.

Mon postier est surchargé

La neutralité de principe n’existait pas avant 2004, car elle allait de soi dans un réseau décentralisé. Quand la FCC adopte une déclaration sur la neutralité du net, il s’agissait déjà de sauver ce principe dans un réseau en cours de centralisation.

Les états, renseignement et justice en tête, ne pouvaient pas laisser cette immense cour de récréation sans surveillance. Avènement des pandémies informatiques, expansion du crime ou du simple délit contre le droit d’auteur : Internet devait être surveillé et censuré au besoin. Même les plus grands défenseurs de l’Internet Libre n’ont rien vu à redire. Certains hypocrites craignent une censure extra-légale par les opérateurs privés avec la fin de la neutralité. N’est-ce pas déjà le cas ? L’affaire Stormfront évoquée dans nos colonnes n’est pas autre chose, au nom de la lutte contre les discours de haine. Que dire des réseaux sociaux, véritables sous-réseaux d’Internet, qui censurent à tour de bras ?

Les nouveaux usages d’Internet ont polarisé le réseau : une multitude d’utilisateurs ne fournissant aucune ressource consommant des plateformes toujours plus fréquentées. Pour relier plusieurs villages autonomes, un réseau de petites routes fonctionne très bien. Autour d’une grande ville, vous devrez créer des autoroutes, des ponts, des métros. Internet fonctionne de la même manière. La polarisation crée de la centralisation, qui crée des coûts d’infrastructure.

L’infrastructure d’Internet est gérée par des transiteurs, dont les FAI[iv]. Ils doivent dimensionner la taille des tuyaux au volume qui y circule. Avec la neutralité du net, ils n’ont pas le droit de ralentir ou bloquer un flux sur la base de son contenu, de sa source ou de sa destination. Les transiteurs se voient obligés d’accepter le tout-venant et de dimensionner leurs infrastructures en conséquence. La neutralité du net a un effet pervers : elle permet un chantage des plateformes envers les transiteurs. Un exemple : YouTube est très apprécié des utilisateurs, qui se plaignent auprès de leur FAI à la moindre lenteur (« je paie pour ça »). Le FAI fait pression sur le transiteur pour augmenter la taille du tuyau le reliant à YouTube. Le transiteur doit réaliser des investissements assez lourds auquel YouTube refuse de participer, arguant que le tuyau bâti pour lui est neutre, donc théoriquement utile à tous. Les abonnements à la carte étant interdits par la neutralité du net, le coût est globalement répercuté sur l’utilisateur final.

Internet : une ressource

La fin de la neutralité du net va coûter cher aux plateformes comme YouTube ou Netflix, obligées de partager la facture de transit avec les utilisateurs qui les regardent. Pour la France, ce sera la seule conséquence de cette décision américaine, à moins que les autorités européennes ne décident d’en finir elles aussi avec la neutralité du net.

La fin de la neutralité est un symptôme de l’internet-marché : un portail de services à la carte. 5€/mois pour YouTube, 10€ pour Google, ne laissant pas de place en dehors des géants prêts à payer pour y figurer. L’utilisateur possèdera un simple terminal, sorte de smartphone verrouillé où l’on ajoute des applications.

L’avenir d’Internet est sombre, mais il est tout à fait probable qu’un autre réseau le remplace dans les années à venir. Il devra éviter les trois écueils qui tuent Internet : régulation des géants qui déstabilisent physiquement le réseau (GAFA, mais aussi FAI obèses), chiffrement intégral des échanges pour éviter les intermédiaires trop curieux et atténuation de la dichotomie client/serveur (P2P, réseau distribué).

La liberté du réseau a un prix, incompatible avec sa centralisation.

[i] Federal Communications Commission, l’autorité régulatrice des télécoms aux USA.

[ii] Le client demande une ressource sur le réseau

[iii] Le serveur fournit une ressource à la demande

[iv] Fournisseurs d’accès à Internet

Emprisonnons les mauvais développeurs

 Dans toute profession, on peut voir le travailleur de deux manières. Soit on le considère comme un ouvrier, simple paire de bras reliée au cerveau de son chef. Soit on le considère comme un artisan, humain constitué d’un encéphale fonctionnel relié à une paire de bras.

Ce débat peut paraître lointain, mais quand on pose cette question à propos d’une profession qui dirige le monde, elle prend une gravité certaine. La condamnation vendredi 25 août du développeur James Liang, à 40 mois de prison et 200 000€ d’amende pour son rôle dans l’affaire Volkswagen le montre.

Soit on considère le développeur comme un exécutant, donc irresponsable de ce que son donneur d’ordre lui demande.

Soit on le considère comme un artisan, responsable de ses actes et des effets des monstres qu’il créé.

Préférez-vous confier votre pacemaker, votre voiture autonome et votre centrale nucléaire à des professionnels du développement ou à des esclaves du capital ? Les premiers obéissent à des règles de l’art ainsi qu’à une éthique. Les seconds obéissent aveuglément à leur chef, qui n’y connaît rien et ne jure que par la rentabilité.

La conséquence directe de ce choix est le droit ou non des développeurs à se diriger eux-mêmes. Un ouvrier n’a aucune compétence propre, il est une paire de bras. Il n’a pas de devoirs, donc pas de droits non plus. Son rôle social est au mieux celui d’un syndiqué se battant pour des conditions de travail décentes.

Un artisan est un professionnel qui a le devoir de produire un travail bon et utile à la société, il doit donc exiger des droits allant dans ce sens. Le premier est celui d’être protégé par des normes que nul ne peut ignorer : les règles de l’art. Le second est celui d’être jugé en première instance par ses pairs, sur la base desdites normes. Le troisième est celui d’être défendu et conseillé par les maîtres de sa profession, y compris face à son donneur d’ordres lorsque l’éthique professionnelle est en jeu.

Si notre ami James Liang avait eu un corps de métier pour le défendre face aux exigences frauduleuses de ses supérieurs, aurait-il accepté de trafiquer les véhicules ? Isolé, le lanceur d’alertes risque le licenciement, la ruine et la prison. Les règles de l’art opposables protègent le professionnel, elles ne sont pas un carcan. Le but premier d’un corps de métier est la diffusion de celles-ci afin que nul ne puisse les ignorer.

Une société qui interdit les ordres professionnels n’a pas le droit de se plaindre des méfaits de travailleurs toxiques. Au pire malhonnêtes, au mieux sans défense face aux exigences de leur hiérarchie, ils sont la conséquence de la recherche du profit à tout prix. Les premiers doivent être jetés en prison, les seconds doivent être défendus et accompagnés.

Derrière la question de la responsabilité des travailleurs devant leurs actes, deux visions de la société s’opposent : la première bâillonne l’éthique au nom de la rentabilité, pavant la voix à une véritable voyoucratie du capital. La seconde jugule les pratiques néfastes au nom de l’éthique et du bien commun. Avènement de corporations servant le bien commun, ou triomphe du Capital. Aucune autre alternative n’existe.

Enzo Sandré

La Puissance moderne

Recension d’un ouvrage de Raphaël Chauvancy – La Puissance moderne, aux éditions Apopsix


Retournons à une période clé de notre histoire : le règne de Louis XVI. La France est devenue la première puissance mondiale, grâce à une ambitieuse politique de guerre économique. Son armée de terre est la plus puissante d’Europe et les efforts de Vergennes ont porté leurs fruits sur mer : la flotte française pèse suffisamment pour infliger de sérieux revers à la perfide Albion, entamant son commerce sur la route des Indes. On le sait depuis Thucydide : on ne peut vaincre une puissance maritime que par la mer.

La diplomatie de la France est une merveilleuse machine à créer l’équilibre. Ayant bien compris qu’une puissance détruite cherche à se venger, la France réussit par de subtils jeux d’alliance à contenir les visées déraisonnables de ses voisins. Le royaume est allié à l’Espagne, par le sang, à la Hollande par anglophobie et à l’Autriche, par ruse.

A l’exception notable du redressement de la Royale, tous ces succès ne sont hélas que l’œuvre d’habiles et patients ministres. Louis XVI savait s’entourer pour compenser sa bonhommie. Les qualités qui font un admirable humain sont hélas des marqueurs de faiblesse pour un souverain, qui ne peut se permettre la gentillesse. La realpolitik française est morte avec Vergennes, quand le Bon Louis jugea pertinent de faire arbitrer la guerre civile en cours chez son allié Hollandais par l’Angleterre et la Prusse. Tout le jeu d’alliance français s’est effondré comme un parcours de dominos après cela. Ce fut le premier clou sur le cercueil de la dynastie Capétienne.

La France de Louis XVI était une cocotte-minute prête à exploser. La paix venait de la prospérité, car chacun avait d’excellentes raisons d’espérer mieux pour ses enfants. La Royale en pleine expansion était le formidable ascenseur social que l’armée de terre, sclérosée par la noblesse, avait cessé d’être. Le commerce florissant occupait les bourgeois, les détournant de leur jalousie envers les nobles. Le peuple était occupé à assimiler les techniques nouvelles, découvertes en France ou pillées aux Anglais par les agents de la guerre économique française. Hélas la prospérité était un exutoire, non une solution. La débâcle diplomatique provoquée par Louis XVI après la mort de Vergennes allait siffler la fin de la trêve intérieure.

La diplomatie équilibrée de la France, trop novatrice à l’époque où la puissance se comptait en hectares, n’avait pas valu au royaume que des amis. L’Europe n’aimait pas cette France médiatrice et pacificatrice, qui frustrait leurs envies de conquête. L’Angleterre avait échappé de peu à la perte de son statut de première puissance maritime. L’Europe fut trop heureuse de jeter de l’huile sur le feu pour embourber la France dans une révolte intérieure.

Toutes les composantes de la société française avaient des raisons de vouloir un changement radical. Louis XVI, grand conciliateur dans l’âme et montagne de bonté se trouvait bien seul à Versailles pour gérer une situation nécessitant de la poigne. Il fut incapable d’être le chef fort dont les français avaient besoin et le paya de sa vie. Telle une étoile en fin de vie, la France s’embrasa violemment, utilisant les réserves patiemment construites par la monarchie dans un grand éclat qui allait détruire l’Europe et laisser notre pays exsangue. La puissance accumulée par la France ne fut jamais autant visible que pendant sa chute.

Le livre de Raphaël Chauvancy explique à merveille les clés de la puissance française à l’aube de la Révolution. Très facile d’accès il n’en est pas moins très complet.

Enzo Sandré

Décoder les développeurs : enquête sur une profession à l’avant-garde

Celui qui raisonne comme au XXème siècle ne peut pas comprendre les développeurs. Ils sont les enfants terribles de la post-modernité, dans toutes ses contradictions : symboles du progrès technologique guidés par une conscience artisanale ; cols blancs à la mentalité ouvrière bien trempée ; libertaires contractualistes rêvant de communautés de métier ; geeks technophiles sévèrement critiques de la machine.

Cette profession si particulière (que j’exerce moi-même avec beaucoup de fierté) annonce-t-elle un nouvel âge du travailleur qualifié ? Elle pourrait, comme le dit l’auteur « dessiner les contours d’organisations différentes, qui valorisent l’autonomie, la collaboration et l’énergie créative » et estomper le brouillard du taylorisme. Pour comprendre comment, il est incontournable de se pencher sur les caractéristiques du métier de développeur.

Le col ciel : un artisan de l’information

Le rôle d’un développeur est de programmer des logiciels en écrivant des instructions exécutées par la machine : le code. Le travail de développeur est hybride entre la profession intellectuelle et l’artisanat. L’auteur utilise l’expression « cols ciel », jonction entre les « cols bleus » et les « cols blancs » pour les désigner.

Comme tout artisan, le développeur ne peut pas être un individualiste. Même celui qui travaille seul a besoin de ses pairs. De nombreuses communautés en ligne ou physiques permettent au développeur de se former, de résoudre des problèmes rencontrés par d’autres ou de partager du code, en dehors de tout cadre marchand. La plupart des logiciels qui forment l’écosystème informatique aujourd’hui sont libres et aucun développeur ne pourrait travailler en autarcie sans programmer des années pour afficher la moindre image. En un sens, tout développeur est un héritier, devant tout à ses prédécesseurs.

Celui qui travaille en équipe est étroitement lié à ses coéquipiers, car tous modèlent en même temps le produit. Tout comme un orchestre, une équipe doit d’abord apprendre à travailler ensemble et le moindre changement humain est handicapant, le temps d’apprendre à travailler avec le nouveau venu. La taille d’une équipe n’indique en rien sa productivité : si un développeur peut faire un programme en neuf mois, neuf développeurs n’arriveront pas forcément à faire un programme en un mois, sauf s’ils ont appris à œuvrer ensemble.

Les rapports des développeurs avec les managers sont souvent conflictuels : les deux mondes ne se comprennent pas. Des pratiques comme la programmation en binôme, la revue de code mutuelle, le développement piloté par les tests et les entraînements sur du code improductif sont courantes dans les équipes de développement mais constituent de vraies hérésies pour un successeur de Taylor. Plus frustrant : les managers ont rarement le dernier mot face aux développeurs. Le code peut être soumis à des mesures objectives de qualité et de fonctionnalité. Comme le menuisier peut renvoyer son chef à la mesure de l’équerre et du fil à plomb, le développeur peut prouver la conformité du programme aux spécifications par des tests.

Chaque morceau de code produit doit pouvoir être relu et édité facilement, il en va de la productivité de l’équipe. « Laisse le code plus propre que tu ne l’as trouvé » est une des devises des développeurs. Etonnamment, ceux qui suivent cette règle finissent par l’intérioriser en une sorte de conscience ouvrière : le travail bien fait devient un primat.

Une profession en devenir

L’auteur dresse un portrait particulièrement élogieux des développeurs. Je dois dire que je m’y retrouve presque intégralement, me définissant moi-même comme « artisan-développeur ». Hélas l’auteur laisse dans l’ombre la majorité de la profession, les « analystes-programmeurs » et autres « ingénieurs développement ». L’analyste-programmeur pratique le même métier que le développeur, mais avec une mentalité différente : il privilégie un logiciel rapidement fonctionnel à un travail léché et préfère tout planifier à l’avance dans d’énormes cahiers des charges. Alors que le développeur n’a pas d’autre plan de carrière que de devenir un maître, l’analyste programmeur ne rêve que d’être un chef de projet, puis de suivre le parcours balisé du management technique d’entreprise. Les deux composantes de la profession se méprisent mutuellement : les développeurs voient les programmeurs comme des professionnels peu consciencieux, ceux-ci rétorquent en accusant les développeurs d’utopisme et de caprice d’enfant gâté. Il est intéressant de voir qu’à technique égale, la culture est déterminante dans l’usage que l’on en fait.

L’auteur a pris le parti de décrire une avant-garde artisanale de la profession, appelée sans nul doute à grandir et à s’organiser dans les prochaines années. Les déboires de monstres logiciels comme Louvois (logiciel de paiement des soldes de l’armée française) donnent des arguments de choc aux développeurs. Les sessions d’entraînement de type « coding dojo », le désormais célèbre Agile Tour et l’Ordre des Développeurs naissant sont autant de projets extrêmement stimulants, annonciateurs d’un nouvel âge du travailleur qualifié.

Enzo SANDRE
Artisan-développeur

Références

Décoder les développeurs – Un livre sur une profession à l’avant-garde

Benjamin Tainturier – Préface d’Emmanuelle Duez – The Boson Project – Enquête sur une profession à l’avant-garde 138 pages – 19 € – G 56739

Livre gracieusement offert par l’éditeur Eyrolles.

Photo d’entête : atelier logiciel Arpinum

Industrie et énergie : dépendances

Introduction du dossier “L’avenir de la production d’énergie” coordonné par mes soins


Taquinons un peu nos bons écologistes, par ailleurs adeptes du « Progrès » et du « sens de l’histoire » : avant la Révolution Industrielle, la production énergétique était 100% renouvelable !

L’homme connaît l’existence du charbon et du pétrole depuis le néolithique. Il faut attendre l’âge industriel pour qu’il devienne une ressource énergétique nécessaire à l’industrie. Historiquement, le charbon a sauvé les forêts françaises d’un abattage méthodique, pour nourrir le Moloch industriel. Plus tard sont apparus le pétrole et le gaz, qui n’ont jamais diminué la part du charbon dans le mix énergétique mondial. Le nucléaire vint s’additionner.

La part d’énergie dite renouvelable est ridicule. Le sens de l’histoire semble aller vers leur disparition, au profit de ressources de plus en plus denses en énergie. S’il y a un sens à l’histoire, l’avenir se trouve dans les centrales à fusion, non dans les panneaux solaires personnels.

Nous avons l’effronterie de ne pas croire que l’histoire ait un sens. Nous comptons bien dans ce dossier renvoyer dos à dos les écologistes et le cartel des énergéticiens. La centralisation de la production d’énergie n’est pas plus une fatalité que le retour à un passé fantasmé fait de silex entrechoqués et de feux d’excréments.

A l’âge des machines, celui qui produit l’énergie détient le pouvoir. Une production centralisée aux mains de l’État ou d’un cartel va inévitablement centraliser la société bien plus profondément que n’importe quelle idéologie politique. Pour libérer l’avenir, il est urgent de proposer des solutions réalistes de décentralisation. Les écologistes avec leur photovoltaïque ruineux, leur antinucléarisme de slogans et leur catastrophisme sur la fin imminente du pétrole représentent un épouvantail idéal. Il est impossible de bâtir l’avenir avec des bouffons aussi caricaturaux, ils ouvrent un boulevard aux industriels du nucléaire et aux escrocs de la fusion, ravis d’avoir en face d’eux d’aussi ridicules adversaires. Il est temps de bâtir un contre-discours sérieux sur l’énergie, laissant s’exprimer tous ceux qui refusent de participer à cette mascarade. Nous ne sommes pas obligés de choisir entre l’EPR et les éoliennes.

Enzo Sandré

Quel avenir pour la production d’énergie ?

Article du dossier “L’avenir de la production d’énergie” coordonné par mes soins


L’après-pétrole approche et il est temps de penser à son remplacement. Ecologistes et industriels doivent cesser leur autisme et entamer un vrai débat sur le mix énergétique de demain. Analyse d’un débat d’infirmes qui n’en finit plus.

Fission nucléaire : Rickover and over

Tous les réacteurs commerciaux au monde[1] héritent d’un réacteur originel, conçu par l’Amiral Rickover[2] pour propulser les sous-marins nucléaires américains. Il fut adapté pour la production d’énergie civile par Westinghouse, qui vendit la licence à Framatome (devenu Areva) et Mitsubishi. Les générations II (actuelle) et III (en cours de construction) ne sont rien d’autre que des améliorations. Or, le réacteur Rickover n’est pas conçu pour la production d‘énergie civile : il peut s’emballer (Three Miles Island, Fukushima) et produit une grande quantité de déchets radioactifs.

Pourquoi cette filière est-elle conservée ? Car la technologie est maîtrisée et amortie. Il existe pourtant des alternatives tout à fait crédibles, comme le Rubbiatron, le TRIGA ou les réacteurs à caloporteur hélium. Toutes sont reléguées en « génération IV ». Traduction : peut-être un jour, n’espérez rien.

Sur ce sujet, les écologistes sont les meilleurs ennemis de l’industrie. Ils font office d’épouvantail en rejetant complètement toute énergie nucléaire à l’heure où le charbon croît. Ils rendent inaudible toute critique fine du nucléaire, ce qui arrange bien l’industrie qui peut avancer sans garde-fou sérieux.

Fusion : Monomanie ITER

Pendant que ITER monopolise le budget de la recherche (19 milliards désormais), d’autres filières prometteuses sont anémiées par le manque de moyens. Malgré leurs budgets ridicules, la fusion aneutronique[3], la fusion par laser[4] ou les Z-machines pourraient donner des résultats avant qu’ITER n’ait abouti.

En plus d’être affreusement cher[5], ITER est une expérience dangereuse. Les Français seront rassurés d’apprendre que « La Commission européenne estime qu’en cas d’accident les rejets d’effluents radioactifs, sous quelque forme que ce soit, provenant d’ITER en France, ne seront jamais susceptibles d’entraîner, même en cas d’accident nucléaire, une contamination radioactive à l’extérieur des frontières françaises »[6]. En plus des matériaux radioactifs (dont le tritium, trop léger pour être confiné), ITER contient des matériaux aussi sains que du plomb, du lithium et du béryllium. Interrogez votre médecin, il vous expliquera.

De l’aveu même des physiciens, l’accident est probable : ITER est expérimental. Le dispositif contient de nombreux aimants supraconducteurs, capables d’exploser très violemment[7]. La plupart des savoirs mis en jeu seront testés pour la première fois à une telle échelle, avec tous les risques imprévisibles que cela occasionne.

Vive le charbon !

L’aveuglement idéologique des écologistes et les intérêts froids du cartel nucléaire embourbent tout débat. Le nucléaire actuel présente des défauts rédhibitoires, qui réclament un changement profond. Or tout débat sur l’avenir du nucléaire est bloqué par les écologistes, qui tiennent absolument à en sortir et par les industriels, trop satisfaits de vivre sur une technologie amortie. Les deux parties portent la responsabilité de l’accroissement du charbon.

Il est urgent de donner la parole aux physiciens et aux ingénieurs non-alignés sur ces questions, afin d’ouvrir un véritable débat national sur l’énergie de demain. Fusillons les clivages imbéciles et les intérêts à courte vue de l’Argent. En l’absence de souverain capable de trancher, c’est à la société civile d’arbitrer ces questions.

Enzo Sandré

[1] Deux exceptions : les CANDU canadiens, qui ne sont pas vendus et les VVER/RBMK soviétiques, instables et dangereux.

[2] Le réacteur de Shippingport

[3] La réaction Bore-Hydrogène semble la plus prometteuse, elle permettrait même la fabrication de réacteurs à fusion domestiques dans un futur lointain.

[4] Le Laser Mégajoule du CEA est le plus connu, il est principalement destiné à tester les futures bombes thermonucléaires, mais devrait accueillir des expériences civiles de fusion.

[5] 19 milliards d’euros pour l’instant, hors fonctionnement. Déjà 4x le budget prévisionnel alors que la construction n’est pas terminée.

[6] Avis de la Commission Européenne 2012/C 166/01

[7] Le 27 mars 2007, un aimant supraconducteur a explosé au CERN près de Genève.

Crise de l’énergie ou énergie de la crise ?

Article de Richard Bulan, faisant partie du dossier « L’avenir de la production d’énergie » coordonné par mes soins.


Depuis le premier choc pétrolier, les discours alarmistes se répercutent sur les montagnes de la bien-pensance et de la vue court-termiste comme un écho dans une vallée trop encaissée.

Les matières énergétiques ne vont pas manquer dans des délais proches puisque même avec les politiques volontaristes actuelles, l’Agence Internationale de l’Energie prévoit une baisse des énergies fossiles de 82% en 1990 à 75% en 2040, ce qui est passablement ridicule. Ainsi, ce n’est pas une crise de l’offre, notamment avec l’arrivée de l’Iran qui a augmenté leur production de 500 000 barils/jours après la fin de l’embargo[1]. De plus, avec les prix de pétrole supérieur à 80 dollars de 2008 à 2015 ont permis l’industrialisation de processus complexes, engendrant des économies d’échelles, permettant l’augmentation de la production. La fracturation hydraulique connue depuis 1947 couplée aux forages horizontaux, développés eux depuis 1980, en ont profité permettant l’exploitation du pétrole de schiste. Ce dernier est particulièrement exploité par les Etats-Unis dont la production à augmenté de manière constante jusqu’à la chute des cours en 2015[2], et qui est repartie à la hausse au début de l’année 2017[3]. La production est maintenant est susceptible de passer de 200 000 à 500 000 barils/jours. De plus, les différents fonds souverains issus de pays pétrolier, comme l’Arabie Saoudite ou la Norvège ne prévoit pas une sortie de la consommation pétrolière, mais souhaite diversifier leur énergie pour limiter la pollution que cette consommation énergétique engendre.

L’offre de pétrole n’est pas à proprement parlé en crise, on est loin du pic pétrolier, avec le ralentissement de la croissance de la Chine, la volonté globale de limiter la volatilité du marché en lissant les cours avec les différents fonds souverains, ainsi que le développement de nouvelles techniques. Ainsi ce pic pourra arriver dans une dizaine d’année (vers 2030), avec une réduction drastique des ressources vers 2200 en ne prenant en compte que les réserves connues actuellement (certains états ayant une politique de secret concernant leurs réserves)[4].

Le passage à des techniques non pétrolière ou gazière va juste déplacer le problème sur des nouvelles matières. La France n’utilise que 51% d’énergie fossile dans son mix énergétique, si bien qu’elle est très dépendante de l’énergie nucléaire et donc du marché de l’uranium. Des questions similaires vont ainsi se poser pour l’ensemble des matière premières permettant la création d’énergie. Ainsi les énergies dites « renouvelables » utilisent également des minéraux comme les terres rares ou le cobalt, qui engendrera de nouvelles crises et de nouvelles périodes fastes dans une perspective « schumpeterienne ». La crise de l’énergie dispose en elle-même de l’énergie des crises futures …

Richard Bulan

[1] AFP, « L’Iran augmente sa production de 500 000 barils par jour », Les échos, 18 janvier 2016

[2] S. Cornot-Gandolphe, « La révolution des pétroles de Schiste aux Etats-Unis. Le test du business-model en cours », Notes de l’IFRI, janvier 2015

[3] E. Conesa, « Pétrole : l’Amérique prête à augmenter sa production », Les Echos, 29 décembre 2016

[4] B. Durand, « Pétrole, gaz et charbon : nature, mécanismes de formation, perspective d’avenir dans la transition énergétique », Association pour l’étude des pics pétrolier et gazier France, 31 mars 2017

Présidentielles 2017 : les programmes scientifiques et techniques analysés

Après avoir invité Emmanuel Macron pour discuter écologie, recherche, numérique ou santé, le magazine Sciences et Avenir a envoyé un questionnaire similaire aux autres candidats[1]. Nous avons lu et synthétisé l’ensemble de leurs réponses. Pour chaque thème nous avons retenu une idée particulièrement intéressante[2]. Les lecteurs souhaitant lire l’intégralité des entretiens les trouveront sur le site de Sciences et Avenir.

Énergie : Le clivage droite-gauche a survécu.

Avec l’immigration, l’écologie est sans nul doute le sujet principal de cette campagne présidentielle. Chaque candidat a son idée sur le mix énergétique : Mélenchon et Hamon veulent du 100% renouvelable. Dupont-Aignan souhaite lancer la 4ème génération de réacteurs nucléaires (thorium). Fillon et Le Pen proposent un mix énergétique varié, excluant le charbon. Macron est dans le flou le plus total. Enfin, Jacques Cheminade semble être le dernier à croire en la fusion nucléaire à moyen-terme. Tous les candidats s’accordent sur la nécessité de financer la rénovation thermique des bâtiments pour économiser l’énergie.

Marine Le Pen semble la seule à proposer l’utilisation durable de la biomasse pour le chauffage.

Des transports peu ambitieux

Sur les transports, la gauche est très peu ambitieuse : elle veut la fin du diesel, point final. La volonté de récupérer l’électorat écologiste y est sans doute pour beaucoup. Il faut aller chez Fillon, Dupont-Aignan, Le Pen et Asselineau pour trouver une volonté de développer l’hydrogène et l’électrique, avec chez ces trois derniers, la création de champions français. Jacques Cheminade lie transport et économie dans un ambitieux projet ferroviaire.

Nicolas Dupont-Aignan est le seul à exiger la sobriété énergétique des véhicules thermiques. Il souhaite atteindre normativement une limite de 3L/100km, techniquement réaliste.

Economie : penser local, agir global

Réjouissons-nous : dans les discours l’heure est à la décentralisation ! Jean-Luc Mélenchon souhaite « plus d’état », mais déconcentré. Marine Le Pen rêve d’un souverainisme enraciné. Nicolas Dupont-Aignan et François Asselineau veulent des circuits courts et une production alimentaire intégralement locale. Les deux candidats PS sont dans un flou total à base de « circuits courts », « démocratie locale » et autres « décisions populaires ». François Fillon remporte la palme avec son concept d’agriculture locale et intensive (oui !). Seuls Nathalie Arthaud et Jacques Cheminade assument une doctrine centralisatrice. Tous les autres ont l’air de croire que la République peut décentraliser.

Jacques Cheminade souhaite une France des villes intermédiaires, redynamisées par le rail moyenne vitesse. Il propose la réouverture de très nombreuses lignes de province, afin de sortir du schéma en étoile actuel.

La France des robots

Tous font l’éloge de l’intelligence artificielle et du travail des robots. Seul Benoît Hamon souhaite taxer la valeur ajoutée produite par les machines. Sauf deux candidats, tous promettent une cyberdéfense nationale et la souveraineté numérique. Nathalie Arthaud refuse tout cela : ce sont des « ruses capitalistes » (sic). François Fillon lui, rêve d’une cyberdéfense européenne.

Soulignons la clairvoyance de Jacques Cheminade sur ces questions : pour lui la sécurité et la souveraineté sont une affaire de résilience, donc de décentralisation. Il souhaite préserver la vie privée des citoyens face à l’état et défend le logiciel libre, seule garantie d’indépendance.

Santé publique : clivage entre humanistes et techniciens.

Les questions de santé font apparaître de bien curieux clivages : Asselineau et Arthaud défendent une automatisation massive des soins. Mélenchon, Macron et Le Pen refusent cette déshumanisation. Les autres candidats restent flous et proposent de mettre de l’argent partout. Le principe de précaution est défendu par Mélenchon, Le Pen, Hamon et Asselineau. Fillon et Cheminade y sont opposés. Dupont-Aignan reste sceptique. Macron n’en parle pas.

Plutôt qu’un principe de précaution abstrait, Nathalie Arthaud souhaite une pénalisation dissuasive des scandales sanitaires, qui obligerait les cadres à la prudence en matière d’innovation.

Recherche : priorité nationale, comme le reste

Il faut de l’argent pour les chercheurs et les PME innovantes, tous sont d’accord ! Quelques légers clivages apparaissent autour du Crédit impôt recherche et de l’autonomie des universités, rien de grave.

L’absence de projet est plus préoccupante. Seul Jacques Cheminade fixe clairement un objectif avec son ambitieux programme spatial. Les autres candidats se contentent de promettre plus d’argent à tous, une méthode électoralement éprouvée.

Égalité, égalité !

Tous les candidats masculins ont promis une grande loi sur la parité homme/femme. Les plus libéraux comme Dupont-Aignan et Asselineau proposent des actions de communication et de labellisation des entreprises vertueuses. Mélenchon, Hamon, Macron et Fillon sont pour une parité stricte dans le public. Jacques Cheminade prône « L’Éducation du Peuple » (sic) et la camarade Arthaud assure que ça ira mieux avec un bon régime communiste.

Seule Marine Le Pen est défavorable à la stricte parité homme/femme. Elle préfère s’attaquer aux éventuels blocages point par point.

Enzo SANDRE

[1] Philippe Poutou n’a pas répondu et Jean Lassalle trop tard pour figurer dans cet article.

[2] Sans forcément être d’accord avec le reste du programme.

Principe de précaution, boulet économique ?

Dans le programme de François Fillon, en page Agriculture, on peut lire qu’il souhaite « Supprimer de notre Constitution un principe de précaution dévoyé et arbitraire. ». Il invoque la perte de compétitivité causée par ce principe et l’inflation normative qui en résulte.

La présence de cette proposition en page agriculture n’est pas innocente : le principe de précaution a déjà permis de bloquer la progression des OGM, ainsi que de nombreux intrants agricoles suspectés d’être dangereux pour les populations ou les pollinisateurs. Les partisans d’une agriculture intensive, agrochimistes et FNSEA en tête, réclament depuis des années l’abrogation de ce principe. François Fillon ne fait que la reprendre dans son programme.

Le principe de précaution constitutionnalise la primauté de l’environnement sur l’économie. Une partie des libéraux hurle contre cela, oubliant sans doute que sans environnement vivable, il n’y a pas d’hommes, donc pas d’économie[1]. Les règlementations environnementales sont des politiques de gestion du risque technicien. Aussi imparfaites qu’elles soient, elles réduisent le risque que les générations futures soient sacrifiées sur l’autel du bénéfice immédiat, ou du fameux automatisme technicien identifié par Ellul[2].

L’actuel principe de précaution est largement perfectible et les critiques de M. Fillon sont en grande partie recevables, bien que souvent hypocrites : Monsieur Fillon n’est-il pas pour l’Union Européenne, qui ne cesse de normaliser, sur ce sujet comme sur d’autres[3] ? Même si le candidat Fillon souhaitait sortir de l’UE, il lui resterait à affronter l’inertie du système républicain. Le principe de précaution, dans un état centralisé, ne peut pas donner autre chose qu’un monstre juridique tant les cas particuliers à chaque localité sont nombreux.

Autre conséquence funeste de la démocratie : Sur des sujets aussi clivants que les OGM, le parlementaire se retrouve pris en étau entre le lobbyiste et l’opinion publique. Le scientifique n’est pas non plus dans une position confortable : ses crédits dépendent fortement du pouvoir politique ou du monde de la grande entreprise, pendant que l’université française est contrôlée idéologiquement par de véritables ayatollahs de la surprotection contre les « ravages de la techno-science ». Les extrêmes sont hélas bien plus médiatiques que les nuances constructives.

Préserver l’héritage en attendant l’héritier. Le principe de précaution, malgré ses imperfections colle bien à notre objectif. Il est un bon palliatif à l’absence d’un souverain responsable, de par les garde-fous qu’il met à l’hybris technicienne et au capital sans fin. Ses défauts majeurs, que nous avons détaillés dans cet article, sont en grande partie issus de notre appartenance à l’UE et à une république incapable de donner du pouvoir aux localités. Rien de neuf sous le soleil.

Enzo Sandré


Historique du principe de précaution

François Fillon ne prend pas la peine de définir le « principe de précaution », pourtant largement polymorphe, dans son programme. Retour sur l’histoire d’une notion controversée.

Le principe de précaution est né dans les années 70, en Allemagne. Il est fortement inspiré par la philosophie d’Heidegger. Il entre dans le champ politique pour la première fois lors du Sommet de la Terre de 1992 à Rio ou il est formulé comme suit :
« En cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives visant à prévenir la dégradation de l’environnement. ».
Le principe de précaution est repris presque à l’identique en France dans la loi Barnier de 1995 en y ajoutant une condition de « coût économique acceptable ».

Le principe de précaution qu’évoque M. Fillon est celui intégré à la Constitution en 2004. Il est défini dans la Charte de l’Environnement et son but est d’empêcher des dommages potentiellement irréversibles, causés par une technique dont les effets ne sont pas encore bien connus. Le principe de précaution des années 1990 était avant tout une déclaration de principe assez inoffensive, aux conditions d’applications très floues. Le même principe, en 2004, désigne la primauté constitutionnelle de l’environnement sur l’économie.

[1] « économiser signifie d’abord et avant tout prendre soin. » rappelle Bernard Stiegler dans son manifeste Ars Industrialis

[2] L’automatisme peut être résumé par « Si on peut, on veut ». pour Ellul, il est caractéristique d’une société technicienne.

[3] Il accuse les parlementaires français de « surtransposer ». Quoi de plus normal lorsqu’il s’agit d’appliquer localement une directive générale et vague ?