Techniques au travail, Technique dans la Cité : Le mur de l’atelier devait-il tomber ?

Texte de mon intervention orale du 25 août 2018 au Camp Maxime Real del Sarte à Parigny.

Un lieu commun syndical voudrait que la séparation domicile/travail soit un acquis social, en permanence attaqué par le capitalisme vorace. C’est aller un peu vite aux conclusions. La thèse que je vais défendre est autre : il s’agit avant tout d’une affaire de Technique, non de politique.

Regardons l’histoire. Sans remonter à une Antiquité que je connais assez mal, au Moyen-Âge, à moins que vous soyez un marchand ou un transporteur, votre activité professionnelle se déroulait dans le cadre domestique. Le paysan travaillait à la ferme et l’artisan également sauf en cas de chantier. L’atelier ou le bureau étaient toujours à domicile. Vos collaborateurs étaient très souvent votre famille, l’épouse tenait la boutique et les comptes, les enfants étaient apprentis, chez leurs parents ou chez d’autres maîtres qui les logeaient. Le transport était lent et coûteux, la communication orale directe bien plus efficace.

La Renaissance connaît une première fissure dans le mur de l’atelier. L’apparition de l’horloge et de l’imprimerie séparent le cabinet du riche bourgeois, proche des lieux de pouvoir, de sa villa plus éloignée. En même temps, l’apparition du moulin à eau change les modes de production. L’Europe acquiert sa première source d’énergie pilotable centralisée (par opposition aux énergies fatales, vent par exemple et aux énergies décentralisées, comme le bétail). C’est désormais la disponibilité en ouvriers qualifiés qui limite la production. La Renaissance voit les maîtres-artisans se concentrer dans les manufactures, lieux optimisés pour une production à l’aide de machines-outils fonctionnant sur une source d’énergie puissante et centralisée.

Il faut attendre l’âge industriel pour voir le mur de l’atelier tomber à nouveau. Le gigantesque besoin de main d’œuvre et la faible vitesse des transports poussent les entreprises à loger leurs employés. A Nord c’était les corons dit la chanson, mais il n’était pas rare non plus que le capitaliste dorme à l’usine ou à la bourse. La seconde révolution industrielle voit l’apparition des banlieues pavillonnaires, véritables tissus adipeux des villes. La bagnole, si violemment dénoncée par André Gorz a permis l’éloignement géographique de la main d’œuvre.

Il faut attendre les années 2000 et Internet pour réunir à nouveau partiellement le domicile et le travail. Ces dernières années ont amplifié ce phénomène. Le cadre qui consulte ses mails dans le lit conjugal et le géant du web qui fait habiter ses salariés sur son lieu de travail participent du même phénomène. On notera aussi la mode des conciergeries d’entreprise, véritables auxiliaires de vie traitant le lavage, le repassage, la garderie, et j’en passe pour les salariés. Tout est fait pour maximiser le temps efficace du travailleur dans l’entreprise, souvent sous couvert de convivialité.

Notez que ces mutations ne sont pas une affaire de classe sociale ou de volonté politique. La caissière comme le trader sont touchés et même les patrons des GAFAM n’arrivent pas à complètement isoler leurs enfants de ces phénomènes. Les politiciens, tous pays confondus sont parfaitement désemparés face au phénomène. Instaurer un droit à la déconnexion est parfaitement vain face à l’ampleur de la déferlante. Dans une société technicienne, rien ne peut s’opposer à la marche de Technique, surtout pas le politique.

Toute technique modifie le rapport entre l’homme et le réel. Tout homme qui travaille produit des biens, des services ou des informations. Il est évident que toute technique modifiant la circulation des biens, des services ou des informations, modifiera très largement la société, mais plus particulièrement le rapport entre le domicile et le travail. Quand la transmission d’informations avec ses inconvénients est plus efficace que la rencontre physique avec le coût de transport, le domicile et le travail se séparent. Les technologies de l’information ont tendance à rapprocher le domicile du travail alors que les progrès dans les transports les éloignent.

Un autre phénomène modèle les rapports domicile/travail : la densité énergétique nécessaire au travail. Les concentrations manufacturières puis industrielles en sont des exemples : concentrez l’énergie, vous concentrez les lieux de travail de nombreux travailleurs en un point. Ce point n’est jamais le domicile d’un seul travailleur. Si les transports du moment ne permettent pas le déplacement pendulaire quotidien des salariés, les besoins de l’industrie les concentreront autour, voire dans l’usine. Les embouteillages chroniques de la Silicon Valley sont une des raisons qui poussent Apple et Google à loger leurs employés sur place.

Considérations sociales : est-ce souhaitable ?

Nous avons décrit ce phénomène comme étant cyclique et inéluctable si les technologies sont disponibles, étudions maintenant les avantages et les inconvénients de cette fusion entre domicile et travail, à l’heure actuelle.

Les principaux avantages de la chute du mur de l’atelier sont d’ordre écologiques : économies sur le trajet domicile-travail, diminution des surfaces de bureaux nécessaires et disparition des quartiers dortoirs. Le quartier redevient un lieu de vie, où les gens travaillent, habitent, commercent et se rencontrent. La souplesse dans son emploi du temps permet au travailleur d’avoir une activité associative et politique parallèle à son travail. La Cité renaît. Le télétravail permet des déplacements plus occasionnels du salarié à son lieu de travail, ce qui laisse sa chance à la ruralité. Un trajet quotidien de 2h est intolérable pour la plupart des salariés, il ne pose aucun problème pour une réunion hebdomadaire au siège de l’entreprise. Pour peu que la campagne s’équipe en télécommunications mobiles, elle attirera des cadres aisés capable de relancer l’économie locale. Enfin, la présence du travailleur à son domicile lui permet d’assumer un important travail fantôme, éducation des enfants, entretien du foyer, aide à la collectivité. Autant de tâches retirées au marché, rentrant donc à nouveau dans le champ du gratuit, ciment d’une communauté. Les familles éparpillées peuvent à nouveau faire souche si elles le souhaitent.

Cependant, ce tableau idyllique d’une France retrouvée ne doit pas occulter les inconvénients de l’absence de séparation entre domicile et travail. Le plus évident est la présence du patron dans la vie privée du salarié. Pire encore, la présence de votre moitié et de vos enfants en permanence sur votre lieu de travail. Des tyrans souvent contradictoires. Ensuite, le travail à domicile souffre de nombreux inconvénients pour qui travaille en équipe. Les télécommunications ne remplaceront jamais le contact humain direct, car elles réduisent bien souvent le langage à sa seule composante orale, occultant la gestuelle, le non-verbal, etc. L’absence de présence physique des collègues ne permet pas une véritable cohésion, autour de la machine à café ou de la pause de midi par exemple. La souplesse de l’emploi du temps a un revers : le manque de concentration. L’attention est sans cesse saisie par des taches multiples et le cerveau a besoin d’un temps non-négligeable pour se concentrer à nouveau après un changement de contexte. Le bureau permet plus facilement de se concentrer. Au domicile cela requiert une discipline monacale. Enfin, n’oublions pas le coût écologique des télécommunications, parfois bien plus élevé que les transports qu’elles remplacent. Le numérique vert est une vaste supercherie, le seul fonctionnement d’Internet est le premier poste de consommation d’électricité mondial. Ne parlons pas des ressources nécessaires à l’assemblage des ordinateurs, serveurs, routeurs et câbles.

A chaque métier son fonctionnement

Ma conclusion est d’abord un appel à ne pas être dogmatiques. Mes propositions vont être un appel aux professionnels mais aussi aux politiques.

Il est évident tout d’abord que certaines professions ne pourront jamais permettre une fusion domicile/travail, sauf à revenir aux heures les plus sombres de la Révolution Industrielle. C’est le cas pour tous les professionnels sur les chantiers, mais également dans l’industrie lourde. Les métallos, les mineurs de tungstène ou les constructeurs de missiles auront des difficultés à ramener le travail à la maison, vous en conviendrez. Cependant, cette concentration industrielle peut être réduite par un recours raisonné à une nébuleuse de sous-traitants plus petits et mieux répartis sur le territoire grâce aux technologies du transport et aux télécommunications. L’exemple du pôle aéronautique de Figeac doit servir de modèle.

Ma première proposition est de faire de la grande entreprise une affaire politique, soumis à un régime d’autorisation réservé aux seules industries de puissance. Les implications sociales, écologiques et géographiques de ces mastodontes sont trop lourdes pour être laissées à la seule loi du marché.

Pour toutes les autres entreprises, le choix doit être laissé aux salariés, sans régime incitatif dans aucun sens. Travailler chez soi ou à l’atelier doit être une liberté fondamentale et une responsabilité du professionnel. Chacun des modes de travail présente ses avantages et inconvénients, nous l’avons vu, seul le professionnel responsable sait quand rester à son domicile et quand se réunir dans les locaux de l’entreprise.

L’espace urbain doit être réorganisé pour faciliter ce choix. La mode des espaces de coworking doit se pérenniser afin de réduire la surface et donc l’empreinte écologique des bureaux. La rotation des salariés permet évidemment une réduction du nombre de bureaux utilisés en même temps. La numérisation des documents rend obsolète le bureau nominatif, servant également de zone de stockage. Ils sont amenés progressivement à être remplacés par des sièges minimaux, simples lieux de rencontre pour les parties prenantes de l’entreprise, plus que lieu de travail.

Au cœur des villes, il faut encourager les maires et cafetiers à recréer des espaces collectifs calmes et beaux : parcs, places ou bâtiments, équipés en WiFi et en tables, qui permettraient aux professionnels de recréer des communs, permettant autant de travailler que d’échanger et de prendre une pause. L’urbanisme des cubes de béton anonymes doit être démoli pour recréer des points de convergence.

Enfin, le raccordement des zones rurales à Internet doit être encouragé afin de redynamiser ces territoires. Des aides peuvent être accordées aux salariés pour l’installation d’un réseau haut-débit à leur domicile, par exemple. Il serait également temps d’ubériser les bus, pour créer un réseau de transports collectifs à la demande.

J’encourage chacun d’entre vous à porter ces propositions dans son entreprise ou dans sa mairie. Elles sont simples à mettre en œuvre, ne nécessitent que peu d’efforts des politiques et des patrons.

Enzo Sandré

Délit d’initié : le PDG d’Intel a vendu ses parts le 29 novembre

Tempête mondiale dans le monde numérique : Intel, géant mondial des microprocesseurs vient d’annoncer la découverte et la correction d’une faille présente depuis plus de 10 ans dans ses produits. 5 à 30% de réduction des performances sont annoncés après application du correctif.

Cette affaire est sans doute connue depuis des mois chez Intel, à en juger par l’étrange transaction réalisée le 29 novembre par son PDG, Brian Krzanich. Le dirigeant a vendu l’intégralité de ses Stock-Options, ne gardant que le strict minimum. Coïncidence ou délit d’initié ? La presse française n’a pas encore évoqué l’affaire.

Enzo Sandré


Pour plus de détails, nous vous proposons un article du site The Motley Fool, traduit par nos soins.

Le PDG d’Intel vient de vendre beaucoup d’actions

Ces transactions ne sont pas à prendre à la légère.

Le 29 novembre, Brian Krzanich, le PDG du géant des puces Intel (NASDAQ:INTC), a déclaré plusieurs transactions sur des actions Intel dans un Formulaire 4 déposé auprès de la SEC (Securities and Exchange Commission).

La plupart des transactions impliquaient l’exercice par Krzanich de stock-options, qui lui permettaient d’acheter des actions Intel à des prix nettement inférieurs à ceux du cours à l’heure actuelle, et leur revente immédiate sur le marché.

Il n’y a en soi rien de mal, ou même d’inhabituel, dans de telles transactions. Les dirigeants d’entreprise, et même certains employés, reçoivent souvent soit des stock-options et / ou des unités d’actions restreintes (UAR) dans le cadre de leurs régimes de rémunération, et les bénéficiaires de cette rémunération voudront tôt ou tard les convertir en liquidités.

En effet, comme expliqué ici, la vente faite par des initiés n’est pas toujours de nature à susciter l’inquiétude.

Toutefois, deux des transactions déclarées par Krzanich dans le formulaire 4 me semblent plus importantes que les exercices de stock-options ordinaires et les ventes subséquentes d’actions. Regardons de plus près.

Krzanich garde le strict minimum

Les statuts d’Intel imposent aux dirigeants et aux membres du conseil d’administration de détenir un certain nombre de titres de propriété à partir du moment où ils travaillent pour l’entreprise depuis cinq ans. Voici les montants basés sur le rang au sein de l’entreprise :

PDG 250,000
Directeur exécutif et président 150,000
Directeur financier 125,000
Vice-président exécutif 100,000
Vice-président senior 65,000
Vice-président administration 35,000
Autres vice-présidents et hauts responsables 5,000-10,000

Krzanich ayant été nommé PDG d’Intel en mai 2013, il devrait avoir 250 000 actions d’ici mai 2018, soit dans environ cinq mois. Il est donc intéressant de noter qu’avant de faire l’une des transactions qu’il a déclarées dans son dernier formulaire 4, il détenait 495 743 actions.

Après les exercices d’options et les ventes subséquentes (qui ont laissé sa position inchangée à 495 743 actions), Krzanich a ensuite réalisé deux autres transactions : une vente de 242 830 actions et une vente de 2 913 actions, chacune s’étant faite au prix moyen de 44,555 $.

Suite à ces deux transactions, Krzanich détient exactement 250 000 actions – soit le strict minimum qu’il doit détenir en tant que PDG.

Qu’est-ce que cela signifie ?

Krzanich a peut-être vendu ces 245 743 actions évaluées à près de 11 millions de dollars au moment des transactions pour payer une nouvelle maison ou acheter une œuvre d’art rare. Cependant, cette explication est trop simple et assez vague, notamment à la lumière de la grande manne qu’il a reçue lorsqu’il a exercé et vendu toutes ces options d’achat d’actions.

Au lieu de cela, étant donné que Krzanich semble avoir vendu toutes les actions qu’il pouvait sauf celles que les statuts d’Intel l’obligent à détenir, j’ai l’impression qu’il n’a pas une grande confiance dans le potentiel des actions Intel. Il est peut-être en cela influencé par un point de vue tiède (voire même négatif) des perspectives commerciales de l’entreprise à court et à moyen-terme.

Après tout, si on se souvient que le directeur financier d’Intel, Robert Swan, aurait déclaré dans une note rapportée par The Oregonian que la société a pour objectif d’augmenter sa capitalisation boursière à 300 milliards de dollars (avec des actions à plus de 60 dollars) d’ici 2021, n’aurait-il pas été plus sage pour Krzanich de garder ces actions, en collectant environ un quart de million de dollars par an en versements de dividendes, jusqu’à ce que chacune rapporte 16 dollars de plus, pour une valeur additionnelle de près de 4 millions de dollars ?

En effet, si on prend en compte l’affirmation qu’il a faite en février selon laquelle le marché potentiel d’Intel devrait atteindre les 220 milliards de dollars d’ici 2021, il semble étrange que Krzanich choisisse de ne garder que les actions que le règlement d’Intel lui impose.

Source : https://www.fool.com/investing/2017/12/19/intels-ceo-just-sold-a-lot-of-stock.aspx

Vers la fin (de la neutralité) d’Internet ?

Le 14 décembre 2017, la FCC[i] a officiellement mis fin à la neutralité du net. Hurlements du côté des « défenseurs des libertés » pro-neutralité, cris de joie du côté des « défenseurs des libertés » anti-neutralité. Cette décision n’est pourtant qu’un symptôme : la toile craque sous le poids des géants du web.

Le postier libre dans le monde libre

Revenons aux origines : Internet était un petit réseau reliant des utilisateurs de taille comparable, souvent à la fois clients[ii] et serveurs[iii]. Le réseau est conçu pour dissocier complètement la couche physique (transmission des informations) du transport (adressage, routage) et de l’information transmise. Pour prendre une image, n’importe quel colis bien adressé peut aller n’importe où en passant par un nombre indéterminé de bureaux de poste, qui communiquent entre eux comme bon leur semble (avion, barque, etc.). Implicitement, le postier n’avait pas le droit de discriminer le colis selon son origine, sa destination, son poids ou son contenu, par exemple en forçant les gros colis à prendre le bateau. Cette neutralité de fait d’Internet a permis son essor face aux réseaux concurrents.

Mon postier est surchargé

La neutralité de principe n’existait pas avant 2004, car elle allait de soi dans un réseau décentralisé. Quand la FCC adopte une déclaration sur la neutralité du net, il s’agissait déjà de sauver ce principe dans un réseau en cours de centralisation.

Les états, renseignement et justice en tête, ne pouvaient pas laisser cette immense cour de récréation sans surveillance. Avènement des pandémies informatiques, expansion du crime ou du simple délit contre le droit d’auteur : Internet devait être surveillé et censuré au besoin. Même les plus grands défenseurs de l’Internet Libre n’ont rien vu à redire. Certains hypocrites craignent une censure extra-légale par les opérateurs privés avec la fin de la neutralité. N’est-ce pas déjà le cas ? L’affaire Stormfront évoquée dans nos colonnes n’est pas autre chose, au nom de la lutte contre les discours de haine. Que dire des réseaux sociaux, véritables sous-réseaux d’Internet, qui censurent à tour de bras ?

Les nouveaux usages d’Internet ont polarisé le réseau : une multitude d’utilisateurs ne fournissant aucune ressource consommant des plateformes toujours plus fréquentées. Pour relier plusieurs villages autonomes, un réseau de petites routes fonctionne très bien. Autour d’une grande ville, vous devrez créer des autoroutes, des ponts, des métros. Internet fonctionne de la même manière. La polarisation crée de la centralisation, qui crée des coûts d’infrastructure.

L’infrastructure d’Internet est gérée par des transiteurs, dont les FAI[iv]. Ils doivent dimensionner la taille des tuyaux au volume qui y circule. Avec la neutralité du net, ils n’ont pas le droit de ralentir ou bloquer un flux sur la base de son contenu, de sa source ou de sa destination. Les transiteurs se voient obligés d’accepter le tout-venant et de dimensionner leurs infrastructures en conséquence. La neutralité du net a un effet pervers : elle permet un chantage des plateformes envers les transiteurs. Un exemple : YouTube est très apprécié des utilisateurs, qui se plaignent auprès de leur FAI à la moindre lenteur (« je paie pour ça »). Le FAI fait pression sur le transiteur pour augmenter la taille du tuyau le reliant à YouTube. Le transiteur doit réaliser des investissements assez lourds auquel YouTube refuse de participer, arguant que le tuyau bâti pour lui est neutre, donc théoriquement utile à tous. Les abonnements à la carte étant interdits par la neutralité du net, le coût est globalement répercuté sur l’utilisateur final.

Internet : une ressource

La fin de la neutralité du net va coûter cher aux plateformes comme YouTube ou Netflix, obligées de partager la facture de transit avec les utilisateurs qui les regardent. Pour la France, ce sera la seule conséquence de cette décision américaine, à moins que les autorités européennes ne décident d’en finir elles aussi avec la neutralité du net.

La fin de la neutralité est un symptôme de l’internet-marché : un portail de services à la carte. 5€/mois pour YouTube, 10€ pour Google, ne laissant pas de place en dehors des géants prêts à payer pour y figurer. L’utilisateur possèdera un simple terminal, sorte de smartphone verrouillé où l’on ajoute des applications.

L’avenir d’Internet est sombre, mais il est tout à fait probable qu’un autre réseau le remplace dans les années à venir. Il devra éviter les trois écueils qui tuent Internet : régulation des géants qui déstabilisent physiquement le réseau (GAFA, mais aussi FAI obèses), chiffrement intégral des échanges pour éviter les intermédiaires trop curieux et atténuation de la dichotomie client/serveur (P2P, réseau distribué).

La liberté du réseau a un prix, incompatible avec sa centralisation.

[i] Federal Communications Commission, l’autorité régulatrice des télécoms aux USA.

[ii] Le client demande une ressource sur le réseau

[iii] Le serveur fournit une ressource à la demande

[iv] Fournisseurs d’accès à Internet

Emprisonnons les mauvais développeurs

 Dans toute profession, on peut voir le travailleur de deux manières. Soit on le considère comme un ouvrier, simple paire de bras reliée au cerveau de son chef. Soit on le considère comme un artisan, humain constitué d’un encéphale fonctionnel relié à une paire de bras.

Ce débat peut paraître lointain, mais quand on pose cette question à propos d’une profession qui dirige le monde, elle prend une gravité certaine. La condamnation vendredi 25 août du développeur James Liang, à 40 mois de prison et 200 000€ d’amende pour son rôle dans l’affaire Volkswagen le montre.

Soit on considère le développeur comme un exécutant, donc irresponsable de ce que son donneur d’ordre lui demande.

Soit on le considère comme un artisan, responsable de ses actes et des effets des monstres qu’il créé.

Préférez-vous confier votre pacemaker, votre voiture autonome et votre centrale nucléaire à des professionnels du développement ou à des esclaves du capital ? Les premiers obéissent à des règles de l’art ainsi qu’à une éthique. Les seconds obéissent aveuglément à leur chef, qui n’y connaît rien et ne jure que par la rentabilité.

La conséquence directe de ce choix est le droit ou non des développeurs à se diriger eux-mêmes. Un ouvrier n’a aucune compétence propre, il est une paire de bras. Il n’a pas de devoirs, donc pas de droits non plus. Son rôle social est au mieux celui d’un syndiqué se battant pour des conditions de travail décentes.

Un artisan est un professionnel qui a le devoir de produire un travail bon et utile à la société, il doit donc exiger des droits allant dans ce sens. Le premier est celui d’être protégé par des normes que nul ne peut ignorer : les règles de l’art. Le second est celui d’être jugé en première instance par ses pairs, sur la base desdites normes. Le troisième est celui d’être défendu et conseillé par les maîtres de sa profession, y compris face à son donneur d’ordres lorsque l’éthique professionnelle est en jeu.

Si notre ami James Liang avait eu un corps de métier pour le défendre face aux exigences frauduleuses de ses supérieurs, aurait-il accepté de trafiquer les véhicules ? Isolé, le lanceur d’alertes risque le licenciement, la ruine et la prison. Les règles de l’art opposables protègent le professionnel, elles ne sont pas un carcan. Le but premier d’un corps de métier est la diffusion de celles-ci afin que nul ne puisse les ignorer.

Une société qui interdit les ordres professionnels n’a pas le droit de se plaindre des méfaits de travailleurs toxiques. Au pire malhonnêtes, au mieux sans défense face aux exigences de leur hiérarchie, ils sont la conséquence de la recherche du profit à tout prix. Les premiers doivent être jetés en prison, les seconds doivent être défendus et accompagnés.

Derrière la question de la responsabilité des travailleurs devant leurs actes, deux visions de la société s’opposent : la première bâillonne l’éthique au nom de la rentabilité, pavant la voix à une véritable voyoucratie du capital. La seconde jugule les pratiques néfastes au nom de l’éthique et du bien commun. Avènement de corporations servant le bien commun, ou triomphe du Capital. Aucune autre alternative n’existe.

Enzo Sandré

La Puissance moderne

Recension d’un ouvrage de Raphaël Chauvancy – La Puissance moderne, aux éditions Apopsix


Retournons à une période clé de notre histoire : le règne de Louis XVI. La France est devenue la première puissance mondiale, grâce à une ambitieuse politique de guerre économique. Son armée de terre est la plus puissante d’Europe et les efforts de Vergennes ont porté leurs fruits sur mer : la flotte française pèse suffisamment pour infliger de sérieux revers à la perfide Albion, entamant son commerce sur la route des Indes. On le sait depuis Thucydide : on ne peut vaincre une puissance maritime que par la mer.

La diplomatie de la France est une merveilleuse machine à créer l’équilibre. Ayant bien compris qu’une puissance détruite cherche à se venger, la France réussit par de subtils jeux d’alliance à contenir les visées déraisonnables de ses voisins. Le royaume est allié à l’Espagne, par le sang, à la Hollande par anglophobie et à l’Autriche, par ruse.

A l’exception notable du redressement de la Royale, tous ces succès ne sont hélas que l’œuvre d’habiles et patients ministres. Louis XVI savait s’entourer pour compenser sa bonhommie. Les qualités qui font un admirable humain sont hélas des marqueurs de faiblesse pour un souverain, qui ne peut se permettre la gentillesse. La realpolitik française est morte avec Vergennes, quand le Bon Louis jugea pertinent de faire arbitrer la guerre civile en cours chez son allié Hollandais par l’Angleterre et la Prusse. Tout le jeu d’alliance français s’est effondré comme un parcours de dominos après cela. Ce fut le premier clou sur le cercueil de la dynastie Capétienne.

La France de Louis XVI était une cocotte-minute prête à exploser. La paix venait de la prospérité, car chacun avait d’excellentes raisons d’espérer mieux pour ses enfants. La Royale en pleine expansion était le formidable ascenseur social que l’armée de terre, sclérosée par la noblesse, avait cessé d’être. Le commerce florissant occupait les bourgeois, les détournant de leur jalousie envers les nobles. Le peuple était occupé à assimiler les techniques nouvelles, découvertes en France ou pillées aux Anglais par les agents de la guerre économique française. Hélas la prospérité était un exutoire, non une solution. La débâcle diplomatique provoquée par Louis XVI après la mort de Vergennes allait siffler la fin de la trêve intérieure.

La diplomatie équilibrée de la France, trop novatrice à l’époque où la puissance se comptait en hectares, n’avait pas valu au royaume que des amis. L’Europe n’aimait pas cette France médiatrice et pacificatrice, qui frustrait leurs envies de conquête. L’Angleterre avait échappé de peu à la perte de son statut de première puissance maritime. L’Europe fut trop heureuse de jeter de l’huile sur le feu pour embourber la France dans une révolte intérieure.

Toutes les composantes de la société française avaient des raisons de vouloir un changement radical. Louis XVI, grand conciliateur dans l’âme et montagne de bonté se trouvait bien seul à Versailles pour gérer une situation nécessitant de la poigne. Il fut incapable d’être le chef fort dont les français avaient besoin et le paya de sa vie. Telle une étoile en fin de vie, la France s’embrasa violemment, utilisant les réserves patiemment construites par la monarchie dans un grand éclat qui allait détruire l’Europe et laisser notre pays exsangue. La puissance accumulée par la France ne fut jamais autant visible que pendant sa chute.

Le livre de Raphaël Chauvancy explique à merveille les clés de la puissance française à l’aube de la Révolution. Très facile d’accès il n’en est pas moins très complet.

Enzo Sandré

Décoder les développeurs : enquête sur une profession à l’avant-garde

Celui qui raisonne comme au XXème siècle ne peut pas comprendre les développeurs. Ils sont les enfants terribles de la post-modernité, dans toutes ses contradictions : symboles du progrès technologique guidés par une conscience artisanale ; cols blancs à la mentalité ouvrière bien trempée ; libertaires contractualistes rêvant de communautés de métier ; geeks technophiles sévèrement critiques de la machine.

Cette profession si particulière (que j’exerce moi-même avec beaucoup de fierté) annonce-t-elle un nouvel âge du travailleur qualifié ? Elle pourrait, comme le dit l’auteur « dessiner les contours d’organisations différentes, qui valorisent l’autonomie, la collaboration et l’énergie créative » et estomper le brouillard du taylorisme. Pour comprendre comment, il est incontournable de se pencher sur les caractéristiques du métier de développeur.

Le col ciel : un artisan de l’information

Le rôle d’un développeur est de programmer des logiciels en écrivant des instructions exécutées par la machine : le code. Le travail de développeur est hybride entre la profession intellectuelle et l’artisanat. L’auteur utilise l’expression « cols ciel », jonction entre les « cols bleus » et les « cols blancs » pour les désigner.

Comme tout artisan, le développeur ne peut pas être un individualiste. Même celui qui travaille seul a besoin de ses pairs. De nombreuses communautés en ligne ou physiques permettent au développeur de se former, de résoudre des problèmes rencontrés par d’autres ou de partager du code, en dehors de tout cadre marchand. La plupart des logiciels qui forment l’écosystème informatique aujourd’hui sont libres et aucun développeur ne pourrait travailler en autarcie sans programmer des années pour afficher la moindre image. En un sens, tout développeur est un héritier, devant tout à ses prédécesseurs.

Celui qui travaille en équipe est étroitement lié à ses coéquipiers, car tous modèlent en même temps le produit. Tout comme un orchestre, une équipe doit d’abord apprendre à travailler ensemble et le moindre changement humain est handicapant, le temps d’apprendre à travailler avec le nouveau venu. La taille d’une équipe n’indique en rien sa productivité : si un développeur peut faire un programme en neuf mois, neuf développeurs n’arriveront pas forcément à faire un programme en un mois, sauf s’ils ont appris à œuvrer ensemble.

Les rapports des développeurs avec les managers sont souvent conflictuels : les deux mondes ne se comprennent pas. Des pratiques comme la programmation en binôme, la revue de code mutuelle, le développement piloté par les tests et les entraînements sur du code improductif sont courantes dans les équipes de développement mais constituent de vraies hérésies pour un successeur de Taylor. Plus frustrant : les managers ont rarement le dernier mot face aux développeurs. Le code peut être soumis à des mesures objectives de qualité et de fonctionnalité. Comme le menuisier peut renvoyer son chef à la mesure de l’équerre et du fil à plomb, le développeur peut prouver la conformité du programme aux spécifications par des tests.

Chaque morceau de code produit doit pouvoir être relu et édité facilement, il en va de la productivité de l’équipe. « Laisse le code plus propre que tu ne l’as trouvé » est une des devises des développeurs. Etonnamment, ceux qui suivent cette règle finissent par l’intérioriser en une sorte de conscience ouvrière : le travail bien fait devient un primat.

Une profession en devenir

L’auteur dresse un portrait particulièrement élogieux des développeurs. Je dois dire que je m’y retrouve presque intégralement, me définissant moi-même comme « artisan-développeur ». Hélas l’auteur laisse dans l’ombre la majorité de la profession, les « analystes-programmeurs » et autres « ingénieurs développement ». L’analyste-programmeur pratique le même métier que le développeur, mais avec une mentalité différente : il privilégie un logiciel rapidement fonctionnel à un travail léché et préfère tout planifier à l’avance dans d’énormes cahiers des charges. Alors que le développeur n’a pas d’autre plan de carrière que de devenir un maître, l’analyste programmeur ne rêve que d’être un chef de projet, puis de suivre le parcours balisé du management technique d’entreprise. Les deux composantes de la profession se méprisent mutuellement : les développeurs voient les programmeurs comme des professionnels peu consciencieux, ceux-ci rétorquent en accusant les développeurs d’utopisme et de caprice d’enfant gâté. Il est intéressant de voir qu’à technique égale, la culture est déterminante dans l’usage que l’on en fait.

L’auteur a pris le parti de décrire une avant-garde artisanale de la profession, appelée sans nul doute à grandir et à s’organiser dans les prochaines années. Les déboires de monstres logiciels comme Louvois (logiciel de paiement des soldes de l’armée française) donnent des arguments de choc aux développeurs. Les sessions d’entraînement de type « coding dojo », le désormais célèbre Agile Tour et l’Ordre des Développeurs naissant sont autant de projets extrêmement stimulants, annonciateurs d’un nouvel âge du travailleur qualifié.

Enzo SANDRE
Artisan-développeur

Références

Décoder les développeurs – Un livre sur une profession à l’avant-garde

Benjamin Tainturier – Préface d’Emmanuelle Duez – The Boson Project – Enquête sur une profession à l’avant-garde 138 pages – 19 € – G 56739

Livre gracieusement offert par l’éditeur Eyrolles.

Photo d’entête : atelier logiciel Arpinum

Industrie et énergie : dépendances

Introduction du dossier “L’avenir de la production d’énergie” coordonné par mes soins


Taquinons un peu nos bons écologistes, par ailleurs adeptes du « Progrès » et du « sens de l’histoire » : avant la Révolution Industrielle, la production énergétique était 100% renouvelable !

L’homme connaît l’existence du charbon et du pétrole depuis le néolithique. Il faut attendre l’âge industriel pour qu’il devienne une ressource énergétique nécessaire à l’industrie. Historiquement, le charbon a sauvé les forêts françaises d’un abattage méthodique, pour nourrir le Moloch industriel. Plus tard sont apparus le pétrole et le gaz, qui n’ont jamais diminué la part du charbon dans le mix énergétique mondial. Le nucléaire vint s’additionner.

La part d’énergie dite renouvelable est ridicule. Le sens de l’histoire semble aller vers leur disparition, au profit de ressources de plus en plus denses en énergie. S’il y a un sens à l’histoire, l’avenir se trouve dans les centrales à fusion, non dans les panneaux solaires personnels.

Nous avons l’effronterie de ne pas croire que l’histoire ait un sens. Nous comptons bien dans ce dossier renvoyer dos à dos les écologistes et le cartel des énergéticiens. La centralisation de la production d’énergie n’est pas plus une fatalité que le retour à un passé fantasmé fait de silex entrechoqués et de feux d’excréments.

A l’âge des machines, celui qui produit l’énergie détient le pouvoir. Une production centralisée aux mains de l’État ou d’un cartel va inévitablement centraliser la société bien plus profondément que n’importe quelle idéologie politique. Pour libérer l’avenir, il est urgent de proposer des solutions réalistes de décentralisation. Les écologistes avec leur photovoltaïque ruineux, leur antinucléarisme de slogans et leur catastrophisme sur la fin imminente du pétrole représentent un épouvantail idéal. Il est impossible de bâtir l’avenir avec des bouffons aussi caricaturaux, ils ouvrent un boulevard aux industriels du nucléaire et aux escrocs de la fusion, ravis d’avoir en face d’eux d’aussi ridicules adversaires. Il est temps de bâtir un contre-discours sérieux sur l’énergie, laissant s’exprimer tous ceux qui refusent de participer à cette mascarade. Nous ne sommes pas obligés de choisir entre l’EPR et les éoliennes.

Enzo Sandré

Quel avenir pour la production d’énergie ?

Article du dossier “L’avenir de la production d’énergie” coordonné par mes soins


L’après-pétrole approche et il est temps de penser à son remplacement. Ecologistes et industriels doivent cesser leur autisme et entamer un vrai débat sur le mix énergétique de demain. Analyse d’un débat d’infirmes qui n’en finit plus.

Fission nucléaire : Rickover and over

Tous les réacteurs commerciaux au monde[1] héritent d’un réacteur originel, conçu par l’Amiral Rickover[2] pour propulser les sous-marins nucléaires américains. Il fut adapté pour la production d’énergie civile par Westinghouse, qui vendit la licence à Framatome (devenu Areva) et Mitsubishi. Les générations II (actuelle) et III (en cours de construction) ne sont rien d’autre que des améliorations. Or, le réacteur Rickover n’est pas conçu pour la production d‘énergie civile : il peut s’emballer (Three Miles Island, Fukushima) et produit une grande quantité de déchets radioactifs.

Pourquoi cette filière est-elle conservée ? Car la technologie est maîtrisée et amortie. Il existe pourtant des alternatives tout à fait crédibles, comme le Rubbiatron, le TRIGA ou les réacteurs à caloporteur hélium. Toutes sont reléguées en « génération IV ». Traduction : peut-être un jour, n’espérez rien.

Sur ce sujet, les écologistes sont les meilleurs ennemis de l’industrie. Ils font office d’épouvantail en rejetant complètement toute énergie nucléaire à l’heure où le charbon croît. Ils rendent inaudible toute critique fine du nucléaire, ce qui arrange bien l’industrie qui peut avancer sans garde-fou sérieux.

Fusion : Monomanie ITER

Pendant que ITER monopolise le budget de la recherche (19 milliards désormais), d’autres filières prometteuses sont anémiées par le manque de moyens. Malgré leurs budgets ridicules, la fusion aneutronique[3], la fusion par laser[4] ou les Z-machines pourraient donner des résultats avant qu’ITER n’ait abouti.

En plus d’être affreusement cher[5], ITER est une expérience dangereuse. Les Français seront rassurés d’apprendre que « La Commission européenne estime qu’en cas d’accident les rejets d’effluents radioactifs, sous quelque forme que ce soit, provenant d’ITER en France, ne seront jamais susceptibles d’entraîner, même en cas d’accident nucléaire, une contamination radioactive à l’extérieur des frontières françaises »[6]. En plus des matériaux radioactifs (dont le tritium, trop léger pour être confiné), ITER contient des matériaux aussi sains que du plomb, du lithium et du béryllium. Interrogez votre médecin, il vous expliquera.

De l’aveu même des physiciens, l’accident est probable : ITER est expérimental. Le dispositif contient de nombreux aimants supraconducteurs, capables d’exploser très violemment[7]. La plupart des savoirs mis en jeu seront testés pour la première fois à une telle échelle, avec tous les risques imprévisibles que cela occasionne.

Vive le charbon !

L’aveuglement idéologique des écologistes et les intérêts froids du cartel nucléaire embourbent tout débat. Le nucléaire actuel présente des défauts rédhibitoires, qui réclament un changement profond. Or tout débat sur l’avenir du nucléaire est bloqué par les écologistes, qui tiennent absolument à en sortir et par les industriels, trop satisfaits de vivre sur une technologie amortie. Les deux parties portent la responsabilité de l’accroissement du charbon.

Il est urgent de donner la parole aux physiciens et aux ingénieurs non-alignés sur ces questions, afin d’ouvrir un véritable débat national sur l’énergie de demain. Fusillons les clivages imbéciles et les intérêts à courte vue de l’Argent. En l’absence de souverain capable de trancher, c’est à la société civile d’arbitrer ces questions.

Enzo Sandré

[1] Deux exceptions : les CANDU canadiens, qui ne sont pas vendus et les VVER/RBMK soviétiques, instables et dangereux.

[2] Le réacteur de Shippingport

[3] La réaction Bore-Hydrogène semble la plus prometteuse, elle permettrait même la fabrication de réacteurs à fusion domestiques dans un futur lointain.

[4] Le Laser Mégajoule du CEA est le plus connu, il est principalement destiné à tester les futures bombes thermonucléaires, mais devrait accueillir des expériences civiles de fusion.

[5] 19 milliards d’euros pour l’instant, hors fonctionnement. Déjà 4x le budget prévisionnel alors que la construction n’est pas terminée.

[6] Avis de la Commission Européenne 2012/C 166/01

[7] Le 27 mars 2007, un aimant supraconducteur a explosé au CERN près de Genève.

Crise de l’énergie ou énergie de la crise ?

Article de Richard Bulan, faisant partie du dossier « L’avenir de la production d’énergie » coordonné par mes soins.


Depuis le premier choc pétrolier, les discours alarmistes se répercutent sur les montagnes de la bien-pensance et de la vue court-termiste comme un écho dans une vallée trop encaissée.

Les matières énergétiques ne vont pas manquer dans des délais proches puisque même avec les politiques volontaristes actuelles, l’Agence Internationale de l’Energie prévoit une baisse des énergies fossiles de 82% en 1990 à 75% en 2040, ce qui est passablement ridicule. Ainsi, ce n’est pas une crise de l’offre, notamment avec l’arrivée de l’Iran qui a augmenté leur production de 500 000 barils/jours après la fin de l’embargo[1]. De plus, avec les prix de pétrole supérieur à 80 dollars de 2008 à 2015 ont permis l’industrialisation de processus complexes, engendrant des économies d’échelles, permettant l’augmentation de la production. La fracturation hydraulique connue depuis 1947 couplée aux forages horizontaux, développés eux depuis 1980, en ont profité permettant l’exploitation du pétrole de schiste. Ce dernier est particulièrement exploité par les Etats-Unis dont la production à augmenté de manière constante jusqu’à la chute des cours en 2015[2], et qui est repartie à la hausse au début de l’année 2017[3]. La production est maintenant est susceptible de passer de 200 000 à 500 000 barils/jours. De plus, les différents fonds souverains issus de pays pétrolier, comme l’Arabie Saoudite ou la Norvège ne prévoit pas une sortie de la consommation pétrolière, mais souhaite diversifier leur énergie pour limiter la pollution que cette consommation énergétique engendre.

L’offre de pétrole n’est pas à proprement parlé en crise, on est loin du pic pétrolier, avec le ralentissement de la croissance de la Chine, la volonté globale de limiter la volatilité du marché en lissant les cours avec les différents fonds souverains, ainsi que le développement de nouvelles techniques. Ainsi ce pic pourra arriver dans une dizaine d’année (vers 2030), avec une réduction drastique des ressources vers 2200 en ne prenant en compte que les réserves connues actuellement (certains états ayant une politique de secret concernant leurs réserves)[4].

Le passage à des techniques non pétrolière ou gazière va juste déplacer le problème sur des nouvelles matières. La France n’utilise que 51% d’énergie fossile dans son mix énergétique, si bien qu’elle est très dépendante de l’énergie nucléaire et donc du marché de l’uranium. Des questions similaires vont ainsi se poser pour l’ensemble des matière premières permettant la création d’énergie. Ainsi les énergies dites « renouvelables » utilisent également des minéraux comme les terres rares ou le cobalt, qui engendrera de nouvelles crises et de nouvelles périodes fastes dans une perspective « schumpeterienne ». La crise de l’énergie dispose en elle-même de l’énergie des crises futures …

Richard Bulan

[1] AFP, « L’Iran augmente sa production de 500 000 barils par jour », Les échos, 18 janvier 2016

[2] S. Cornot-Gandolphe, « La révolution des pétroles de Schiste aux Etats-Unis. Le test du business-model en cours », Notes de l’IFRI, janvier 2015

[3] E. Conesa, « Pétrole : l’Amérique prête à augmenter sa production », Les Echos, 29 décembre 2016

[4] B. Durand, « Pétrole, gaz et charbon : nature, mécanismes de formation, perspective d’avenir dans la transition énergétique », Association pour l’étude des pics pétrolier et gazier France, 31 mars 2017

Présidentielles 2017 : les programmes scientifiques et techniques analysés

Après avoir invité Emmanuel Macron pour discuter écologie, recherche, numérique ou santé, le magazine Sciences et Avenir a envoyé un questionnaire similaire aux autres candidats[1]. Nous avons lu et synthétisé l’ensemble de leurs réponses. Pour chaque thème nous avons retenu une idée particulièrement intéressante[2]. Les lecteurs souhaitant lire l’intégralité des entretiens les trouveront sur le site de Sciences et Avenir.

Énergie : Le clivage droite-gauche a survécu.

Avec l’immigration, l’écologie est sans nul doute le sujet principal de cette campagne présidentielle. Chaque candidat a son idée sur le mix énergétique : Mélenchon et Hamon veulent du 100% renouvelable. Dupont-Aignan souhaite lancer la 4ème génération de réacteurs nucléaires (thorium). Fillon et Le Pen proposent un mix énergétique varié, excluant le charbon. Macron est dans le flou le plus total. Enfin, Jacques Cheminade semble être le dernier à croire en la fusion nucléaire à moyen-terme. Tous les candidats s’accordent sur la nécessité de financer la rénovation thermique des bâtiments pour économiser l’énergie.

Marine Le Pen semble la seule à proposer l’utilisation durable de la biomasse pour le chauffage.

Des transports peu ambitieux

Sur les transports, la gauche est très peu ambitieuse : elle veut la fin du diesel, point final. La volonté de récupérer l’électorat écologiste y est sans doute pour beaucoup. Il faut aller chez Fillon, Dupont-Aignan, Le Pen et Asselineau pour trouver une volonté de développer l’hydrogène et l’électrique, avec chez ces trois derniers, la création de champions français. Jacques Cheminade lie transport et économie dans un ambitieux projet ferroviaire.

Nicolas Dupont-Aignan est le seul à exiger la sobriété énergétique des véhicules thermiques. Il souhaite atteindre normativement une limite de 3L/100km, techniquement réaliste.

Economie : penser local, agir global

Réjouissons-nous : dans les discours l’heure est à la décentralisation ! Jean-Luc Mélenchon souhaite « plus d’état », mais déconcentré. Marine Le Pen rêve d’un souverainisme enraciné. Nicolas Dupont-Aignan et François Asselineau veulent des circuits courts et une production alimentaire intégralement locale. Les deux candidats PS sont dans un flou total à base de « circuits courts », « démocratie locale » et autres « décisions populaires ». François Fillon remporte la palme avec son concept d’agriculture locale et intensive (oui !). Seuls Nathalie Arthaud et Jacques Cheminade assument une doctrine centralisatrice. Tous les autres ont l’air de croire que la République peut décentraliser.

Jacques Cheminade souhaite une France des villes intermédiaires, redynamisées par le rail moyenne vitesse. Il propose la réouverture de très nombreuses lignes de province, afin de sortir du schéma en étoile actuel.

La France des robots

Tous font l’éloge de l’intelligence artificielle et du travail des robots. Seul Benoît Hamon souhaite taxer la valeur ajoutée produite par les machines. Sauf deux candidats, tous promettent une cyberdéfense nationale et la souveraineté numérique. Nathalie Arthaud refuse tout cela : ce sont des « ruses capitalistes » (sic). François Fillon lui, rêve d’une cyberdéfense européenne.

Soulignons la clairvoyance de Jacques Cheminade sur ces questions : pour lui la sécurité et la souveraineté sont une affaire de résilience, donc de décentralisation. Il souhaite préserver la vie privée des citoyens face à l’état et défend le logiciel libre, seule garantie d’indépendance.

Santé publique : clivage entre humanistes et techniciens.

Les questions de santé font apparaître de bien curieux clivages : Asselineau et Arthaud défendent une automatisation massive des soins. Mélenchon, Macron et Le Pen refusent cette déshumanisation. Les autres candidats restent flous et proposent de mettre de l’argent partout. Le principe de précaution est défendu par Mélenchon, Le Pen, Hamon et Asselineau. Fillon et Cheminade y sont opposés. Dupont-Aignan reste sceptique. Macron n’en parle pas.

Plutôt qu’un principe de précaution abstrait, Nathalie Arthaud souhaite une pénalisation dissuasive des scandales sanitaires, qui obligerait les cadres à la prudence en matière d’innovation.

Recherche : priorité nationale, comme le reste

Il faut de l’argent pour les chercheurs et les PME innovantes, tous sont d’accord ! Quelques légers clivages apparaissent autour du Crédit impôt recherche et de l’autonomie des universités, rien de grave.

L’absence de projet est plus préoccupante. Seul Jacques Cheminade fixe clairement un objectif avec son ambitieux programme spatial. Les autres candidats se contentent de promettre plus d’argent à tous, une méthode électoralement éprouvée.

Égalité, égalité !

Tous les candidats masculins ont promis une grande loi sur la parité homme/femme. Les plus libéraux comme Dupont-Aignan et Asselineau proposent des actions de communication et de labellisation des entreprises vertueuses. Mélenchon, Hamon, Macron et Fillon sont pour une parité stricte dans le public. Jacques Cheminade prône « L’Éducation du Peuple » (sic) et la camarade Arthaud assure que ça ira mieux avec un bon régime communiste.

Seule Marine Le Pen est défavorable à la stricte parité homme/femme. Elle préfère s’attaquer aux éventuels blocages point par point.

Enzo SANDRE

[1] Philippe Poutou n’a pas répondu et Jean Lassalle trop tard pour figurer dans cet article.

[2] Sans forcément être d’accord avec le reste du programme.