Techniques au travail, Technique dans la Cité : Le mur de l’atelier devait-il tomber ?

Texte de mon intervention orale du 25 août 2018 au Camp Maxime Real del Sarte à Parigny.

Un lieu commun syndical voudrait que la séparation domicile/travail soit un acquis social, en permanence attaqué par le capitalisme vorace. C’est aller un peu vite aux conclusions. La thèse que je vais défendre est autre : il s’agit avant tout d’une affaire de Technique, non de politique.

Regardons l’histoire. Sans remonter à une Antiquité que je connais assez mal, au Moyen-Âge, à moins que vous soyez un marchand ou un transporteur, votre activité professionnelle se déroulait dans le cadre domestique. Le paysan travaillait à la ferme et l’artisan également sauf en cas de chantier. L’atelier ou le bureau étaient toujours à domicile. Vos collaborateurs étaient très souvent votre famille, l’épouse tenait la boutique et les comptes, les enfants étaient apprentis, chez leurs parents ou chez d’autres maîtres qui les logeaient. Le transport était lent et coûteux, la communication orale directe bien plus efficace.

La Renaissance connaît une première fissure dans le mur de l’atelier. L’apparition de l’horloge et de l’imprimerie séparent le cabinet du riche bourgeois, proche des lieux de pouvoir, de sa villa plus éloignée. En même temps, l’apparition du moulin à eau change les modes de production. L’Europe acquiert sa première source d’énergie pilotable centralisée (par opposition aux énergies fatales, vent par exemple et aux énergies décentralisées, comme le bétail). C’est désormais la disponibilité en ouvriers qualifiés qui limite la production. La Renaissance voit les maîtres-artisans se concentrer dans les manufactures, lieux optimisés pour une production à l’aide de machines-outils fonctionnant sur une source d’énergie puissante et centralisée.

Il faut attendre l’âge industriel pour voir le mur de l’atelier tomber à nouveau. Le gigantesque besoin de main d’œuvre et la faible vitesse des transports poussent les entreprises à loger leurs employés. A Nord c’était les corons dit la chanson, mais il n’était pas rare non plus que le capitaliste dorme à l’usine ou à la bourse. La seconde révolution industrielle voit l’apparition des banlieues pavillonnaires, véritables tissus adipeux des villes. La bagnole, si violemment dénoncée par André Gorz a permis l’éloignement géographique de la main d’œuvre.

Il faut attendre les années 2000 et Internet pour réunir à nouveau partiellement le domicile et le travail. Ces dernières années ont amplifié ce phénomène. Le cadre qui consulte ses mails dans le lit conjugal et le géant du web qui fait habiter ses salariés sur son lieu de travail participent du même phénomène. On notera aussi la mode des conciergeries d’entreprise, véritables auxiliaires de vie traitant le lavage, le repassage, la garderie, et j’en passe pour les salariés. Tout est fait pour maximiser le temps efficace du travailleur dans l’entreprise, souvent sous couvert de convivialité.

Notez que ces mutations ne sont pas une affaire de classe sociale ou de volonté politique. La caissière comme le trader sont touchés et même les patrons des GAFAM n’arrivent pas à complètement isoler leurs enfants de ces phénomènes. Les politiciens, tous pays confondus sont parfaitement désemparés face au phénomène. Instaurer un droit à la déconnexion est parfaitement vain face à l’ampleur de la déferlante. Dans une société technicienne, rien ne peut s’opposer à la marche de Technique, surtout pas le politique.

Toute technique modifie le rapport entre l’homme et le réel. Tout homme qui travaille produit des biens, des services ou des informations. Il est évident que toute technique modifiant la circulation des biens, des services ou des informations, modifiera très largement la société, mais plus particulièrement le rapport entre le domicile et le travail. Quand la transmission d’informations avec ses inconvénients est plus efficace que la rencontre physique avec le coût de transport, le domicile et le travail se séparent. Les technologies de l’information ont tendance à rapprocher le domicile du travail alors que les progrès dans les transports les éloignent.

Un autre phénomène modèle les rapports domicile/travail : la densité énergétique nécessaire au travail. Les concentrations manufacturières puis industrielles en sont des exemples : concentrez l’énergie, vous concentrez les lieux de travail de nombreux travailleurs en un point. Ce point n’est jamais le domicile d’un seul travailleur. Si les transports du moment ne permettent pas le déplacement pendulaire quotidien des salariés, les besoins de l’industrie les concentreront autour, voire dans l’usine. Les embouteillages chroniques de la Silicon Valley sont une des raisons qui poussent Apple et Google à loger leurs employés sur place.

Considérations sociales : est-ce souhaitable ?

Nous avons décrit ce phénomène comme étant cyclique et inéluctable si les technologies sont disponibles, étudions maintenant les avantages et les inconvénients de cette fusion entre domicile et travail, à l’heure actuelle.

Les principaux avantages de la chute du mur de l’atelier sont d’ordre écologiques : économies sur le trajet domicile-travail, diminution des surfaces de bureaux nécessaires et disparition des quartiers dortoirs. Le quartier redevient un lieu de vie, où les gens travaillent, habitent, commercent et se rencontrent. La souplesse dans son emploi du temps permet au travailleur d’avoir une activité associative et politique parallèle à son travail. La Cité renaît. Le télétravail permet des déplacements plus occasionnels du salarié à son lieu de travail, ce qui laisse sa chance à la ruralité. Un trajet quotidien de 2h est intolérable pour la plupart des salariés, il ne pose aucun problème pour une réunion hebdomadaire au siège de l’entreprise. Pour peu que la campagne s’équipe en télécommunications mobiles, elle attirera des cadres aisés capable de relancer l’économie locale. Enfin, la présence du travailleur à son domicile lui permet d’assumer un important travail fantôme, éducation des enfants, entretien du foyer, aide à la collectivité. Autant de tâches retirées au marché, rentrant donc à nouveau dans le champ du gratuit, ciment d’une communauté. Les familles éparpillées peuvent à nouveau faire souche si elles le souhaitent.

Cependant, ce tableau idyllique d’une France retrouvée ne doit pas occulter les inconvénients de l’absence de séparation entre domicile et travail. Le plus évident est la présence du patron dans la vie privée du salarié. Pire encore, la présence de votre moitié et de vos enfants en permanence sur votre lieu de travail. Des tyrans souvent contradictoires. Ensuite, le travail à domicile souffre de nombreux inconvénients pour qui travaille en équipe. Les télécommunications ne remplaceront jamais le contact humain direct, car elles réduisent bien souvent le langage à sa seule composante orale, occultant la gestuelle, le non-verbal, etc. L’absence de présence physique des collègues ne permet pas une véritable cohésion, autour de la machine à café ou de la pause de midi par exemple. La souplesse de l’emploi du temps a un revers : le manque de concentration. L’attention est sans cesse saisie par des taches multiples et le cerveau a besoin d’un temps non-négligeable pour se concentrer à nouveau après un changement de contexte. Le bureau permet plus facilement de se concentrer. Au domicile cela requiert une discipline monacale. Enfin, n’oublions pas le coût écologique des télécommunications, parfois bien plus élevé que les transports qu’elles remplacent. Le numérique vert est une vaste supercherie, le seul fonctionnement d’Internet est le premier poste de consommation d’électricité mondial. Ne parlons pas des ressources nécessaires à l’assemblage des ordinateurs, serveurs, routeurs et câbles.

A chaque métier son fonctionnement

Ma conclusion est d’abord un appel à ne pas être dogmatiques. Mes propositions vont être un appel aux professionnels mais aussi aux politiques.

Il est évident tout d’abord que certaines professions ne pourront jamais permettre une fusion domicile/travail, sauf à revenir aux heures les plus sombres de la Révolution Industrielle. C’est le cas pour tous les professionnels sur les chantiers, mais également dans l’industrie lourde. Les métallos, les mineurs de tungstène ou les constructeurs de missiles auront des difficultés à ramener le travail à la maison, vous en conviendrez. Cependant, cette concentration industrielle peut être réduite par un recours raisonné à une nébuleuse de sous-traitants plus petits et mieux répartis sur le territoire grâce aux technologies du transport et aux télécommunications. L’exemple du pôle aéronautique de Figeac doit servir de modèle.

Ma première proposition est de faire de la grande entreprise une affaire politique, soumis à un régime d’autorisation réservé aux seules industries de puissance. Les implications sociales, écologiques et géographiques de ces mastodontes sont trop lourdes pour être laissées à la seule loi du marché.

Pour toutes les autres entreprises, le choix doit être laissé aux salariés, sans régime incitatif dans aucun sens. Travailler chez soi ou à l’atelier doit être une liberté fondamentale et une responsabilité du professionnel. Chacun des modes de travail présente ses avantages et inconvénients, nous l’avons vu, seul le professionnel responsable sait quand rester à son domicile et quand se réunir dans les locaux de l’entreprise.

L’espace urbain doit être réorganisé pour faciliter ce choix. La mode des espaces de coworking doit se pérenniser afin de réduire la surface et donc l’empreinte écologique des bureaux. La rotation des salariés permet évidemment une réduction du nombre de bureaux utilisés en même temps. La numérisation des documents rend obsolète le bureau nominatif, servant également de zone de stockage. Ils sont amenés progressivement à être remplacés par des sièges minimaux, simples lieux de rencontre pour les parties prenantes de l’entreprise, plus que lieu de travail.

Au cœur des villes, il faut encourager les maires et cafetiers à recréer des espaces collectifs calmes et beaux : parcs, places ou bâtiments, équipés en WiFi et en tables, qui permettraient aux professionnels de recréer des communs, permettant autant de travailler que d’échanger et de prendre une pause. L’urbanisme des cubes de béton anonymes doit être démoli pour recréer des points de convergence.

Enfin, le raccordement des zones rurales à Internet doit être encouragé afin de redynamiser ces territoires. Des aides peuvent être accordées aux salariés pour l’installation d’un réseau haut-débit à leur domicile, par exemple. Il serait également temps d’ubériser les bus, pour créer un réseau de transports collectifs à la demande.

J’encourage chacun d’entre vous à porter ces propositions dans son entreprise ou dans sa mairie. Elles sont simples à mettre en œuvre, ne nécessitent que peu d’efforts des politiques et des patrons.

Enzo Sandré

Technocritique : quels ouvrages pour débuter ?

Cela fait trois mois que l’on me demande une liste d’ouvrages technocritiques, ou du moins expliquant le phénomène technicien de manière abordable. Pour me faire excuser, cette liste prend la forme d’un article. Ce sera sans doute incomplet, aussi je me réserve le droit d’éditer cet article au fil de mes lectures.

Quel impact les techniques ont sur nos vies, notre civilisation et notre avenir ? En préambule, avant d’aborder des ouvrages plus conséquents et plus nuancés je conseillerai de lire le manifeste de Théodore Kaczynski, La Société Industrielle et son avenir. Le style agressif et très clair permet une entrée en matière en même temps qu’une claque initiale. Le bluff technologique de Jacques Ellul et Une société sans école d’Ivan Illich permettront de nuancer l’impact initial du manifeste de l’Unabomber sans entrer cependant dans les ouvrages les plus denses de ces deux auteurs. Enfin, Georges Bernanos et son essai, La France contre les robots vient clore cette initiation. Ces quelques ouvrages fondamentaux devraient vous permettre de faire un tour général de la question.

Pour plonger plus dans le détail, Comprendre les médias de Marshall McLuhan est une brique de base aux côtés de l’imposant Technique et Civilisation de Lewis Mumford. Je conseille de lire ces deux ouvrages par petites séquences entrecoupées de fictions, tant ils sont indigestes. Jacques Ellul et Bernard Charbonneau ont respectivement écrit La Technique ou l’enjeu du siècle et l’État, ouvrages fondateurs de toute la technocritique. A cela on peut ajouter L’obsolescence de l’homme de Günther Anders, un essai d’une noirceur déprimante. Le rapport Meadows, vulgarisé par Jean-Marc Jancovici permet de saisir l’importance de la question énergétique, aux côtés d’Énergie et Équité d’Ivan Illich.

Si les fondements spirituels de la Technique vous intéressent, L’Éthique protestante et l’esprit du capitalisme de Max Weber et Apocalypse du Progrès de Pierre de la Coste lieront la Technique à la question du libre-arbitre et de la grâce. Pour les catholiques, la lecture de deux encycliques est un passage obligé, même si parfois rébarbative, pour les repères qu’elles offrent : Rerum Novarum (Léon XIII) et Laudato Si (François). Les philosophes Fabrice Hadjadj et Hannah Arendt parlent sans cesse des rapports entre Technique et spiritualité, sans jamais leur dédier un ouvrage spécifique, il faut donc aller rechercher dans l’ensemble de leur œuvre une pensée pourtant riche et intéressante. Enfin, Sans feu ni lieu : signification biblique de la Grande Ville permet d’aborder le volet théologique complexe de l’ouvre ellulienne.

Enfin, à ceux qui cherchent des solutions pour demain, je ne saurai trop conseiller La Troisième Révolution de Bruno Lussato et Éloge du carburateur de Matthew Crawford, tous deux présentant l’artisanat comme une solution à la Technique. Certains écrits de l’Encyclopédie des Nuisances et de Pièces et Main d’œuvre sont d’un grand intérêt quand ils ne tombent pas dans l’attaque stérile du Capital.

Je n’ai pas abordé les fictions, qui m’emmèneraient trop loin de mon sujet. Peut-être l’occasion d’un nouvel article ! Bonne lecture.

Enzo Sandré

Délit d’initié : le PDG d’Intel a vendu ses parts le 29 novembre

Tempête mondiale dans le monde numérique : Intel, géant mondial des microprocesseurs vient d’annoncer la découverte et la correction d’une faille présente depuis plus de 10 ans dans ses produits. 5 à 30% de réduction des performances sont annoncés après application du correctif.

Cette affaire est sans doute connue depuis des mois chez Intel, à en juger par l’étrange transaction réalisée le 29 novembre par son PDG, Brian Krzanich. Le dirigeant a vendu l’intégralité de ses Stock-Options, ne gardant que le strict minimum. Coïncidence ou délit d’initié ? La presse française n’a pas encore évoqué l’affaire.

Enzo Sandré


Pour plus de détails, nous vous proposons un article du site The Motley Fool, traduit par nos soins.

Le PDG d’Intel vient de vendre beaucoup d’actions

Ces transactions ne sont pas à prendre à la légère.

Le 29 novembre, Brian Krzanich, le PDG du géant des puces Intel (NASDAQ:INTC), a déclaré plusieurs transactions sur des actions Intel dans un Formulaire 4 déposé auprès de la SEC (Securities and Exchange Commission).

La plupart des transactions impliquaient l’exercice par Krzanich de stock-options, qui lui permettaient d’acheter des actions Intel à des prix nettement inférieurs à ceux du cours à l’heure actuelle, et leur revente immédiate sur le marché.

Il n’y a en soi rien de mal, ou même d’inhabituel, dans de telles transactions. Les dirigeants d’entreprise, et même certains employés, reçoivent souvent soit des stock-options et / ou des unités d’actions restreintes (UAR) dans le cadre de leurs régimes de rémunération, et les bénéficiaires de cette rémunération voudront tôt ou tard les convertir en liquidités.

En effet, comme expliqué ici, la vente faite par des initiés n’est pas toujours de nature à susciter l’inquiétude.

Toutefois, deux des transactions déclarées par Krzanich dans le formulaire 4 me semblent plus importantes que les exercices de stock-options ordinaires et les ventes subséquentes d’actions. Regardons de plus près.

Krzanich garde le strict minimum

Les statuts d’Intel imposent aux dirigeants et aux membres du conseil d’administration de détenir un certain nombre de titres de propriété à partir du moment où ils travaillent pour l’entreprise depuis cinq ans. Voici les montants basés sur le rang au sein de l’entreprise :

PDG 250,000
Directeur exécutif et président 150,000
Directeur financier 125,000
Vice-président exécutif 100,000
Vice-président senior 65,000
Vice-président administration 35,000
Autres vice-présidents et hauts responsables 5,000-10,000

Krzanich ayant été nommé PDG d’Intel en mai 2013, il devrait avoir 250 000 actions d’ici mai 2018, soit dans environ cinq mois. Il est donc intéressant de noter qu’avant de faire l’une des transactions qu’il a déclarées dans son dernier formulaire 4, il détenait 495 743 actions.

Après les exercices d’options et les ventes subséquentes (qui ont laissé sa position inchangée à 495 743 actions), Krzanich a ensuite réalisé deux autres transactions : une vente de 242 830 actions et une vente de 2 913 actions, chacune s’étant faite au prix moyen de 44,555 $.

Suite à ces deux transactions, Krzanich détient exactement 250 000 actions – soit le strict minimum qu’il doit détenir en tant que PDG.

Qu’est-ce que cela signifie ?

Krzanich a peut-être vendu ces 245 743 actions évaluées à près de 11 millions de dollars au moment des transactions pour payer une nouvelle maison ou acheter une œuvre d’art rare. Cependant, cette explication est trop simple et assez vague, notamment à la lumière de la grande manne qu’il a reçue lorsqu’il a exercé et vendu toutes ces options d’achat d’actions.

Au lieu de cela, étant donné que Krzanich semble avoir vendu toutes les actions qu’il pouvait sauf celles que les statuts d’Intel l’obligent à détenir, j’ai l’impression qu’il n’a pas une grande confiance dans le potentiel des actions Intel. Il est peut-être en cela influencé par un point de vue tiède (voire même négatif) des perspectives commerciales de l’entreprise à court et à moyen-terme.

Après tout, si on se souvient que le directeur financier d’Intel, Robert Swan, aurait déclaré dans une note rapportée par The Oregonian que la société a pour objectif d’augmenter sa capitalisation boursière à 300 milliards de dollars (avec des actions à plus de 60 dollars) d’ici 2021, n’aurait-il pas été plus sage pour Krzanich de garder ces actions, en collectant environ un quart de million de dollars par an en versements de dividendes, jusqu’à ce que chacune rapporte 16 dollars de plus, pour une valeur additionnelle de près de 4 millions de dollars ?

En effet, si on prend en compte l’affirmation qu’il a faite en février selon laquelle le marché potentiel d’Intel devrait atteindre les 220 milliards de dollars d’ici 2021, il semble étrange que Krzanich choisisse de ne garder que les actions que le règlement d’Intel lui impose.

Source : https://www.fool.com/investing/2017/12/19/intels-ceo-just-sold-a-lot-of-stock.aspx

Vers la fin (de la neutralité) d’Internet ?

Le 14 décembre 2017, la FCC[i] a officiellement mis fin à la neutralité du net. Hurlements du côté des « défenseurs des libertés » pro-neutralité, cris de joie du côté des « défenseurs des libertés » anti-neutralité. Cette décision n’est pourtant qu’un symptôme : la toile craque sous le poids des géants du web.

Le postier libre dans le monde libre

Revenons aux origines : Internet était un petit réseau reliant des utilisateurs de taille comparable, souvent à la fois clients[ii] et serveurs[iii]. Le réseau est conçu pour dissocier complètement la couche physique (transmission des informations) du transport (adressage, routage) et de l’information transmise. Pour prendre une image, n’importe quel colis bien adressé peut aller n’importe où en passant par un nombre indéterminé de bureaux de poste, qui communiquent entre eux comme bon leur semble (avion, barque, etc.). Implicitement, le postier n’avait pas le droit de discriminer le colis selon son origine, sa destination, son poids ou son contenu, par exemple en forçant les gros colis à prendre le bateau. Cette neutralité de fait d’Internet a permis son essor face aux réseaux concurrents.

Mon postier est surchargé

La neutralité de principe n’existait pas avant 2004, car elle allait de soi dans un réseau décentralisé. Quand la FCC adopte une déclaration sur la neutralité du net, il s’agissait déjà de sauver ce principe dans un réseau en cours de centralisation.

Les états, renseignement et justice en tête, ne pouvaient pas laisser cette immense cour de récréation sans surveillance. Avènement des pandémies informatiques, expansion du crime ou du simple délit contre le droit d’auteur : Internet devait être surveillé et censuré au besoin. Même les plus grands défenseurs de l’Internet Libre n’ont rien vu à redire. Certains hypocrites craignent une censure extra-légale par les opérateurs privés avec la fin de la neutralité. N’est-ce pas déjà le cas ? L’affaire Stormfront évoquée dans nos colonnes n’est pas autre chose, au nom de la lutte contre les discours de haine. Que dire des réseaux sociaux, véritables sous-réseaux d’Internet, qui censurent à tour de bras ?

Les nouveaux usages d’Internet ont polarisé le réseau : une multitude d’utilisateurs ne fournissant aucune ressource consommant des plateformes toujours plus fréquentées. Pour relier plusieurs villages autonomes, un réseau de petites routes fonctionne très bien. Autour d’une grande ville, vous devrez créer des autoroutes, des ponts, des métros. Internet fonctionne de la même manière. La polarisation crée de la centralisation, qui crée des coûts d’infrastructure.

L’infrastructure d’Internet est gérée par des transiteurs, dont les FAI[iv]. Ils doivent dimensionner la taille des tuyaux au volume qui y circule. Avec la neutralité du net, ils n’ont pas le droit de ralentir ou bloquer un flux sur la base de son contenu, de sa source ou de sa destination. Les transiteurs se voient obligés d’accepter le tout-venant et de dimensionner leurs infrastructures en conséquence. La neutralité du net a un effet pervers : elle permet un chantage des plateformes envers les transiteurs. Un exemple : YouTube est très apprécié des utilisateurs, qui se plaignent auprès de leur FAI à la moindre lenteur (« je paie pour ça »). Le FAI fait pression sur le transiteur pour augmenter la taille du tuyau le reliant à YouTube. Le transiteur doit réaliser des investissements assez lourds auquel YouTube refuse de participer, arguant que le tuyau bâti pour lui est neutre, donc théoriquement utile à tous. Les abonnements à la carte étant interdits par la neutralité du net, le coût est globalement répercuté sur l’utilisateur final.

Internet : une ressource

La fin de la neutralité du net va coûter cher aux plateformes comme YouTube ou Netflix, obligées de partager la facture de transit avec les utilisateurs qui les regardent. Pour la France, ce sera la seule conséquence de cette décision américaine, à moins que les autorités européennes ne décident d’en finir elles aussi avec la neutralité du net.

La fin de la neutralité est un symptôme de l’internet-marché : un portail de services à la carte. 5€/mois pour YouTube, 10€ pour Google, ne laissant pas de place en dehors des géants prêts à payer pour y figurer. L’utilisateur possèdera un simple terminal, sorte de smartphone verrouillé où l’on ajoute des applications.

L’avenir d’Internet est sombre, mais il est tout à fait probable qu’un autre réseau le remplace dans les années à venir. Il devra éviter les trois écueils qui tuent Internet : régulation des géants qui déstabilisent physiquement le réseau (GAFA, mais aussi FAI obèses), chiffrement intégral des échanges pour éviter les intermédiaires trop curieux et atténuation de la dichotomie client/serveur (P2P, réseau distribué).

La liberté du réseau a un prix, incompatible avec sa centralisation.

[i] Federal Communications Commission, l’autorité régulatrice des télécoms aux USA.

[ii] Le client demande une ressource sur le réseau

[iii] Le serveur fournit une ressource à la demande

[iv] Fournisseurs d’accès à Internet

Manhunt : Unabomber

Quand on traite de l’affaire Unabomber, la médiocrité n’est pas permise. Sauf à vouloir enterrer politiquement le personnage, il est impensable de peindre l’auteur de « La société industrielle et son avenir » sans évoquer les idées qu’il défend. La série a fait le choix d’occulter le fond au profit d’une analyse psychologique fade et improbable.

Enfant solitaire, adolescent trahi, jeune génie manipulé par le fumeux projet MKUltra : le cursus honorum du génie du mal transforme Kaczynski en cliché. Le procès final est une synthèse de pitrerie sans lien avec le réel où des protagonistes grotesques viennent ôter sa dignité à un personnage malmené. Le vrai Kaczynski doit enrager dans sa cellule.

Le personnage de Jim Fitzgerald sauve la série. Ce policier modèle à l’intuition perçante finira par coincer Unabomber en habitant le personnage. Obnubilé par l’affaire et par le Manifeste, il devra refuser d’être un rouage obéissant et penser différemment pour réussir. Il en paiera le prix : l’exclusion sociale.

Enzo Sandré

La guerre des intelligences – recension

Le Dr Alexandre vient de publier un livre afin d’alerter la France endormie du danger de l’Intelligence Artificielle (IA). A l’heure où la Chine et les USA colonisent numériquement le monde, la France a-t-elle encore une chance de peser ? Si oui, faut-il obligatoirement signer un pacte faustien avec la Machine ? C’est à cette réflexion terrifiante mais passionnante que nous invite Laurent Alexandre.

Repenser l’intelligence

La thèse centrale du livre est la nouvelle définition de l’intelligence dans la société  l’information. Les gigantesques masses de données nécessaires à quiconque prétend peser dans le monde d’aujourd’hui ne peuvent déjà plus être traitées par le cerveau humain seul. L’homme a besoin de béquilles algorithmiques pour s’y retrouver. L’intelligence de demain sera en réalité un « coefficient de complémentarité avec l’IA », afin que cette dernière reste un outil et ne devienne pas la maîtresse.

La France part désavantagée de la course au QI, déjà sprintée sans aucune barrière éthique par la Chine. Sans même parler d’eugénisme ou de transhumanisme, débats esquivés depuis des années dans l’Hexagone, nous traînons un vieux boulet : l’école à la française. Tiraillée entre le pédagogisme imbécile et une volonté rétrograde de retour aux Hussards Noirs, elle peine à former les élites de demain.

Les horreurs de la démocratie

Le trait extrêmement noir de la seconde partie du livre (2035-2060) laisse un sentiment de frustration : Laurent Alexandre explique à quel point la logique égalitariste, progressiste et démocratique, incontournable en France depuis 1789, nous happe dans les engrenages terrifiants du transhumanisme.

Comme pour la GPA aujourd’hui, les barrières éthiques de notre civilisation seront contournées à l’étranger. Les plus riches auront accès aux techniques d’amélioration du QI et aux augmentations physiques dans les 50 ans. Dans une France jalouse d’égalité, le différentiel entre les « augmentés » et les autres paraîtra insupportable dans l’opinion. Les augmentations prises en charge par la sécurité sociale seront la dernière promesse électorale à la mode.

Le scénario glacial du jeu Deus Ex : Human Revolution n’est pas loin, avec son cortège d’esclaves s’aliénant pour être employables et autres démiurges augmentés à l’extrême.

Futurologie et science-fiction

La troisième partie du livre (2060-2080) ambitionne d’éclairer des scénarios possibles. Sans doute le livre aurait-il pu s’achever ici. L’auteur relaie des scénarios déjà explorés : la Fondation d’Asimov, le Meilleur des Mondes d’Huxley, Computer God de Black Sabbath, Matrix ou bien Gattacca. Autant s’abreuver directement à la source.

L’évocation de ces scénarios par un influenceur comme Alexandre a tout de même son intérêt : il alerte sur leur possibilité, même marginale et invite à déterminer l’avenir de notre civilisation. Ellul l’avait écrit avant de mourir : dérouler le fil de la Technique en s’interdisant toute interrogation est périlleux car d’autres récupéreront le pouvoir de décider à notre place : milliardaires « philanthropes », dictateurs « éclairés » ou simplement l’opinion aveugle du troupeau. Entamons une réflexion technocritique donc politique. Comme le dit l’auteur pour conclure son ouvrage : « Nous aurons l’IA que nous méritons ».

Enzo Sandré

Cet article est une recension du livre de Laurent Alexandre. Le format papier impose la concision, peu aisée pour traiter d’une œuvre aussi riche. Un article plus long, au format blog et au ton plus personnel reprendra point à point mes critiques.

Laurent Alexandre, La Guerre des intelligences
Intelligence Artificielle versus Intelligence Humaine

JC Lattès, 04/10/2017 20,90€

EAN : 9782709660846

Les “alternet” sont-ils viables ?

S’estimant privés de leur liberté d’expression, les groupes d’alt-right américains s’organisent face à la censure des géants de la Silicon Valley, très marqués à gauche. Posséder son propre serveur n’est aujourd’hui plus suffisant : les entreprises gérant l’infrastructure d’Internet n’hésitent pas à filtrer jusque dans les couches les plus basses du net : déconnexion de serveurs, retrait de noms de domaine, etc. Stormfront et The Daily Stormer, deux sites d’information de l’alt-right ont eu leur domaine retiré. Le site d’écoute musicale Spotify, le site de rencontre OkCupid et Paypal bannissent les prétendus « nazis » hors du web. Facebook et AirBnb ont supprimé les comptes liés à la manifestation de Charlottesville. Des centaines de comptes Facebook et Twitter sont suspendus chaque jour, y compris en France.

Pour l’instant, la censure extra-judiciaire ne concerne que les terroristes et « la haine », réelle ou soupçonnée. Les hypocrites défenseurs de la neutralité du net peuvent donc encore faire semblant de croire que cette dernière, morte depuis des années, existe toujours.

Une réussite très élitiste

Le réseau social Gab , fer de lance de la contestation, a proclamé le 10 août dernier la naissance de la « Free Speech Tech Alliance ». Cette alliance de professionnels doit permettre à terme la création d’un véritable « Alternet » : une partie d’Internet débarrassée de la Silicon Valley et de sa censure morale. Sur le papier, le projet sonne bien, mais sa viabilité est questionnable.

D’autres ont essayé avant eux, la réputation sulfureuse en moins. Depuis les années 90 les groupes crypto-anarchistes combattent l’Internet centralisé qui a accouché des fameux GAFA. Leur credo ? Les méthodes de chiffrement utilisées massivement doivent permettre la protection des échanges. Si vous envoyez un message chiffré, ce message est suspect pour d’éventuels attaquants, qui tenteront de le déchiffrer. Si vous chiffrez tout jusqu’à votre liste de courses, le volume de données sera trop important pour être traité.

Le succès de ces activistes est mitigé, malgré leur présence très importante dans le monde du logiciel libre. C’est une réussite technique très élitiste : l’essor des crypto-monnaies, des réseaux cachés, des darknets et des blockchains le prouve. Leurs seules réussites « grand public » sont la généralisation du protocole web chiffré HTTPS (car largement soutenu par la banque et le e-commerce) et la généralisation de messageries instantanées supportant le chiffrement de manière limitée (Telegram, Messenger …)

Difficile de réformer internet

Le projet de la Free Speech Tech Alliance est plus ambitieux. Une poignée de militants peut parfaitement communiquer à l’insu des services de renseignement, Daech et les fameux « hackers russes » de la campagne américaine l’ont prouvé. Pour toucher un public plus large, donc bien moins formé, il faut des outils plus conviviaux, ayant une certaine masse critique pour se faire connaître, mais surtout contrôlant toutes les couches du réseau.

Les réseaux informatiques fonctionnent comme un empilement de couches techniques (modèle OSI). La plus basse est la liaison physique, le signal électrique, lumineux, radio qui permet d’acheminer les données. La plus haute est constituée des programmes utilisant le réseau. Chaque couche est en principe indépendante des autres : on peut faire passer la même information par différents chemins sur le réseau, utilisant diverses technologies (fibre, ADSL, 4G) sans que cela change quoi que ce soit à l’arrivée.

Celui qui contrôle les couches les plus basses peut toujours censurer les couches au-dessus. Coupez le câble réseau, l’application la plus performante tombe. Un site Internet, un service de noms de domaine (DNS) se situent tous sur la dernière couche du réseau. Les géants du net contrôlent les couches inférieures : ils peuvent censurer à volonté.

Si l’alt-right a pour ambition de créer son propre safe-space sur Internet, elle devra bâtir toute une infrastructure. Elle doit donc posséder à minima : ses hébergeurs[1], ses bureaux d’enregistrement de noms de domaine[2], ses autorités de certification[3], ses fournisseurs d’accès à Internet[4] et ses transiteurs de contenu[5]. Tous ces acteurs doivent être utilisés par une certaine masse de sites lambda afin d’être indispensables à la vie d’Internet et ne pas se faire censurer. S’ils ne sont utilisés que par l’alt-right, ils seront rapidement mis au ban d’Internet. Chacun de ces acteurs nécessite des millions de dollars d’investissements, plusieurs années de dissimulation et des centaines de professionnels. L’alt-right a-t-elle les épaules de ses ambitions ?

Je n’ai évoqué ici que les cas des USA. Dans les pays où l’état se mêle de liberté d’expression comme en France, il faut aller bien plus loin, parfois contre la loi ce qui rend toute solution grand public complètement irréaliste. Dans notre pays, l’Internet libre ne sera toujours qu’un fantasme. Sauf changement politique radical, la liberté d’expression ne pourra qu’être le luxe d’une avant-garde de techniciens.

Enzo Sandré

[1] Mettent des machines connectées 24/24 à disposition de clients : sites Internet ou logiciels divers.

[2] Permettent de retrouver une ressource à partir d’un nom simple à retenir : enzosandre.fr par exemple

[3] Délivrent des certificats permettant de s’assurer qu’un contenu est bien émis par qui de droit

[4] Connectent les particuliers au réseau Internet, ils sont la première ligne de la censure.

[5] Les « plombiers » du net : ils connectent tous les acteurs ci-dessus entre eux via de vastes réseaux régionaux

Se priver de machines pour un ascétisme moderne

Cet article est une recension du livre de l’abbé Philibert Rigaut, Le Bon Travail, publié aux éditions de Chiré


Jacques Ellul avait théorisé la non-puissance comme remède à la toute-puissance de la Technique sur nos vies. Cette solution est acceptable pour le protestant Ellul, elle ne saurait l’être pour un catholique : on se sanctifie en société et se couper du monde n’est aucunement de la charité. On attend encore une réponse catholique à la maladie technicienne. L’abbé Philibert Rigault dans son livre « Le Bon Travail », paru chez Chiré a le mérite de faire un premier pas dans ce sens.

« Tu gagneras ton pain à la sueur de ton front » : tout l’ouvrage est centré autour de cette injonction divine tirée du livre de la Genèse. L’abbé Rigault en tire le raisonnement suivant : Dieu est omnipotent, il pourrait créer de rien ce que les hommes font de leurs mains. S’Il veut que les hommes travaillent, il doit y avoir une raison. Dieu est amour : cela doit forcément être pour nous rapprocher de Lui.

La machine permet à l’homme de réaliser sans effort un travail. Si la machine est moralement neutre, son usage peut parfois aller contre l’injonction divine, la rendant mauvaise.

Pour l’auteur, la vision du travail a changé à l’âge industriel. Nous sommes passés d’une société de bâtisseurs de cathédrales se sanctifiant par le travail à une séparation du temps de travail et du temps d’élévation spirituelle. Ce dernier est fréquemment remplacé par des loisirs, rendus nécessaires par un labeur aliénant et éreintant. L’homme moderne trouve normal de s’abrutir tout le jour pour gagner sa croûte, puis d’employer le temps restant à en réparer les dégâts physiques et spirituels.

L’abbé Rigault appelle les fidèles à faire de la privation des machines un ascétisme moderne, s’ajoutant au jeûne et à la prière. Chaque fidèle est appelé à faire des sacrifices, à remplacer la machine par l’humain dans un aspect de sa vie : labourer à la main plutôt qu’au motoculteur, renoncer à la voiture pour les petits trajets, rencontrer les gens plutôt que de leur téléphoner ; bref recréer un dialogue avec le réel.

On regrettera cependant que ce petit opuscule brillant soit entaché de formules repoussoirs dont seule la Fraternité Saint-Pie-X a le secret. L’excès gâche un raisonnement pertinent : si votre enfant allume lui-même la lumière, il est mal élevé ; de mon temps le nourrisson jouait avec une vieille casserole et c’était mieux ainsi et tutti quanti.

Enzo Sandré


Cet article est une recension du livre de l’abbé Philibert Rigaut, Le Bon Travail, publié aux éditions de Chiré

Le vice-amiral Coustillière se fiche des backdoors

La nomination du vice-amiral Coustillière comme DGSI[1] du MINDEF est mal passée auprès de certains experts français de la cybersécurité. En cause : une déclaration datant d’un an dans laquelle le gradé déclare que les principales failles de sécurité ne viennent pas des portes dérobées[2] introduites dans les logiciels de Microsoft et qu’il « se fout de ce débat ».

Au-delà de son manque de subtilité, l’Amiral n’a peut-être pas tort. Dans le cadre de l’OTAN, nos systèmes militaires n’ont en théorie rien à craindre des américains, nos « amis ». Il est même plus utile que tous les pays alliés travaillent sur une base logicielle commune.

Si la souveraineté de la France intéresse tant les experts de la cybersécurité française, qu’ils demandent d’abord la sortie de l’OTAN, ils n’en seront que moins hypocrites.

Enzo Sandré

[1] Directeur général des systèmes d’information

[2] Failles de sécurité intentionnellement introduites par l’éditeur du logiciel, notamment sur demande de services de renseignement (NSA, CIA …)

Emprisonnons les mauvais développeurs

 Dans toute profession, on peut voir le travailleur de deux manières. Soit on le considère comme un ouvrier, simple paire de bras reliée au cerveau de son chef. Soit on le considère comme un artisan, humain constitué d’un encéphale fonctionnel relié à une paire de bras.

Ce débat peut paraître lointain, mais quand on pose cette question à propos d’une profession qui dirige le monde, elle prend une gravité certaine. La condamnation vendredi 25 août du développeur James Liang, à 40 mois de prison et 200 000€ d’amende pour son rôle dans l’affaire Volkswagen le montre.

Soit on considère le développeur comme un exécutant, donc irresponsable de ce que son donneur d’ordre lui demande.

Soit on le considère comme un artisan, responsable de ses actes et des effets des monstres qu’il créé.

Préférez-vous confier votre pacemaker, votre voiture autonome et votre centrale nucléaire à des professionnels du développement ou à des esclaves du capital ? Les premiers obéissent à des règles de l’art ainsi qu’à une éthique. Les seconds obéissent aveuglément à leur chef, qui n’y connaît rien et ne jure que par la rentabilité.

La conséquence directe de ce choix est le droit ou non des développeurs à se diriger eux-mêmes. Un ouvrier n’a aucune compétence propre, il est une paire de bras. Il n’a pas de devoirs, donc pas de droits non plus. Son rôle social est au mieux celui d’un syndiqué se battant pour des conditions de travail décentes.

Un artisan est un professionnel qui a le devoir de produire un travail bon et utile à la société, il doit donc exiger des droits allant dans ce sens. Le premier est celui d’être protégé par des normes que nul ne peut ignorer : les règles de l’art. Le second est celui d’être jugé en première instance par ses pairs, sur la base desdites normes. Le troisième est celui d’être défendu et conseillé par les maîtres de sa profession, y compris face à son donneur d’ordres lorsque l’éthique professionnelle est en jeu.

Si notre ami James Liang avait eu un corps de métier pour le défendre face aux exigences frauduleuses de ses supérieurs, aurait-il accepté de trafiquer les véhicules ? Isolé, le lanceur d’alertes risque le licenciement, la ruine et la prison. Les règles de l’art opposables protègent le professionnel, elles ne sont pas un carcan. Le but premier d’un corps de métier est la diffusion de celles-ci afin que nul ne puisse les ignorer.

Une société qui interdit les ordres professionnels n’a pas le droit de se plaindre des méfaits de travailleurs toxiques. Au pire malhonnêtes, au mieux sans défense face aux exigences de leur hiérarchie, ils sont la conséquence de la recherche du profit à tout prix. Les premiers doivent être jetés en prison, les seconds doivent être défendus et accompagnés.

Derrière la question de la responsabilité des travailleurs devant leurs actes, deux visions de la société s’opposent : la première bâillonne l’éthique au nom de la rentabilité, pavant la voix à une véritable voyoucratie du capital. La seconde jugule les pratiques néfastes au nom de l’éthique et du bien commun. Avènement de corporations servant le bien commun, ou triomphe du Capital. Aucune autre alternative n’existe.

Enzo Sandré