Les « alternet » sont-ils viables ?

S’estimant privés de leur liberté d’expression, les groupes d’alt-right américains s’organisent face à la censure des géants de la Silicon Valley, très marqués à gauche. Posséder son propre serveur n’est aujourd’hui plus suffisant : les entreprises gérant l’infrastructure d’Internet n’hésitent pas à filtrer jusque dans les couches les plus basses du net : déconnexion de serveurs, retrait de noms de domaine, etc. Stormfront et The Daily Stormer, deux sites d’information de l’alt-right ont eu leur domaine retiré. Le site d’écoute musicale Spotify, le site de rencontre OkCupid et Paypal bannissent les prétendus « nazis » hors du web. Facebook et AirBnb ont supprimé les comptes liés à la manifestation de Charlottesville. Des centaines de comptes Facebook et Twitter sont suspendus chaque jour, y compris en France.

Pour l’instant, la censure extra-judiciaire ne concerne que les terroristes et « la haine », réelle ou soupçonnée. Les hypocrites défenseurs de la neutralité du net peuvent donc encore faire semblant de croire que cette dernière, morte depuis des années, existe toujours.

Une réussite très élitiste

Le réseau social Gab , fer de lance de la contestation, a proclamé le 10 août dernier la naissance de la « Free Speech Tech Alliance ». Cette alliance de professionnels doit permettre à terme la création d’un véritable « Alternet » : une partie d’Internet débarrassée de la Silicon Valley et de sa censure morale. Sur le papier, le projet sonne bien, mais sa viabilité est questionnable.

D’autres ont essayé avant eux, la réputation sulfureuse en moins. Depuis les années 90 les groupes crypto-anarchistes combattent l’Internet centralisé qui a accouché des fameux GAFA. Leur credo ? Les méthodes de chiffrement utilisées massivement doivent permettre la protection des échanges. Si vous envoyez un message chiffré, ce message est suspect pour d’éventuels attaquants, qui tenteront de le déchiffrer. Si vous chiffrez tout jusqu’à votre liste de courses, le volume de données sera trop important pour être traité.

Le succès de ces activistes est mitigé, malgré leur présence très importante dans le monde du logiciel libre. C’est une réussite technique très élitiste : l’essor des crypto-monnaies, des réseaux cachés, des darknets et des blockchains le prouve. Leurs seules réussites « grand public » sont la généralisation du protocole web chiffré HTTPS (car largement soutenu par la banque et le e-commerce) et la généralisation de messageries instantanées supportant le chiffrement de manière limitée (Telegram, Messenger …)

Difficile de réformer internet

Le projet de la Free Speech Tech Alliance est plus ambitieux. Une poignée de militants peut parfaitement communiquer à l’insu des services de renseignement, Daech et les fameux « hackers russes » de la campagne américaine l’ont prouvé. Pour toucher un public plus large, donc bien moins formé, il faut des outils plus conviviaux, ayant une certaine masse critique pour se faire connaître, mais surtout contrôlant toutes les couches du réseau.

Les réseaux informatiques fonctionnent comme un empilement de couches techniques (modèle OSI). La plus basse est la liaison physique, le signal électrique, lumineux, radio qui permet d’acheminer les données. La plus haute est constituée des programmes utilisant le réseau. Chaque couche est en principe indépendante des autres : on peut faire passer la même information par différents chemins sur le réseau, utilisant diverses technologies (fibre, ADSL, 4G) sans que cela change quoi que ce soit à l’arrivée.

Celui qui contrôle les couches les plus basses peut toujours censurer les couches au-dessus. Coupez le câble réseau, l’application la plus performante tombe. Un site Internet, un service de noms de domaine (DNS) se situent tous sur la dernière couche du réseau. Les géants du net contrôlent les couches inférieures : ils peuvent censurer à volonté.

Si l’alt-right a pour ambition de créer son propre safe-space sur Internet, elle devra bâtir toute une infrastructure. Elle doit donc posséder à minima : ses hébergeurs[1], ses bureaux d’enregistrement de noms de domaine[2], ses autorités de certification[3], ses fournisseurs d’accès à Internet[4] et ses transiteurs de contenu[5]. Tous ces acteurs doivent être utilisés par une certaine masse de sites lambda afin d’être indispensables à la vie d’Internet et ne pas se faire censurer. S’ils ne sont utilisés que par l’alt-right, ils seront rapidement mis au ban d’Internet. Chacun de ces acteurs nécessite des millions de dollars d’investissements, plusieurs années de dissimulation et des centaines de professionnels. L’alt-right a-t-elle les épaules de ses ambitions ?

Je n’ai évoqué ici que les cas des USA. Dans les pays où l’état se mêle de liberté d’expression comme en France, il faut aller bien plus loin, parfois contre la loi ce qui rend toute solution grand public complètement irréaliste. Dans notre pays, l’Internet libre ne sera toujours qu’un fantasme. Sauf changement politique radical, la liberté d’expression ne pourra qu’être le luxe d’une avant-garde de techniciens.

Enzo Sandré

[1] Mettent des machines connectées 24/24 à disposition de clients : sites Internet ou logiciels divers.

[2] Permettent de retrouver une ressource à partir d’un nom simple à retenir : enzosandre.fr par exemple

[3] Délivrent des certificats permettant de s’assurer qu’un contenu est bien émis par qui de droit

[4] Connectent les particuliers au réseau Internet, ils sont la première ligne de la censure.

[5] Les « plombiers » du net : ils connectent tous les acteurs ci-dessus entre eux via de vastes réseaux régionaux

Le vice-amiral Coustillière se fiche des backdoors

La nomination du vice-amiral Coustillière comme DGSI[1] du MINDEF est mal passée auprès de certains experts français de la cybersécurité. En cause : une déclaration datant d’un an dans laquelle le gradé déclare que les principales failles de sécurité ne viennent pas des portes dérobées[2] introduites dans les logiciels de Microsoft et qu’il « se fout de ce débat ».

Au-delà de son manque de subtilité, l’Amiral n’a peut-être pas tort. Dans le cadre de l’OTAN, nos systèmes militaires n’ont en théorie rien à craindre des américains, nos « amis ». Il est même plus utile que tous les pays alliés travaillent sur une base logicielle commune.

Si la souveraineté de la France intéresse tant les experts de la cybersécurité française, qu’ils demandent d’abord la sortie de l’OTAN, ils n’en seront que moins hypocrites.

Enzo Sandré

[1] Directeur général des systèmes d’information

[2] Failles de sécurité intentionnellement introduites par l’éditeur du logiciel, notamment sur demande de services de renseignement (NSA, CIA …)

Emprisonnons les mauvais développeurs

 Dans toute profession, on peut voir le travailleur de deux manières. Soit on le considère comme un ouvrier, simple paire de bras reliée au cerveau de son chef. Soit on le considère comme un artisan, humain constitué d’un encéphale fonctionnel relié à une paire de bras.

Ce débat peut paraître lointain, mais quand on pose cette question à propos d’une profession qui dirige le monde, elle prend une gravité certaine. La condamnation vendredi 25 août du développeur James Liang, à 40 mois de prison et 200 000€ d’amende pour son rôle dans l’affaire Volkswagen le montre.

Soit on considère le développeur comme un exécutant, donc irresponsable de ce que son donneur d’ordre lui demande.

Soit on le considère comme un artisan, responsable de ses actes et des effets des monstres qu’il créé.

Préférez-vous confier votre pacemaker, votre voiture autonome et votre centrale nucléaire à des professionnels du développement ou à des esclaves du capital ? Les premiers obéissent à des règles de l’art ainsi qu’à une éthique. Les seconds obéissent aveuglément à leur chef, qui n’y connaît rien et ne jure que par la rentabilité.

La conséquence directe de ce choix est le droit ou non des développeurs à se diriger eux-mêmes. Un ouvrier n’a aucune compétence propre, il est une paire de bras. Il n’a pas de devoirs, donc pas de droits non plus. Son rôle social est au mieux celui d’un syndiqué se battant pour des conditions de travail décentes.

Un artisan est un professionnel qui a le devoir de produire un travail bon et utile à la société, il doit donc exiger des droits allant dans ce sens. Le premier est celui d’être protégé par des normes que nul ne peut ignorer : les règles de l’art. Le second est celui d’être jugé en première instance par ses pairs, sur la base desdites normes. Le troisième est celui d’être défendu et conseillé par les maîtres de sa profession, y compris face à son donneur d’ordres lorsque l’éthique professionnelle est en jeu.

Si notre ami James Liang avait eu un corps de métier pour le défendre face aux exigences frauduleuses de ses supérieurs, aurait-il accepté de trafiquer les véhicules ? Isolé, le lanceur d’alertes risque le licenciement, la ruine et la prison. Les règles de l’art opposables protègent le professionnel, elles ne sont pas un carcan. Le but premier d’un corps de métier est la diffusion de celles-ci afin que nul ne puisse les ignorer.

Une société qui interdit les ordres professionnels n’a pas le droit de se plaindre des méfaits de travailleurs toxiques. Au pire malhonnêtes, au mieux sans défense face aux exigences de leur hiérarchie, ils sont la conséquence de la recherche du profit à tout prix. Les premiers doivent être jetés en prison, les seconds doivent être défendus et accompagnés.

Derrière la question de la responsabilité des travailleurs devant leurs actes, deux visions de la société s’opposent : la première bâillonne l’éthique au nom de la rentabilité, pavant la voix à une véritable voyoucratie du capital. La seconde jugule les pratiques néfastes au nom de l’éthique et du bien commun. Avènement de corporations servant le bien commun, ou triomphe du Capital. Aucune autre alternative n’existe.

Enzo Sandré

Google au secours des obèses de l’Internet

QUIC, SPDY et maintenant BBR. Les initiatives de Google sont louables, mais vaines.

Pour prendre une image : C’est comme agrandir les portes pour laisser passer les obèses. Quand ils auront encore grossi ils ne passeront plus. De plus l’agrandissement des portes n’apporte rien aux gens bien-portants et peut même en inciter certains à se laisser aller puisqu’il est aussi facile de vivre obèse que sain.

La seule solution pérenne capable de sauver la neutralité du net et Internet en général, c’est de dégraisser.
Non, une page web de 1Mo n’est pas normale. En comparaison, les œuvres complètes de Shakespeare pèsent 100 fois moins !
Même une vue Google Maps ne dépasse pas 500ko.

Mais pour ça encore faudrait-il que les développeurs web se forment à ne plus être des porcs. Il faudrait d’abord qu’ils aient conscience d’être d’ignobles saligauds, ce qui pose la question de créer un label de qualité, voire de réglementer l’accès à la profession pour les pires d’entre eux.

Salopez le serveur avec votre code bancal c’est vous qui payez, mais ne refilez pas votre chtouille au client. Si votre site ne peut pas être chargé en moins de deux secondes par la mamie du Cantal sur son ADSL (1Mb/s) c’est de la merde. Point, fin du débat.

Les administrateurs réseau se cassent le cul depuis 20 ans à accélérer le web. La seule réponse des devs web a été d’alourdir encore les pages. C’est comme si les constructeurs automobiles avaient profité de la sobriété en carburant des nouveaux moteurs pour créer des bagnoles à 24 cylindres.Très responsable comme comportement.

Je n’épargne pas les graphistes, qui ont pris tellement de drogues ces dernières années qu’une page doit à minima avoir 3 carrousels et 2 images en 4K et 18 feuilles de style pour être considérée comme belle. Même Pieter Bruegel faisait moins chargé que vos bouses.

Lussato avait averti dans les années 80 : soit l’informatique s’amende, s’allège et privilégie les microsystèmes décentralisés, soit elle crèvera de sa centralisation et de son obésité, devenant le jouet exclusif de quelques multinationales. Et ce sera bien fait.

Enzo Sandré

Simone Veil : Se protéger quand la censure frappe

Le 30 juin 2017, jour de la mort de Simone Veil, un visuel aux airs d’hommage est diffusé sur les réseaux sociaux. Il indique un site simoneveil.com, dénonçant très subtilement l’avortement de masse comme un abus non désiré par la défunte. Le groupe anti-avortement Les Survivants avait préparé son coup bien à l’avance puisque le nom de domaine a été réservé le 7 septembre dernier.

Un cadre légal bafoué

Quelques heures après sa publication, le site des Survivants a été suspendu par l’hébergeur OVH, sans qu’aucune décision de justice ne l’ait autorisé à faire cela. Un coup de fil de l’avocat de la famille a suffi pour que l’hébergeur se couche devant les menaces, au mépris de la loi. Ca n’est pas la première fois que les Survivants essuient un tel revers extra-légal : la plateforme de cagnotte HelloAsso avait ainsi supprimé la collecte de l’association quelques jours auparavant.

Le droit français fait d’un site Internet une publication comme un autre, soumise aux règles relatives à la liberté d’expression. La censure d’un contenu doit obligatoirement être prononcée par un juge, lors d’une procédure classique ou en référé. Dans cette affaire, aucun juge n’a été saisi, ni pour atteinte à l’image de la défunte, ni pour délit d’entrave à l’IVG, ni pour diffamation.

La presse, qui se targue d’être la gardienne de la liberté d’expression et de l’état de droit© s’est unanimement félicitée de cette décision. Certains sites insoupçonnables d’incompétence comme Numerama ont même sciemment menti. En jouant sur une nuance imperceptible par le profane, ils expliquent que le site n’a pas été censuré, mais que le nom de domaine simoneveil.com l’a été au motif qu’il utilise le nom et l’image de la défunte sans autorisation.

Cela est faux : le nom de domaine n’a pas été suspendu et fonctionne toujours. Quand l’internaute tente de se connecter le message signifie implicitement que l’hébergeur OVH a suspendu le site. Dans le cas contraire une erreur « Adresse Introuvable » aurait été affichée comme  si vous saisissiez une adresse inexistante (exempledesiteinexistant.com par exemple). Les domaines .com appartiennent à l’ICANN, une autorité administrative américaine avec ses propres règles, qui n’a que faire des caprices d’un avocat parisien. Le motif n’est pas invalide pour autant : les Survivants pourront ultérieurement se voir retirer le domaine, après de nombreux mois et une longue procédure.

Se protéger face à la censure

En France, un hébergeur peut violer la liberté d’expression et être félicité par la caste journalistique. A cela s’ajoutent des lois à la légitimité discutable, comme le délit d’entrave numérique à l’IVG ou une vision très large de l’incitation à la haine. Il peut parfois être légitime de prendre des mesures contre la censure afin de poursuivre de combats nécessaires au bien commun.

Pour censurer, la justice dispose de quatre angles d’attaque : suspension du contenu chez l’hébergeur,  suspension du nom de domaine, condamnation pénale du responsable éditorial et blocage administratif. Chacune de ces mesures obéit à un cadre légal bien précis, dont il suffit de sortir pour échapper à la loi.

Ce qui est arrivé aux Survivants est une suspension de contenu. Elle n’est possible qu’auprès d’un hébergeur français ou ayant des accords judiciaires avec la France. Si les Survivants décidaient d’héberger leur site aux U.S.A, au Cameroun ou en Corée du Nord, le site fonctionnerait de nouveau normalement.

La suspension de nom de domaine est plus complexe, mais on peut esquiver le problème. Si un nom de domaine est bloqué, un autre peut être facilement acheté, puis à nouveau un autre. Le site T411 a survécu des années comme cela grâce à la lenteur des procédures administratives. Exemple : simoneveil.net.

Un responsable éditorial ne peut être condamné que s’il est soumis à la loi française. L’utilisation de prête-noms étrangers est une solution abordable. Renseignez-vous impérativement auprès d’un avocat, la loi française a pris des mesures contre ces pratiques.

Le blocage administratif sert à l’état lorsqu’il a épuisé les autres recours. Il s’agit d’un blocage du site chez le FAI de l’internaute, au moment de la consultation. Il empêche la consultation par tous les internautes n’ayant pas de connaissances techniques étendues, ce qui est redoutable. TOR est le moyen le plus connu de contournement.

Au nom de bons sentiments ou d’idéologies moralisatrices, états et entreprises se permettent de châtier le mal-pensant, censurant à tour de bras. Il est important pour tout créateur de contenu de connaître des contre-mesures. A ceux qui pensent que la neutralité du net et la liberté d’expression tombent du ciel, nous répondons par la phrase de Maurras : « Les libertés ne s’octroient pas, elles se prennent ».

Avertissement : Ce court article ne saurait être exhaustif ou exact : prenez contact avec un spécialiste (technique et juridique) avant de mettre en œuvre de telles solutions.

Enzo Sandré

Décoder les développeurs : enquête sur une profession à l’avant-garde

Celui qui raisonne comme au XXème siècle ne peut pas comprendre les développeurs. Ils sont les enfants terribles de la post-modernité, dans toutes ses contradictions : symboles du progrès technologique guidés par une conscience artisanale ; cols blancs à la mentalité ouvrière bien trempée ; libertaires contractualistes rêvant de communautés de métier ; geeks technophiles sévèrement critiques de la machine.

Cette profession si particulière (que j’exerce moi-même avec beaucoup de fierté) annonce-t-elle un nouvel âge du travailleur qualifié ? Elle pourrait, comme le dit l’auteur « dessiner les contours d’organisations différentes, qui valorisent l’autonomie, la collaboration et l’énergie créative » et estomper le brouillard du taylorisme. Pour comprendre comment, il est incontournable de se pencher sur les caractéristiques du métier de développeur.

Le col ciel : un artisan de l’information

Le rôle d’un développeur est de programmer des logiciels en écrivant des instructions exécutées par la machine : le code. Le travail de développeur est hybride entre la profession intellectuelle et l’artisanat. L’auteur utilise l’expression « cols ciel », jonction entre les « cols bleus » et les « cols blancs » pour les désigner.

Comme tout artisan, le développeur ne peut pas être un individualiste. Même celui qui travaille seul a besoin de ses pairs. De nombreuses communautés en ligne ou physiques permettent au développeur de se former, de résoudre des problèmes rencontrés par d’autres ou de partager du code, en dehors de tout cadre marchand. La plupart des logiciels qui forment l’écosystème informatique aujourd’hui sont libres et aucun développeur ne pourrait travailler en autarcie sans programmer des années pour afficher la moindre image. En un sens, tout développeur est un héritier, devant tout à ses prédécesseurs.

Celui qui travaille en équipe est étroitement lié à ses coéquipiers, car tous modèlent en même temps le produit. Tout comme un orchestre, une équipe doit d’abord apprendre à travailler ensemble et le moindre changement humain est handicapant, le temps d’apprendre à travailler avec le nouveau venu. La taille d’une équipe n’indique en rien sa productivité : si un développeur peut faire un programme en neuf mois, neuf développeurs n’arriveront pas forcément à faire un programme en un mois, sauf s’ils ont appris à œuvrer ensemble.

Les rapports des développeurs avec les managers sont souvent conflictuels : les deux mondes ne se comprennent pas. Des pratiques comme la programmation en binôme, la revue de code mutuelle, le développement piloté par les tests et les entraînements sur du code improductif sont courantes dans les équipes de développement mais constituent de vraies hérésies pour un successeur de Taylor. Plus frustrant : les managers ont rarement le dernier mot face aux développeurs. Le code peut être soumis à des mesures objectives de qualité et de fonctionnalité. Comme le menuisier peut renvoyer son chef à la mesure de l’équerre et du fil à plomb, le développeur peut prouver la conformité du programme aux spécifications par des tests.

Chaque morceau de code produit doit pouvoir être relu et édité facilement, il en va de la productivité de l’équipe. « Laisse le code plus propre que tu ne l’as trouvé » est une des devises des développeurs. Etonnamment, ceux qui suivent cette règle finissent par l’intérioriser en une sorte de conscience ouvrière : le travail bien fait devient un primat.

Une profession en devenir

L’auteur dresse un portrait particulièrement élogieux des développeurs. Je dois dire que je m’y retrouve presque intégralement, me définissant moi-même comme « artisan-développeur ». Hélas l’auteur laisse dans l’ombre la majorité de la profession, les « analystes-programmeurs » et autres « ingénieurs développement ». L’analyste-programmeur pratique le même métier que le développeur, mais avec une mentalité différente : il privilégie un logiciel rapidement fonctionnel à un travail léché et préfère tout planifier à l’avance dans d’énormes cahiers des charges. Alors que le développeur n’a pas d’autre plan de carrière que de devenir un maître, l’analyste programmeur ne rêve que d’être un chef de projet, puis de suivre le parcours balisé du management technique d’entreprise. Les deux composantes de la profession se méprisent mutuellement : les développeurs voient les programmeurs comme des professionnels peu consciencieux, ceux-ci rétorquent en accusant les développeurs d’utopisme et de caprice d’enfant gâté. Il est intéressant de voir qu’à technique égale, la culture est déterminante dans l’usage que l’on en fait.

L’auteur a pris le parti de décrire une avant-garde artisanale de la profession, appelée sans nul doute à grandir et à s’organiser dans les prochaines années. Les déboires de monstres logiciels comme Louvois (logiciel de paiement des soldes de l’armée française) donnent des arguments de choc aux développeurs. Les sessions d’entraînement de type « coding dojo », le désormais célèbre Agile Tour et l’Ordre des Développeurs naissant sont autant de projets extrêmement stimulants, annonciateurs d’un nouvel âge du travailleur qualifié.

Enzo SANDRE
Artisan-développeur

Références

Décoder les développeurs – Un livre sur une profession à l’avant-garde

Benjamin Tainturier – Préface d’Emmanuelle Duez – The Boson Project – Enquête sur une profession à l’avant-garde 138 pages – 19 € – G 56739

Livre gracieusement offert par l’éditeur Eyrolles.

Photo d’entête : atelier logiciel Arpinum

L’APRIL et son pacte du logiciel libre

C’est désormais une habitude : comme à chaque élection depuis 2007, l’association APRIL propose aux candidats de signer son Pacte du logiciel libre. Dans ce document minimaliste, les candidats s’engagent à ne pas voter de lois allant contre le logiciel libre s’ils sont élus. Se voulant le plus rassembleur possible, ce pacte ne rentre pas dans les querelles de licences ni dans les guerres de chapelles qui animent le monde du libre : son but est de sensibiliser les élus par un texte simple et compréhensible. L’initiative est prometteuse ; nous déplorons simplement les statistiques par parti, qui incitent les élus à parapher par discipline partisane plus que pour signifier des convictions personnelles. Nous regrettons également que les « coordinateurs » chargés de prendre contact avec les candidats soient trop souvent des militants de gauche, qui pratiquent un démarchage très sélectif, donnant l’illusion que seule leur famille politique s’intéresse au sujet du libre.

Rue Steve Jobs : Les précurseurs français d’Internet oubliés

Quel est le point commun entre Louis Pouzin, Gérard le Lann, François Flückiger, le projet CYCLADES et le Minitel ? Ils sont français, ont eu un rôle majeur, sinon crucial dans le développement de l’Internet moderne et n’ont pas de rue à leur nom. Contrairement à Steve Jobs, immortalisé par le maire socialiste du XIIIème arrondissement, qui aura prochainement sa trimarde dans la capitale.

Sans la France, sans ces ingénieurs aujourd’hui oubliés, Internet n’existerait pas. Peut-on en dire autant de Steve Jobs ? Rappelons le passif du personnage : commercial de génie, n’ayant jamais rien produit par lui-même ; véritable tyran d’entreprise, terrorisant tout autant ses salariés américains que les esclaves chinois travaillant pour lui ; fossoyeur de l’Internet libre, préférant un écosystème logiciel fermé et honteusement cher. Le personnage est bien sûr loué par tous les bien-pensants, les guerriers de la justice sociale et autres consommateurs de café équitable, plus avides de conformisme que de cohérence. Ils voient en lui un « visionnaire », un « innovateur », un « génie parti trop tôt » voire même un « artiste du capitalisme », bigre !

En France, ce pays d’ingénieurs de haut vol, les élus socialistes préfèrent un escroc, un imposteur et un marchand aux dignes artisans d’Internet. Faire de Jobs un modèle pour la jeunesse, c’est encourager le pillage anglo-saxon sur l’inventivité française. C’est gonfler l’égo de commerciaux déjà pleins de morgue. C’est encore un fois rabaisser la valeur du travail honnête et rémunérateur pour encourager le vol, la spéculation et la médiocrité. C’est donner raison à la consommation compulsive d’appareils monolithiques, jetables lorsqu’une nouvelle version sort.

Une rue qui a toute sa place dans le Paris du XXIème siècle, hélas.

Enzo Sandré


  • Louis Pouzin est l’inventeur du datagramme, capsule de données à la base des réseaux informatiques, dont Internet.
  • Gérard Le Lann est un des architectes des protocoles TCP/IP, squelette de l’Internet moderne. TCP est une amélioration du datagramme de son collègue Pouzin.
  • François Flückiger, scientifique au CERN, est un des bâtisseurs du réseau Internet européen contemporain.
  • Le projet CYCLADES fut une expérience française (IRIA) de réseau alternatif à ARPANET. Ce fut finalement ce dernier qui servit de base à Internet, non sans avoir absorbé les bonnes idées et la plupart des ingénieurs du premier. Sans CYCLADES, ARPANET n’aurait probablement pas été viable et Internet n’aurait pas existé.
  • Le Minitel fut un réservoir d’idées pour l’Internet naissant à l’époque. Il lui est injustement reproché le retard d’accès à Internet des Français.

L’informatique a-t-elle un avenir ?

bougie

Récemment, le président Barack Obama a accordé un entretien au magazine Wired[i], sur la robotisation, l’Intelligence Artificielle et la réduction du temps de travail. Le président américain prédit un avenir ou le travail humain sera remplacé progressivement par des machines, et les bénéfices reversés à la société toute entière. Un discours vieux de deux siècles, sans cesse remis au goût du jour[ii].

De notre point de vue, un futur où le travail est robotisé n’est absolument pas crédible. Nous allons même plus loin, en déclarant que dans la majorité de ses usages actuels, l’informatique n’a aucun avenir. Le monde de demain sera contraint en énergie, soit par manque de ressources, soit afin de ne pas dérégler massivement le climat. La plupart des spécialistes s’accordent à le dire : les énergies fossiles en général et le pétrole en particulier, voient déjà leur production décroître[iii] et ni les renouvelables, ni la fusion ne viendront nous sauver dans les prochaines décennies[iv]. La récession actuelle est donc là pour durer, balayant sur son passage tout l’accessoire.

Soyons clairs : l’informatique n’est pas économe. Les immenses fermes de serveurs, les innombrables routeurs assurant le transit mondial des données, les nombreux ordinateurs personnels et autres gadgets connectés consomment environ 10% de l’électricité mondiale[v], soit l’équivalent de la production d’électricité nucléaire.

Les utilisations de cette technologie sont, pour la plupart, soit énergivores, soit accessoires, soit les deux. Dans un monde contraint en énergie, l’informatique n’aura sa place que dans deux cas de figure : le remplacement de secteurs encore plus énergivores qu’elle et un nombre réduit de secteurs coûteux en énergie, mais pour lesquels les particuliers, les entreprises ou l’état sont prêts à payer cher. L’informatique de remplacement inclut par exemple les solutions de vidéoconférence, se substituant aux voyages en avion dans les milieux d’affaires. L’informatique énergivore est par exemple le e-commerce, pure annexe des transports. Il est à parier que les usages récréatifs et/ou nuisibles (pornographie notamment) deviendront un plaisir d’élite s’ils ne disparaissent pas complètement.

L’informatique de masse ne peut pas être viable. L’épuisement des terres rares va rendre obligatoire le recyclage minutieux de chaque unité, renchérissant le coût en énergie de chaque unité produite. Dans un contexte de tensions énergétiques, cela signifie un prix croissant des nouvelles machines. La mutualisation des machines risque de devenir la norme et le PC personnel un luxe. L’accroissement de la puissance de calcul unitaire devrait ralentir, pour se caler peu ou prou sur l’accroissement de l’efficience énergétique. La consommation énergétique par unité a peu de chances d’augmenter dans les machines grand public.

Si nous devions nous risquer à dessiner l’avenir chez les particuliers, ceux-ci recentreront sans doute leurs moyens autour d’un PC familial, doublé d’un smartphone professionnel basique selon les cas, le tout communiquant avec un nombre plus limité qu’aujourd’hui de services. L’avenir ne sera certainement pas dans la prolifération des sex toys connectés et autres brosses à dents intelligentes.

Du côté des entreprises, seules celles qui trouveront un avantage réel à s’informatiser davantage le feront. L’effet de mode et la simple technophilie cèderont la place au dur calcul économique. Le secteur numérique, aujourd’hui en plein boom, pourrait se retrouver du jour au lendemain en grave crise, comme lors de l’explosion de la bulle Internet. Brisons de suite un mythe répandu : non, le tertiaire n’est pas économe en énergie. Mettre quelqu’un dans un bureau signifie qu’il faut le remplacer par une machine dans le secteur primaire ou secondaire.

Dans les gros systèmes centralisés, la part de l’énergie consacrée au fonctionnement du système lui-même, par rapport aux applications hébergées augmente[vi]. La tendance sera donc à la décentralisation et aux systèmes distribués, dès que les économies d’échelle auront été annulées par le renchérissement du coût de l’énergie.

Les utopies californiennes d’un monde où robots et intelligences artificielles remplaceraient les humains à la tâche prennent du plomb dans l’aile. Le remplacement de l’homme par la machine ne vaut que tant que le coût de l’heure de fonctionnement de celle-ci (incluant son amortissement), dépasse les salaires des ouvriers qu’elle remplace. Le renchérissement du coût de l’énergie viendra rapidement remettre l’homme au travail. Les bras aujourd’hui au chômage ne suffiront pas à combler le manque d’énergie qui s’annonce. La « crise » de 2008 n’en est pas une. Elle est le début d’une récession mondiale après le passage du pic pétro-gazier. Cette récession remet en question de nombreux « progrès » de la société moderne, qui fondront comme neige au soleil face à la dure réalité physique. L’informatique en fait partie, tout comme l’internet libre, très belle idée, hélas irréaliste dans un monde à l’énergie contrainte.

[i] https://www.wired.com/2016/10/president-obama-guest-edits-wired-essay/

[ii] JARRIGE François, Technocritiques

[iii] En 2010, l’Agence Intenationale de l’Énergie déclarait que la production de pétrole ne dépasserait jamais le niveau de 2006 : le fameux pic du pétrole.

[iv] La fusion commerciale est estimée au mieux pour 2090

[v] Cloud begins with Coal, Digital Power Group, 2013

[vi] LUSSATO Bruno, La Troisième Révolution

Joyeux anniversaire Linux !

Linux fait figure d’exception dans le monde de l’ingénierie logicielle. Il est le seul projet libre de cette ampleur à fonctionner depuis 25 ans. Linus Torvalds, son créateur, le dirige encore aujourd’hui d’une main ferme, à la manière d’un véritable monarque.

Linus_TorvaldsComme tout logiciel libre, Linux peut être utilisé, modifié, dupliqué et diffusé sans aucune contrainte. Sa spécificité vient de la propriété de la marque Linux par Linus Torvalds. N’importe qui peut installer Linux, le modifier et diffuser ses modifications, mais seul Linus Torvalds décide des modifications qui seront incluses dans le logiciel désigné par le nom de Linux. Chacun est en revanche libre de publier des modifications refusées sous un autre nom. Pourtant, la popularité de Linux empêche bien souvent les mécontents de s’éloigner de la branche principale. Cela garantit une certaine stabilité au projet Linux.

Dès les premières années du projet, des centaines de développeurs sont venus contribuer librement au projet Linux. Cette communauté produisait trop de modifications pour que Linus puisse seul les analyser et les incorporer à Linux. Il a donc décidé la création d’un système de lieutenants, un pour chaque grande partie du système (son, processeur, mémoire …). Chaque lieutenant est responsable devant lui de la qualité du code qu’il valide. Tout développeur qui souhaite contribuer au projet Linux doit envoyer ses modifications à un lieutenant, qui validera ses modifications et les regroupera avec d’autres, afin de les présenter à Linus. En cas de conflit entre deux lieutenants, Linus tranche, avec un langage souvent très fleuri. Ce système dure encore aujourd’hui, alors que des milliers de développeurs contribuent au plus gros projet libre du monde.

Basés sur l’idéologie libertaire du logiciel libre, beaucoup de projets échouent faute d’une vision cohérente. La gestion de projet monarchique de Torvalds a protégé Linux des scissions et des affrontements d’égos, lui permettant de dépasser la barre des 25 ans. Il n’est pas pour autant un tyran : il juge les modifications sous l’angle du bien du projet et laisse des libertés partout où les règles ne sont pas nécessaires. Si cela n’avait pas été toujours le cas, les développeurs seraient simplement partis. Le projet aujourd’hui est assez stable et sérieux pour que des grandes entreprises allouent des centaines de salariés au développement de Linux.

Le principal point faible de Linux est la succession de Torvalds : aucun successeur n’a été désigné ou ne ressort. Il est certain que sans ordre, sans chef et sans guide, la communauté linux deviendra pauvre troupeau. Il n’y a pas encore lieu de s’alarmer, à 46 ans, le « dictateur bienveillant » se porte bien. Néanmoins, la communauté linux devrait sérieusement réfléchir à la question. En attendant, joyeux anniversaire Linux !


L’histoire de Linux débute le 25 aout 1991, à l’université d’Helsinki. Linus Torvalds, alors étudiant décide de développer un émulateur de terminal pour remplacer celui présent sur son ordinateur. Cet émulateur fut le point de départ d’un système aujourd’hui connu sous le nom de Linux.

Il totalise à ce jour plus de 10.000 développeurs et 1000 entreprises ayant contribué à son développement. Le noyau Linux équipe 31% des tablettes et 64% des smartphones grâce à Android. 38% des serveur tournent sous Linux, de même que la quasi-totalité des superordinateurs (97%) et des systèmes embarqués (domotique, audiovisuel …). Linux est minoritaire (1,7%) sur le seul segment de l’informatique grand public, pour combien de temps encore ?


Pour aller plus loin : http://www.silicon.fr/linus-torvalds-linux-75664.html