Vers la fin (de la neutralité) d’Internet ?

Le 14 décembre 2017, la FCC[i] a officiellement mis fin à la neutralité du net. Hurlements du côté des « défenseurs des libertés » pro-neutralité, cris de joie du côté des « défenseurs des libertés » anti-neutralité. Cette décision n’est pourtant qu’un symptôme : la toile craque sous le poids des géants du web.

Le postier libre dans le monde libre

Revenons aux origines : Internet était un petit réseau reliant des utilisateurs de taille comparable, souvent à la fois clients[ii] et serveurs[iii]. Le réseau est conçu pour dissocier complètement la couche physique (transmission des informations) du transport (adressage, routage) et de l’information transmise. Pour prendre une image, n’importe quel colis bien adressé peut aller n’importe où en passant par un nombre indéterminé de bureaux de poste, qui communiquent entre eux comme bon leur semble (avion, barque, etc.). Implicitement, le postier n’avait pas le droit de discriminer le colis selon son origine, sa destination, son poids ou son contenu, par exemple en forçant les gros colis à prendre le bateau. Cette neutralité de fait d’Internet a permis son essor face aux réseaux concurrents.

Mon postier est surchargé

La neutralité de principe n’existait pas avant 2004, car elle allait de soi dans un réseau décentralisé. Quand la FCC adopte une déclaration sur la neutralité du net, il s’agissait déjà de sauver ce principe dans un réseau en cours de centralisation.

Les états, renseignement et justice en tête, ne pouvaient pas laisser cette immense cour de récréation sans surveillance. Avènement des pandémies informatiques, expansion du crime ou du simple délit contre le droit d’auteur : Internet devait être surveillé et censuré au besoin. Même les plus grands défenseurs de l’Internet Libre n’ont rien vu à redire. Certains hypocrites craignent une censure extra-légale par les opérateurs privés avec la fin de la neutralité. N’est-ce pas déjà le cas ? L’affaire Stormfront évoquée dans nos colonnes n’est pas autre chose, au nom de la lutte contre les discours de haine. Que dire des réseaux sociaux, véritables sous-réseaux d’Internet, qui censurent à tour de bras ?

Les nouveaux usages d’Internet ont polarisé le réseau : une multitude d’utilisateurs ne fournissant aucune ressource consommant des plateformes toujours plus fréquentées. Pour relier plusieurs villages autonomes, un réseau de petites routes fonctionne très bien. Autour d’une grande ville, vous devrez créer des autoroutes, des ponts, des métros. Internet fonctionne de la même manière. La polarisation crée de la centralisation, qui crée des coûts d’infrastructure.

L’infrastructure d’Internet est gérée par des transiteurs, dont les FAI[iv]. Ils doivent dimensionner la taille des tuyaux au volume qui y circule. Avec la neutralité du net, ils n’ont pas le droit de ralentir ou bloquer un flux sur la base de son contenu, de sa source ou de sa destination. Les transiteurs se voient obligés d’accepter le tout-venant et de dimensionner leurs infrastructures en conséquence. La neutralité du net a un effet pervers : elle permet un chantage des plateformes envers les transiteurs. Un exemple : YouTube est très apprécié des utilisateurs, qui se plaignent auprès de leur FAI à la moindre lenteur (« je paie pour ça »). Le FAI fait pression sur le transiteur pour augmenter la taille du tuyau le reliant à YouTube. Le transiteur doit réaliser des investissements assez lourds auquel YouTube refuse de participer, arguant que le tuyau bâti pour lui est neutre, donc théoriquement utile à tous. Les abonnements à la carte étant interdits par la neutralité du net, le coût est globalement répercuté sur l’utilisateur final.

Internet : une ressource

La fin de la neutralité du net va coûter cher aux plateformes comme YouTube ou Netflix, obligées de partager la facture de transit avec les utilisateurs qui les regardent. Pour la France, ce sera la seule conséquence de cette décision américaine, à moins que les autorités européennes ne décident d’en finir elles aussi avec la neutralité du net.

La fin de la neutralité est un symptôme de l’internet-marché : un portail de services à la carte. 5€/mois pour YouTube, 10€ pour Google, ne laissant pas de place en dehors des géants prêts à payer pour y figurer. L’utilisateur possèdera un simple terminal, sorte de smartphone verrouillé où l’on ajoute des applications.

L’avenir d’Internet est sombre, mais il est tout à fait probable qu’un autre réseau le remplace dans les années à venir. Il devra éviter les trois écueils qui tuent Internet : régulation des géants qui déstabilisent physiquement le réseau (GAFA, mais aussi FAI obèses), chiffrement intégral des échanges pour éviter les intermédiaires trop curieux et atténuation de la dichotomie client/serveur (P2P, réseau distribué).

La liberté du réseau a un prix, incompatible avec sa centralisation.

[i] Federal Communications Commission, l’autorité régulatrice des télécoms aux USA.

[ii] Le client demande une ressource sur le réseau

[iii] Le serveur fournit une ressource à la demande

[iv] Fournisseurs d’accès à Internet

Les “alternet” sont-ils viables ?

S’estimant privés de leur liberté d’expression, les groupes d’alt-right américains s’organisent face à la censure des géants de la Silicon Valley, très marqués à gauche. Posséder son propre serveur n’est aujourd’hui plus suffisant : les entreprises gérant l’infrastructure d’Internet n’hésitent pas à filtrer jusque dans les couches les plus basses du net : déconnexion de serveurs, retrait de noms de domaine, etc. Stormfront et The Daily Stormer, deux sites d’information de l’alt-right ont eu leur domaine retiré. Le site d’écoute musicale Spotify, le site de rencontre OkCupid et Paypal bannissent les prétendus « nazis » hors du web. Facebook et AirBnb ont supprimé les comptes liés à la manifestation de Charlottesville. Des centaines de comptes Facebook et Twitter sont suspendus chaque jour, y compris en France.

Pour l’instant, la censure extra-judiciaire ne concerne que les terroristes et « la haine », réelle ou soupçonnée. Les hypocrites défenseurs de la neutralité du net peuvent donc encore faire semblant de croire que cette dernière, morte depuis des années, existe toujours.

Une réussite très élitiste

Le réseau social Gab , fer de lance de la contestation, a proclamé le 10 août dernier la naissance de la « Free Speech Tech Alliance ». Cette alliance de professionnels doit permettre à terme la création d’un véritable « Alternet » : une partie d’Internet débarrassée de la Silicon Valley et de sa censure morale. Sur le papier, le projet sonne bien, mais sa viabilité est questionnable.

D’autres ont essayé avant eux, la réputation sulfureuse en moins. Depuis les années 90 les groupes crypto-anarchistes combattent l’Internet centralisé qui a accouché des fameux GAFA. Leur credo ? Les méthodes de chiffrement utilisées massivement doivent permettre la protection des échanges. Si vous envoyez un message chiffré, ce message est suspect pour d’éventuels attaquants, qui tenteront de le déchiffrer. Si vous chiffrez tout jusqu’à votre liste de courses, le volume de données sera trop important pour être traité.

Le succès de ces activistes est mitigé, malgré leur présence très importante dans le monde du logiciel libre. C’est une réussite technique très élitiste : l’essor des crypto-monnaies, des réseaux cachés, des darknets et des blockchains le prouve. Leurs seules réussites « grand public » sont la généralisation du protocole web chiffré HTTPS (car largement soutenu par la banque et le e-commerce) et la généralisation de messageries instantanées supportant le chiffrement de manière limitée (Telegram, Messenger …)

Difficile de réformer internet

Le projet de la Free Speech Tech Alliance est plus ambitieux. Une poignée de militants peut parfaitement communiquer à l’insu des services de renseignement, Daech et les fameux « hackers russes » de la campagne américaine l’ont prouvé. Pour toucher un public plus large, donc bien moins formé, il faut des outils plus conviviaux, ayant une certaine masse critique pour se faire connaître, mais surtout contrôlant toutes les couches du réseau.

Les réseaux informatiques fonctionnent comme un empilement de couches techniques (modèle OSI). La plus basse est la liaison physique, le signal électrique, lumineux, radio qui permet d’acheminer les données. La plus haute est constituée des programmes utilisant le réseau. Chaque couche est en principe indépendante des autres : on peut faire passer la même information par différents chemins sur le réseau, utilisant diverses technologies (fibre, ADSL, 4G) sans que cela change quoi que ce soit à l’arrivée.

Celui qui contrôle les couches les plus basses peut toujours censurer les couches au-dessus. Coupez le câble réseau, l’application la plus performante tombe. Un site Internet, un service de noms de domaine (DNS) se situent tous sur la dernière couche du réseau. Les géants du net contrôlent les couches inférieures : ils peuvent censurer à volonté.

Si l’alt-right a pour ambition de créer son propre safe-space sur Internet, elle devra bâtir toute une infrastructure. Elle doit donc posséder à minima : ses hébergeurs[1], ses bureaux d’enregistrement de noms de domaine[2], ses autorités de certification[3], ses fournisseurs d’accès à Internet[4] et ses transiteurs de contenu[5]. Tous ces acteurs doivent être utilisés par une certaine masse de sites lambda afin d’être indispensables à la vie d’Internet et ne pas se faire censurer. S’ils ne sont utilisés que par l’alt-right, ils seront rapidement mis au ban d’Internet. Chacun de ces acteurs nécessite des millions de dollars d’investissements, plusieurs années de dissimulation et des centaines de professionnels. L’alt-right a-t-elle les épaules de ses ambitions ?

Je n’ai évoqué ici que les cas des USA. Dans les pays où l’état se mêle de liberté d’expression comme en France, il faut aller bien plus loin, parfois contre la loi ce qui rend toute solution grand public complètement irréaliste. Dans notre pays, l’Internet libre ne sera toujours qu’un fantasme. Sauf changement politique radical, la liberté d’expression ne pourra qu’être le luxe d’une avant-garde de techniciens.

Enzo Sandré

[1] Mettent des machines connectées 24/24 à disposition de clients : sites Internet ou logiciels divers.

[2] Permettent de retrouver une ressource à partir d’un nom simple à retenir : enzosandre.fr par exemple

[3] Délivrent des certificats permettant de s’assurer qu’un contenu est bien émis par qui de droit

[4] Connectent les particuliers au réseau Internet, ils sont la première ligne de la censure.

[5] Les « plombiers » du net : ils connectent tous les acteurs ci-dessus entre eux via de vastes réseaux régionaux

Google au secours des obèses de l’Internet

QUIC, SPDY et maintenant BBR. Les initiatives de Google sont louables, mais vaines.

Pour prendre une image : C’est comme agrandir les portes pour laisser passer les obèses. Quand ils auront encore grossi ils ne passeront plus. De plus l’agrandissement des portes n’apporte rien aux gens bien-portants et peut même en inciter certains à se laisser aller puisqu’il est aussi facile de vivre obèse que sain.

La seule solution pérenne capable de sauver la neutralité du net et Internet en général, c’est de dégraisser.
Non, une page web de 1Mo n’est pas normale. En comparaison, les œuvres complètes de Shakespeare pèsent 100 fois moins !
Même une vue Google Maps ne dépasse pas 500ko.

Mais pour ça encore faudrait-il que les développeurs web se forment à ne plus être des porcs. Il faudrait d’abord qu’ils aient conscience d’être d’ignobles saligauds, ce qui pose la question de créer un label de qualité, voire de réglementer l’accès à la profession pour les pires d’entre eux.

Salopez le serveur avec votre code bancal c’est vous qui payez, mais ne refilez pas votre chtouille au client. Si votre site ne peut pas être chargé en moins de deux secondes par la mamie du Cantal sur son ADSL (1Mb/s) c’est de la merde. Point, fin du débat.

Les administrateurs réseau se cassent le cul depuis 20 ans à accélérer le web. La seule réponse des devs web a été d’alourdir encore les pages. C’est comme si les constructeurs automobiles avaient profité de la sobriété en carburant des nouveaux moteurs pour créer des bagnoles à 24 cylindres.Très responsable comme comportement.

Je n’épargne pas les graphistes, qui ont pris tellement de drogues ces dernières années qu’une page doit à minima avoir 3 carrousels et 2 images en 4K et 18 feuilles de style pour être considérée comme belle. Même Pieter Bruegel faisait moins chargé que vos bouses.

Lussato avait averti dans les années 80 : soit l’informatique s’amende, s’allège et privilégie les microsystèmes décentralisés, soit elle crèvera de sa centralisation et de son obésité, devenant le jouet exclusif de quelques multinationales. Et ce sera bien fait.

Enzo Sandré

La décentralisation énergétique, un projet au bénéfice du localisme ?

Article de Théophile Ducran-Lapoigne, faisant partie du dossier « L’avenir de la production d’énergie » coordonné par mes soins.


Le point de départ : la nécessité de réforme du système français

Au lancement de son programme nucléaire civil en 1958, les objectifs de la France étaient de se doter de capacités de production d’énergie à bas coût, en grande quantité, et sans que leur mise en place ni leur fonctionnement ne puisse opposer de quelconques menaces à l’indépendance nationale.
Cela fût fait. En 2017, la France est le pays d’Europe occidentale où l’électricité est la moins chère, et possède un parc nucléaire de 58 réacteurs répartis dans une quinzaine de centrales, ce qui en fait le pays le plus « nucléarisé » au monde par habitant.
Ainsi, ce système de grandes centrales, réparties inéquitablement sur le territoire, s’appuie sur un vaste réseau de transport et de distribution d’électricité.

Les activités de production, de transport, de distribution, et de fourniture d’électricité ont été déposées, à l’origine, entre les mains d’un « champion » national : Électricité de France.

Toutefois, ce système centralisé du « tout-nucléaire » présente aujourd’hui ses limites : du coût de démantèlement des centrales – qui ne sont, hélas, pas éternelles ! – à celui de gestion des déchets nucléaires, de nombreux obstacles s’accumulent au fil du temps.
En effet, pour des raisons propres à l’énergie nucléaire, mais aussi inhérentes à lui-même, le système français s’avère difficilement compatible avec les exigences écologiques contemporaines.
Par définition, un système centralisé offre un résultat puissant – et la France en sait quelque chose ! – mais génère inévitablement des pertes. A titre d’exemple, seule 1/3 de l’énergie brute produite par une centrale nucléaire est transformée en électricité – le reste étant évacué à travers les tours de refroidissement.
Compte tenu des exigences croissante d’économie d’énergie, un tel blocage apparaît comme de moins en moins acceptable.

De là, la décentralisation énergétique apparaît comme une solution viable sur les plans économique et écologique.
Cette notion peut se définir comme la distribution des capacités de production d’énergie par région, de manière à ce que les unités de production se trouvent géographiquement proches des consommateurs finaux, limitant ainsi l’utilisation du réseau de transport et offrant des capacités de résilience locale.

En effet, ce système comporte un certain nombre d’avantages qui lui permettraient de combler efficacement les lacunes de notre « tout nucléaire-centralisé » gaulois, et, sur le plan politique, d’encourager un retour au localisme.

Quel calendrier pour un nouveau système décentralisé ?

Il faut d’abord poser un premier axiome : le processus de transition énergétique, sera inévitablement accolé à la méthode de la décentralisation énergétique. Objectif et méthode s’accordent donc.

De plus, la transition énergétique vers des énergies vertes – ce que l’énergie nucléaire n’est pas, étant « décarbonnée » mais néanmoins productrice de déchets dangereux pour l’environnement et la santé – pourrait être achevée en France d’ici 2080.
La décentralisation énergétique n’est donc pas une solution sur-mesure applicable instantanément, mais résultera d’un processus national de long terme découlant de politiques publiques cohérentes.

Quels outils ?

Les énergies renouvelables portent un maître-mot : la résilience.
Par ce terme, il doit être entendu la résistance économique et humaine à l’absence de production d’énergie par une unité sur une courte période. En effet, la production d’énergie renouvelable dépend intégralement des conditions météorologiques du lieu où elles se trouvent.
Par conséquent, il n’est pas possible de prévoir avec certitude la production d’un parc solaire photovoltaïque, ni celle d’une ferme éolienne.
Cela suppose donc l’installation d’une variété de sources de production d’énergie, complémentaires entre elles.

La spécialisation au service de la variété

Chaque terre de France possède des caractéristiques naturelles différentes.
Ainsi, l’ensoleillement en Provence n’est pas le même qu’en Bretagne ; de même que l’Aquitaine, dont les côtes sont venteuses, n’a pas une activité géothermique aussi importante que celle du bassin parisien.
Ainsi, les capacités de production, mises sur pieds par région, devront répondre aux spécificités de l’écosystème local.

Un réseau de transport et de distribution renouvelé

Le système de production par région implique un renouvellement complet du système de transport et de distribution d’électricité. Jusqu’à présent, les lignes à haute-tension et très haute-tension partent des centrales, et sont connectées à des réseaux à basse-tension jusqu’à la fourniture finale. Ce système implique une logistique complexe, et des pertes notables, même s’il permet de « déplacer » l’électricité sur de longues distances.

Une production locale organisée selon une superposition des mailles territoriales

Une autre caractéristique majeure de la décentralisation énergétique est le régionalisme.
En effet, la production décentralisée ne doit pas devenir un ensemble de mini-systèmes centralisés, mais elle doit être organisée selon la superposition de mailles territoriales.
Ainsi, l’on pourrait aisément imaginer un système où 50% de la production serait mis à la charge des départements, et 25% à celle des régions et communes.
Cela étant, les communes bénéficieraient aussi du développement de la production domestique.

Le rôle de la production domestique

La production domestique, c’est-à-dire l’installation de capacité de production d’énergie directement au sein des foyers, devrait permettre de renforcer leur autonomie vis-à-vis des grands fournisseurs (EDF, Engie).
Cela étant, en subventionnant l’installation de telles capacités de production, les collectivités territoriales seraient en droit d’espérer un dopage de l’économie locale, notamment en matière d’emploi, voire de recherche.

Pour conclure, la question qui peut se poser est la suivante : dans quelle mesure la relocalisation des moyens de production d’énergie peut-elle avoir un impact sur le localisme politique ?

Toute activité commune étant source d’union, il est très probable que des populations, qui, au niveau local, se regroupent pour prendre en charge leur propres besoins en énergie, seront amenées à renforcer leur esprit de communauté, et, par extension, leur sentiment d’enracinement.
Reste à voir par quels biais politiques la décentralisation énergétique sera mise en place. Quoi qu’il en soit, il devrait être possible d’en tirer parti.

Théophile Ducran-Lapoigne