(environ 20 minutes de lecture)
Ce XXIe siècle qui vient de s’achever, auquel nous allons nous intéresser, quand a-t-il commencé ? Trois premières réponses peuvent venir à l’esprit : le 1er janvier 2001, c’est le début calendaire, chronologique ; le 11 septembre 2001, c’est le début géopolitique, le point de départ du choc des civilisations ; les 26-27-28 décembre 1999, date de la première grande tempête en Europe de l’ouest, c’est le début climatique, plus exactement le début du dérèglement climatique.
C’est pourtant une quatrième date que je vais choisir, inconnue et non remarquée sur le moment, mais pourtant plus révolutionnaire.
Chapitre 1 – La numérisation du monde
Le 22 novembre 1977, les ingénieurs américains Vint Cerf et Bob Kahn sont arrivés à transférer puis à récupérer des données numériques aux États-Unis et en Europe, depuis un van en Californie, en reliant 3 réseaux existants : la radio, le satellite et l’Arpanet (Advanced Research Projects Agency Network, destiné à faciliter les échanges entre militaires et universitaires américains). Ils créaient ainsi le système de liaison TCP/IP, pour Transmission Control Protocol/Internet Protocol.
Cet exploit, et surtout ses conséquences, restèrent longtemps sous-estimés, même par ceux qui en étaient les auteurs. Mais en 1989, l’invention du World Wide Web (une large toile sur le monde) par le physicien britannique Tim Berners-Lee permit le partage d’informations sur ce qu’on appelait l’internet, selon les modalités qui restèrent en vigueur plus de quarante ans : utilisation d’un navigateur, organisation en pages à identifiant unique, liens hypertextes… Petit à petit, des ordinateurs se connectèrent et donc s’interconnectèrent : 100 000 en 1989, 1 000 000 en 1992. Mais l’usage restait confidentiel. Il fallut attendre 1993 et la création du navigateur Mosaïc pour que le Web prenne son essor et multiplie ses contenus.
Dès lors, un classement devenait nécessaire. Il était indispensable d’indexer les informations toujours plus nombreuses pour pouvoir y accéder. Mais avec des millions de pages, classer ne suffisait plus : il fallait hiérarchiser. C’est ce que comprirent et réussirent Larry Page et Sergueï Brin, deux docteurs en informatique et mathématiques à Stanford, en créant l’algorithme PageRank en 1997, qui ordonnait les pages en fonction de leur popularité, les plus demandées apparaissant en premier. PageRank est à la base de la création et du développement du moteur de recherche Google, fondé en 1998. Il y eut bien sûr beaucoup d’autres moteurs de recherche, mais Google s’est longtemps imposé en raison de la qualité et de l’exhaustivité de son ordonnancement.
A – Comment le Web a changé la vie des humains
On peut faire débuter l’accès généralisé à internet à l’année 2000, en raison principalement du développement du micro-ordinateur individuel (même si le micro-ordinateur a pu être utile même quand il n’était pas relié à internet). À cet égard, il convient de citer deux hommes :
– Steve Jobs, fondateur de la société Apple et des ordinateurs Mac, l’homme aux pulls à col roulé noirs, génie capricieux qui symbolisa le mythe du garage (dans lequel on bricole jusqu’à trouver une invention qui change le monde), libertarien reconverti en capitaine d’industrie, patron tyrannique exigeant que l’intérieur des appareils indémontables qu’il concevait (intérieur que personne ne verrait donc jamais) soit doté d’un design aussi beau que l’extérieur, qui mourut prématurément d’un cancer parce qu’il avait longtemps refusé de se soigner avec autre chose que des plantes ;
– Bill Gates, fondateur de la société Microsoft, sans doute un des cerveaux le plus puissants de tous les temps, créateur du système d’exploitation Windows, qui équipa jusqu’à 95 % des ordinateurs de la planète, et de nombreux logiciels entrés dans le quotidien des terriens, dont le célèbre Pack Office contenant Word, Excel, PowerPoint et Outlook, scientifique insatiable, philanthrope exceptionnel qui sauva des centaines de millions d’enfants africains grâce aux campagnes de vaccination lancées par sa fondation et aux innombrables actions qu’il soutint de ses deniers en faveur d’un développement juste et durable.
La mise sur le marché de micro-ordinateurs toujours plus performants et reliés à internet, la libération à la fois des échanges entre les individus et de leur accès à l’information, entraina la création d’innombrables entreprises à la source de multiples inventions. Une économie numérique s’est progressivement mise en place, dont les objets indispensables ont été les ordinateurs personnels, devenus portables (laptop), et les smartphones (apparus en 2007), ceux-ci permettant l’utilisation de services numériques prépondérants, comme les messageries, les réseaux sociaux, les plateformes d’achats en ligne, les applications d’aides aux déplacement, les outils permettant de visionner des vidéos, les traducteurs, correcteurs et synthétiseurs.
Avec la 5G puis la 6G, avec le développement de l’intelligence artificielle et des technologies NBIC qui y étaient associées (nanotechnologies, biotechnologies, informatique, sciences cognitives), on franchissait encore une étape et le monde de 2030 (12 milliards d’appareils connectés) a été très différent de celui de l’an 2000 (36 millions d’appareils connectés seulement, et l’on parlait pourtant d’une « bulle internet », qui explosa en bourse en mars 2000, ce qui mit fin de manière prématurée à une première génération de ces entreprises basées sur le web nouveau, qu’on appelait des start up).
Cette crise boursière ne fut, finalement, qu’un épiphénomène. Car la puissance des outils numériques était telle qu’elle bouleversa les modes de vie d’abord, les mentalités ensuite. Il n’est qu’à comparer les usages en 1994 et en 2024 pour réaliser les changements, dans tous les domaines.
Pour apprendre et se former par exemple, il fallait au XXe siècle aller dans des bibliothèques, chercher des ouvrages en rapport avec le sujet, les emprunter, à condition qu’ils soient disponibles, les rapporter dans les délais impartis. En 2024, il suffisait de taper sur son écran le mot que l’on souhaitait pour voir apparaître mille articles éclairant le sujet sous toutes les facettes, sans parler des vidéos qui complétaient la théorie avec des démonstrations. La recherche sur internet devint d’autant plus efficace que les moteurs tinrent de plus en plus compte du sens de la requête (la formulation des questions sous forme de « prompts » allait montrer tout son potentiel avec l’apparition des IA dites génératives, à la fin de ce premier quart de siècle). Mais avant même ChatGPT, la culture et la connaissance furent accessibles à toutes et tous, de manière gratuite et permanente, ce qui représentait un bouleversement considérable.
Je me souviens de mon père, né en 1965, m’expliquant que, quand il voulait écouter une simple chanson à 15 ans, donc en 1980, il ne pouvait compter, dans la France de l’époque, que sur 4 stations de radio (Europe n°1, France Inter, Radio Télévision Luxembourg (RTL) et Radio-Monte-Carlo (RMC)), qui passaient de la musique seulement le soir et le week-end, dans certaines émissions. À la télé, il n’y avait en tout et pour tout qu’un seul moment consacré aux variétés, le samedi soir. Et pour s’offrir un seul disque de ses idoles (le chanteur Johnny Hallyday, des groupes aux noms de Status-Quo, Scorpions, ACDC), il lui fallait économiser 6 mois d’argent de poche ou implorer un 33 tours comme cadeau de Noël.
– Tu ne peux pas imaginer, me disait-il, ce que c’est que de taper un titre dans ta barre de recherche et de voir apparaître plusieurs versions du morceau voulu, à écouter sur Spotify, à voir en clip ou en concert sur Youtube. À volonté, 24 heures sur 24, gratuitement, sans risque d’usure ! C’est tout simplement phénoménal !
Pour lui, la plus belle invention du web était Wikipédia, cette encyclopédie en ligne qui parait bien archaïque aujourd’hui, mais qu’il trouvait révolutionnaire :
– Tu te rends compte ? Sur n’importe quel sujet, n’importe quel thème, n’importe quelle période, n’importe quelle personnalité, la notice – précise, détaillée, argumentée, nuancée – est mise à jour en permanence par des passionnés qui donc se stimulent et s’auto-contrôlent les uns les autres. De plus, des modérateurs et régulateurs de la fondation Wikimédia vérifient sur-le-champ les propos, les sources, les références. C’est prodigieux !
Il donnait chaque année 30 € à la Fondation, considérant que c’était le minimum pour les innombrables apports que lui avait fournis Wikipédia.
Internet a aussi révolutionné la communication, à tel point qu’on a du mal à imaginer que la seconde ait pu exister sans le premier. Le mail et le sms d’abord, les messageries liées aux réseaux sociaux ensuite, ont créé ce qu’on pourrait appeler l’instantanéité : on agit au moment où on pense. Là encore, on a bien du mal à voir les choses autrement désormais, mais il n’est qu’à lire les récits des siècles passés pour comprendre ce que pouvait être la longueur d’un processus de décision. Avec internet, la transmission et l’échange de données devinrent en outre possibles à beaucoup plus de deux, rangeant le téléphone fixe et le courrier papier au rang de survivances d’un autre âge (distinguer aujourd’hui, en 2100, numérique et papier, téléphones fixe et mobile, n’a tout simplement plus de sens).
L’information est, elle, devenue continue, et, en bonne partie, imagée. La presse papier n’a pas pu résister longtemps contre la déferlante des images sur les écrans. D’autant que chacun s’est alors transformé en pseudo-journaliste, fournisseur et éditeur d’informations, via des réseaux comme Facebook, Twitter, ou des chaînes créées sur Youtube. Parenthèses, importantes cependant : les images n’ont pas tué l’écrit. Elles ont tué l’écrit seul (la poésie, le communiqué de presse, la lettre), mais pas le pouvoir des mots. Malgré la « vidéoïsation » et « l’émoticonisation » des messages, le texte a continué à être utilisé. Il était souvent pauvre sur le fond, ampoulé sur la forme, toujours associé à une image, mais il a subsisté.
Autre acte majeur du Sapiens des temps moderne révolutionné par internet : la consommation. En 2000, on se rendait encore dans des agences pour acheter des billets (de train, de voyages, de concerts), on entrait dans des magasins pour découvrir et acheter des meubles ou des vêtements, on allait à la Poste pour envoyer des lettres et à la banque pour déposer ou retirer de l’argent. Et puis les sites de vente en ligne, généralistes ou spécialisés, sont apparus, des tas de marketplace ont été créées. C’est bien sûr Amazon qui a symbolisé ce changement radical dans la manière de consommer. Son fondateur, Jeff Bezos, a d’une certaine façon mis en œuvre et en ligne le Whole Earth Catalogue des libertariens des années 1970, sorte de bible des idées originales et des outils innovants, avec des prix et des noms de distributeurs. Après avoir perdu de l’argent pendant des années, en commençant par vendre des livres, Amazon a fini par en gagner beaucoup. En 2023, l’entreprise était la 4e capitalisation mondiale avec 1800 milliards de dollars (4 fois le géant du luxe LVMH, 13 fois la compagnie Total Énergie, 16 fois l’avionneur Airbus). À noter que les 3 premières capitalisations avant Amazon étaient alors les trois pionniers et géants de l’internet de l’époque : Microsoft (Bill Gates), Apple (Steve Jobs) et Alphabet (Google). Le nombre de références chez Amazon (articles différents disponibles sur la plateforme) était de 150 millions ; le commerce de détails résistait bien cependant, et en cette même année 2023, le commerce en ligne ne représentait, étonnamment, que 19 % du total mondial.
De manière concomitante, les moyens de paiement ont évolué à leur tour : la carte bleue, d’abord, inventée par le Français Roland Moreno, les applications bancaires reliées aux capteurs sur téléphone ensuite, ont remplacé le chèque et les espèces. Je me souviens que Papa pestait contre cette disparition de l’argent liquide, sans doute parce qu’il travaillait parfois « au black », mais aussi parce qu’il voyait dans cette dépendance à un appareil, à un algorithme, à un identifiant et à un code, une perte de liberté supplémentaire. Il a résisté longtemps : jusqu’en 2030, il a toujours gardé quelques pièces de monnaie dans sa poche, et il avait toujours au moins 40 € en billets dans son portefeuille :
– C’est la liberté, tu comprends ? D’offrir, de partager, d’essayer quelque chose. Quand on a la chance de ne pas être pauvre, il faut toujours avoir un peu de fric sur soi.
Les grands acteurs numériques ont initié un nouveau modèle économique : la gratuité du service en échange de l’exploitation des données personnelles (se rapprochant par là du principe des administrations). Disposer d’informations fines sur l’identité des internautes, leurs goûts, leur culture, leurs habitudes, permettait en effet aux plateformes de vendre cher des emplacements précis aux annonceurs en vue de publicités très ciblées. C’est ainsi qu’en 2017, le numérique (pour près des 2/3 Google et Facebook) est passé devant la télévision pour le montant des investissements publicitaires mondiaux (il va de soi que, jusqu’à sa disparition, la télévision n’a jamais retrouvé sa place de numéro 1 qu’elle avait à la fin du XXe et encore au début du XXIe siècles). Un slogan fit florès pour résumer ce nouveau modèle économique des grandes plateformes numériques : « Si c’est gratuit, c’est que vous êtes le produit ».
Pour qualifier ces géants de l’internet, on a parlé des GAFAM (Google, Apple, Facebook, Amazon et Microsoft), tous américains. La Chine, demeurée une dictature communiste, mais ayant pratiqué un capitalisme débridé dans les échanges internationaux, symbolisé par son entrée à l’Organisation Mondiale du Commerce en 2001, a réussi non pas à égaler mais à approcher les Américains, avec ce qu’on a appelé les BATX (pour les groupes Baïdu, Alibaba, Tencent, Xiaomi), auxquels on pourrait ajouter le téléphoniste Huawei. Ces entreprises chinoises n’attiraient guère de clients autres que Chinois, mais d’un point de vue technologique, les Chinois se sont mis à talonner les États-Unis à partir de 2015, affichant comme ambition de devenir la première puissance économique mondiale en 2049, pour le centenaire de la République Populaire : objectif non atteint, nous en reparlerons.
B – Le phénomène des réseaux dits sociaux
Née en 2000, j’ai bien sûr grandi avec les réseaux sociaux et je me souviens à la fois des réticences et de l’émerveillement de mes parents quand les premiers sont apparus, les uns après les autres :
– Facebook, créé en 2006 par un étudiant de Harvard, Mark Zuckerberg, qui voulait noter le physique des filles. Facebook inventa un bouton numérique démoniaque : le like. Malgré toutes les critiques en termes de contenus et de captations des données personnelles, 3 milliards d’individus (sur 8) restaient fidèles à Facebook en 2024. Avec 17 milliards de visites mensuelles, c’était le 3e site le plus visité au monde après Google et Youtube ;
– Twitter, créé en 2006 également (devenu X en 2023), par Jack Dorsey, racheté en 2022 par le créateur de Tesla et Space X Elon Musk, 330 millions d’utilisateurs en 2024, basé sur le principe d’un texte court renvoyant à un lien d’une part, à une communauté thématique d’autre part (le fameux hashtag). Autant Facebook était le réseau de M. et Mme Tout-le-Monde, autant Twitter-X était essentiellement utilisé par les journalistes et les politiques ;
– WhatsApp, créé en 2009, messagerie instantanée imaginée par deux anciens du moteur de recherche Yahoo, devenue indispensable, surtout dans le cadre des échanges internationaux avant l’avènement du gouvernement mondial. WhatsApp suppléait alors aux SMS des opérateurs nationaux (il y avait 4 de ces opérateurs dans la France de mon enfance, Orange, SFR, Bouygues Télécom et Free). WhatsApp comptait 2 milliards d’utilisateurs en 2024 ;
– Instagram, créé en 2010 par Kevin Systrom, étudiant à Stanford, réseau qui a consacré la victoire de l’image sur le texte, le premier qui a concurrencé Facebook, avant que Mark Zuckerberg, conscient du danger, sorte le milliard de dollars nécessaire en 2012 (une peccadille) pour l’intégrer à sa galaxie (qui deviendrait Meta en 2021) et porter son audience à 2 milliards douze ans plus tard ;
– Snapchat, créé par d’autres étudiants de Stanford en 2011, a été l’inventeur du message qui s’auto-détruit et des filtres sur les photos. Ça pouvait paraître futile, ça l’était, mais ça marchait. Beaucoup copiée par les autres réseaux pour ses effets spéciaux, l’application séduisait encore 750 millions de jeunes en 2024 ;
– TikTok, créé en 2016… en Chine par Zhang Yiming (entreprise ByteDance). Premier et longtemps seul réseau chinois capable de concurrencer les Américains à l’échelle mondiale. 1,2 milliard d’accros en 2024, dont j’ai fait partie je l’avoue. TikTok a bâti son succès avec des vidéos très courtes plein écran, que l’on pouvait personnaliser et partager à volonté. On se filmait beaucoup… Tout ça parait dérisoire aujourd’hui, mais il faut se replacer dans le contexte. Je crois que les gens découvraient leur corps en fait, j’en parlerai plus longuement dans le chapitre suivant.
Tels étaient les seigneurs de la communication numérique dans le premier quart du XXIe siècle. De tels chiffres – c’est plus de la moitié des humains qui passaient par eux pour se parler, mais aussi pour se distraire et s’informer – ne furent pas sans conséquences majeures sur la manière d’être au monde, que l’on pourrait peut-être lister ainsi :
– les réseaux sociaux 1ère génération laissaient croire aux individus que tout ce qui était publié avait la même valeur. Ce n’était plus la compétence qui importait, mais la capacité à produire un discours intéressant et original. On a parlé d’« ultracrépidarianisme », comportement consistant à donner son avis sur des sujets pour lesquels on n’a aucune compétence ;
– les réseaux sociaux rendaient les individus dépendants des réactions à leurs publications. Terrible fut le besoin de reconnaissance à cette époque, et donc terribles furent les frustrations qui découlèrent de la non-reconnaissance de ceux qui y aspiraient avidement ;
– les réseaux ont supprimé l’appréciation d’un moment pour ce qu’il était. Ce qui comptait, ce n’était plus de voir ou de faire, mais de montrer qu’on avait vu ou qu’on avait fait ;
– les réseaux favorisaient les comportements grégaires et le conformisme. Il y eut un paradoxe étonnant : alors que chacun.e visait à l’originalité, un mimétisme certain se développa chez les fous du like. Parmi les postures les plus courantes, on retrouvait : l’indigné systématique, le rebelle subventionné, l’adepte des valeurs simples ;
– les réseaux mettaient en valeur les outrances, du coup faussaient l’état de l’opinion. Non seulement les personnes les plus extrémistes étaient les plus actives sur les réseaux sociaux, mais en plus les algorithmes – dont le fonctionnement resta longtemps opaque, mais dont quelques mécanismes furent dévoilés par des lanceurs d’alerte – mettaient en avant les contenus les plus excessifs et polémiques, les plus aptes à déclencher des émotions fortes ;
– les réseaux sociaux étaient les principaux propagateurs d’infox. Même si, sous les pressions de la Commission de l’Union Européenne et des parlementaires américains, ils ont fait un effort pour retirer les messages trompeurs, violents ou pornographiques, beaucoup d’épouvantables vidéos arrivaient à passer et à perturber les individus ;
– les réseaux ont habitué les internautes à la violence et à la médiocrité. Ils ont remis en cause la civilisation, au sens que lui donnait le philosophe Norbert Élias : « la baisse de la tolérance à la violence ». Les réseaux ont au contraire augmenté la tolérance à la violence. L’essayiste Sue Halpern, citée par le sociologue Bruno Patino, parlait même d’une « normalisation de la déviance » ;
– les réseaux sociaux de la première génération ont fait disparaître la raison au profit de l’émotion. La raison distingue la réalité, elle permet donc la liberté, tandis que l’émotion entraine la morale et la contrainte. Le philosophe Bernard Stiegler parlait en 2019 de l’avènement d’un « capitalisme pulsionnel ».
C’est bien sûr le smartphone, omniscient et omnipotent, devenu l’« objet total » à partir de 2007, qui fut l’outil de ces consommations et communications débridées.
C – Addiction, attention (perte de l’), disparition (de la vérité)
Les possibilités nouvelles offertes par le numérique étaient telles que les outils ne modifièrent pas que les comportements ; ils changèrent les individus eux-mêmes, et pas dans un sens favorable, entre 2000 et 2050.
Le phénomène le plus rapide, le plus spectaculaire, le plus inquiétant fut l’addiction aux écrans, aux vibrations et aux notifications, qui prit une ampleur telle que l’alcool, la cigarette et même la cocaïne, problèmes importants issus du XXe siècle, apparaissent avec le recul comme d’aimables divertissements. De 2010 à 2050, des centaines de millions de personnes, jeunes et moins jeunes, n’ont plus marché, parlé, écouté, pensé, que la tête baissée sur leur écran. Non seulement ces drogués aux stimulis numériques, néfastes et inutiles, sont devenus totalement dépendants, mais en plus ils ont perdu le sens de l’effort intellectuel, la volonté d’apprendre, la capacité de mémorisation. L’externalisation de la mémoire, sur des puces, des disques durs, des clouds, puis les premiers apports de l’intelligence artificielle, ont sans conteste réduit les facultés cognitives des humains.
Sur ce point de savoir si l’on est devenus moins intelligents avec l’arrivée d’internet, quelques spécialistes apportaient, au moment où l’on séparait encore intelligences humaine et artificielle, des éclairages intéressants.
A priori, chaque découverte se nourrit de la précédente ; elle apporte plus de compréhension, et l’intelligence progresse donc au fil du temps. Pourtant, Gerald Crabtree, professeur à Stanford, affirmait que nous étions sur le déclin : « Si un citoyen moyen de l’Athènes de 1000 avant Jésus-Christ apparaissait parmi nous, il ou elle serait parmi les plus brillants et les plus intelligents, avec une bonne mémoire, un large éventail d’idées et une vision claire sur les questions importantes… Je ferais le même pari pour les anciens habitants d’Afrique, d’Asie, d’Inde ou des Amériques d’il y a 2000 à 6000 ans ».
Selon lui, nous serions moins performants en raison de nos efforts moindres pour survivre et des « mutations délétères dans le génome ». Il y aurait ainsi une évolution logique : agriculture –> sédentarisation –> recherche de confort et de sécurité –> baisse de l’intelligence. « La sélection s’est alors focalisée sur la résistance aux maladies engendrées par l’urbanisation, pas sur l’intelligence ».
Sur une échelle plus réduite, certains chercheurs ont mesuré que, après une augmentation continue de l’intelligence générale au XXe siècle (liée à l’alimentation et à l’éducation), on est passé à une stagnation voire à une régression au XXIe siècle. On a ainsi mesuré un arrêt de « l’effet Flynn » (du nom du chercheur qui avait montré la progression au XXe) dans les pays industrialisés. La baisse a été mesurée au Royaume-Uni, au Danemark, en Suisse, en Norvège, ainsi qu’en France, où l’on serait passé d’un Q.I. moyen de 101,1 en 1999 à 98 en 2016 (contre 108 à Singapour et Hong-Kong).
Les causes de cette baisse de Q.I. seraient génétiques (les femmes éduquées ont moins d’enfants, les bataillons les plus nombreux sont donc issus de mères moins dotées), environnementales (malbouffe, pollution), et donc sociales (abêtissement lié aux délégations que nous avons accordées au numérique et aux contenus qu’il nous imposait en retour).
Outre l’abêtissement, l’addiction au numérique a entraîné la saturation des cerveaux. En permanence parasité par des sons et des images qu’il s’infligeait à lui-même, Sapiens 2.0 ne parvenait plus à se concentrer. En 2030, il avait un mal fou à garder son attention focalisée sur un sujet plus de quelques minutes, quelques secondes pour les plus atteints. C’est pourquoi certaines activités ont progressivement disparu : à la fin du premier quart du XXIe siècle, l’observation (70 % des habitants de la terre ne prenaient plus le temps de regarder une fleur, un relief, une personne, une scène qu’ils ne connaissaient pas), la réflexion (75 % de ces habitants étaient incapables de la moindre analyse d’une situation, même très simple, sans s’appuyer sur les synthèses proposées par les IA), la lecture (80% des habitants de la terre ne lisaient plus en dehors des messages d’accompagnement des images envoyées par leurs objets connectés).
Du coup, capter l’attention d’un individu devint extrêmement difficile, surtout si l’on ne bénéficiait d’aucune notoriété et/ou si l’on n’avait aucun moyen de coercition sur le public visé. Les cerveaux saturés ne pouvaient plus absorber, ne voulaient même plus essayer. Alors les élèves rêvassaient, les interlocuteurs tendaient une oreille paresseuse entre deux consultations d’écran, les gens ne s’écoutaient plus que le temps d’entendre le mot qui permettait de rebondir et de reprendre la parole. Chacun monologuait dans sa bulle en regardant défiler des images ineptes, tout en faisant semblant de s’intéresser à l’autre.
Je me souviens des trésors d’imagination que devaient employer mes profs de collège et de lycée, avec des résultats pour le moins mitigés, afin de nous intéresser à leur matière, qui pourtant nous était utile. Il faut avouer que certains camarades de classe semblaient des cas désespérés, totalement déboussolés dès qu’on les privait quelques minutes de leur scroll perpétuel.
Mais les effets secondaires de la révolution numérique ne s’arrêtèrent pas là.
Le plus grave pourrait être résumé en deux mots : disparition de la vérité. Puisque les informations apparaissaient dans les moteurs en fonction de leur popularité, un ignorant sachant se mettre en valeur obtenait plus de visibilité, donc pour beaucoup de gens plus de crédit, qu’un savant modeste et discret. Or, pour être vu, mieux valait être extrême, clivant, polémique. Assez naturellement, l’aspiration à la célébrité étant telle au début du XXIe siècle, de nombreux internautes se sont mis à écrire, montrer, poster, dans le seul but de provoquer ce qu’on a appelé du « buzz » (c’est-à-dire des clics, des approbations, des désapprobations, des commentaires, des reprises, des échanges…), peu leur importait si ce qu’ils publiaient était vrai ou pas.
C’est ainsi que les « fake news » envahirent la toile. Ce n’était pas si grave quand elles provenaient de quidams sans relais ; cela le devint davantage quand des personnes influentes (journalistes, politiques, artistes…) se mirent elles aussi à ne plus tenir compte de la vérité, cherchant uniquement le buzz, pour la gloire ou tout simplement pour déstabiliser, pour faire avancer un intérêt particulier quitte à démolir l’intérêt général.
Des millions de personnes, déjà bien amoindries par des décennies de télévision d’abord, d’écrans numériques ensuite, se mirent à croire à peu près n’importe quoi, dans des proportions effarantes. Dans plusieurs pays occidentaux de l’époque, 9 % de la population se persuadaient que la terre était plate. En France en 2024, selon l’Autorité de régulation de la communication audiovisuelle et numérique, 60 % des habitants adhéraient au moins à une des grandes théories du complot (thèses affirmant qu’un événement marquant, aux causes établies, a en fait été provoqué par un pouvoir politique dans le but de renforcer son emprise). Ainsi, selon ces adeptes, les attentats du 11 septembre 2001 ont été fomentés par la C.I.A. afin de donner un prétexte aux États-Unis pour intervenir au Moyen-Orient ; le vaccin contre le covid 19 était un moyen d’injecter des puces 5G afin de contrôler les personnes vaccinées, ou, variante, pour les rendre dépendantes à un produit vendu par les grands laboratoires ; les juifs étaient bien sûr tous reliés entre eux pour se partager les postes et les richesses ; même le massacre de 1200 civils par le groupe terroriste Hamas, le 7 octobre 2023, était considéré comme une invention pour justifier l’intervention armée qui a suivi dans la bande de Gaza. Etc.
Le pays qui a atteint des sommets pour la diffusion de fausses nouvelles dans un but stabilisateur à l’intérieur, déstabilisateur à l’extérieur, fut la Russie de Vladimir Poutine. Jamais une tyrannie n’avait autant manié le mensonge que celle-ci. En interne, toutes les informations diffusées par la propagande d’État, écoles comprises, n’étaient que des récits détournés de la réalité pour réécrire l’histoire et le présent du pays. En 2025, il était impossible pour un Russe enfant ou adulte d’avoir une vision juste des rapports de forces dans le monde. Massacres quotidiens en Ukraine, mais aussi position de l’OTAN, situation dans les démocraties européennes ou opinion des Américains : tout était déformé par le régime fasciste de Poutine afin de faire croire aux habitants que la Russie, gardienne de la pureté originelle et des valeurs traditionnelles, était assiégée par les Européens dépravés et les Américains expansionnistes (s’ils savaient, les pauvres Russes, combien les Américains se fichaient de leur pays). En dehors des frontières, les services de renseignements anglais et français estimaient, en 2025 encore, que plus de la moitié des fake news visant à déstabiliser les démocraties – en montant en épingle toutes les oppositions aux pouvoirs à coups de vidéos truquées sur les réseaux ou de financements d’actions violentes – pouvaient être attribuées à des groupuscules contrôlés par le Kremlin.
Il y eut bien quelques tentatives, gouvernementales ou intellectuelles, pour combattre cette mise en sourdine de la vérité. À cet égard, le Digital Services Act de l’Union Européenne, entré en vigueur en février 2024, fut un exemple méritoire de cette lutte contre la manipulation et la désinformation. Mais l’encadrement, la transparence et l’autorégulation exigés des grandes plateformes étaient trop timides afin de contenir la viralité des publications dévastatrices pour l’équilibre des individus, donc des sociétés. De leurs côtés, les quelques médias encore honnêtes tentaient de vérifier les affirmations qui arrivaient jusqu’à eux, mais cela n’empêchait pas le mal de se répandre. En raison notamment du principe dit d’« asymétrie des idioties », également appelé « loi de Brandolini » qui stipule que la quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur (qui serait d’au moins X 10) à celle nécessaire pour les produire. Il est ainsi très difficile de contrer une fausse affirmation une fois qu’elle a été propagée ; le premier qui parvient à se faire entendre prend un avantage déterminant.
Ainsi, cette information libérée grâce à l’internet et aux outils numériques, cette information omniprésente, reprise, commentée, qui aurait dû être un facteur d’éveil et de démocratisation, a entraîné l’inverse : l’abrutissement et la violence.
D – Complexification, fausse différentiation, mondialisation
Ce qui me frappe encore, quand j’examine le début du XXIe siècle avec 75 ans de recul, c’est l’incroyable complexité des relations entre les citoyens et les administrations. Il n’est pas étonnant que nombre de personnes, âgées mais pas seulement, aient complètement décroché et cessé de remplir leurs obligations sociales, fiscales, économiques… Assez vite, le passage par le numérique est devenu obligatoire (pour déclarer ses impôts, s’abonner à un service de chauffage et d’électricité, payer des taxes ou des factures…). Or, les interfaces des plateformes publiques étaient si mal conçues que si vous n’aviez pas une certaine « intuition », si vous n’arriviez pas à comprendre la logique du concepteur, vous étiez bloqué.e. En outre, nombre de situations individuelles n’entraient dans aucune case prédéfinie ! Dans les années 2020, si vous n’aviez pas le bon profil, vous étiez purement et simplement empêché.e d’accomplir vos obligations, et donc pénalisé.e en conséquence !
Le paradoxe était terrible : internet était potentiellement un outil formidable de simplification de l’existence, pourtant beaucoup de démarches de la vie courante étaient plus compliquées qu’au XXe siècle ! Pour se mettre en règle, pour acheter, pour recevoir, pour se soigner, il fallait désormais posséder une adresse mail, se connecter à une plateforme en ligne, remplir des formulaires, constituer un dossier, choisir un identifiant et un mot de passe, s’en souvenir, « renseigner » régulièrement des informations qui devaient être mises à jour… Et prier pour que vous ne fussiez pas exclu.e du système en raison d’une situation professionnelle ou administrative un peu originale. Les sites avaient été lancés trop vite, sans vérifications suffisantes, par des fonctionnaires ignorants, ou méprisants, de nombreuses réalités sociales.
C’était si compliqué que le temps des travailleurs sociaux devint presque exclusivement consacré à aider les personnes en situation d’« illectronisme ». Il fallut de plus multiplier les guichets publics, de type maisons France Services (2700 en 2024), afin que les habitants d’un secteur puissent bénéficier d’une assistance pour l’accomplissement de leurs démarches de base. Le populisme violent des années 2020, les guerres civiles des années 2030, trouvent une partie de leurs racines dans cette exclusion numérique dévastatrice.
Tout le monde n’étant pas exclu, loin de là, on s’est beaucoup alarmé, pendant la première moitié du siècle, de la diffusion des données personnelles. Rien qu’en naviguant sur des sites de vente en ligne, ou en publiant sur des réseaux sociaux, on laissait d’innombrables traces de ses passages et de précieux renseignements, pour ceux qui savaient les exploiter, sur nos préférences, nos goûts, nos envies… Cela ne semble plus un problème aujourd’hui, mais il faut se souvenir qu’on distinguait encore à l’époque vie publique et vie privée. On considérait que les éléments les plus importants de notre personnalité (sentiments, désirs, ambitions, opinions…) devaient pouvoir rester secrets si on le souhaitait. Comme cela paraît loin, illusoire…
Peut-être que chacun.e se pensait encore original.e, différent.e, et tenait plus ou moins à préserver cette différence. Mais on retrouve là encore un paradoxe : les outils numériques étaient susceptibles de favoriser la créativité, donc l’originalité, pourtant c’est au contraire vers l’uniformisation que l’on a tendu. Une uniformisation cependant niée, masquée : alors que les modes de vie d’un habitant d’Alger, de Tokyo, de Tel Aviv ou de Stockholm se ressemblaient en bien des points, chaque entité géographique (ville, province, État) mettait en avant ses particularités, s’enorgueillissant de ce qui la distinguait en termes de paysages, patrimoine, culture et traditions… Le tourisme est un bon exemple de cette fausse différentiation : tandis que, augmentation des niveaux de vie aidant, il devenait un phénomène mondial et qu’un touriste allemand recherchait à peu près la même chose qu’un touriste chinois, les offices petits et grands rivalisaient d’ingénuité pour vanter les spécificités des lieux qu’ils promouvaient.
Au niveau individuel, cette fausse différentiation fonctionnait à plein. Sur les réseaux sociaux, chacun.e se croyait très original.e en postant les photos de son tiramisu maison, la vidéo des cabrioles de son chat ou le texte joliment calligraphié d’un proverbe inspirant, alors que tout le monde procédait de la même façon. Le langage n’était pas en reste : on croyait se distinguer en massacrant la syntaxe, alors que toutes ses relations adoptaient les mêmes « Lol, clairement, ça va pas le faire, une tuerie, carrément, trop bien… ». Jamais il n’y eut tant de perroquets qu’au début du numérique. Le comble était atteint avec les prénoms : les parents cherchaient à tout prix pour leur rejeton à venir un prénom qui fût quasi unique, s’apercevant dix ans plus tard qu’il avait été le plus attribué aux bébés nés à cette époque.
Sans conteste, la numérisation a favorisé la mondialisation, ou plutôt elle a permis une nouvelle mondialisation. Apparition de nouveaux médias, possibilité offerte à tout un chacun d’accéder et de contribuer, libération des échanges de mots, de photos, de vidéos, abolition des frontières, baisse des barrières d’espace et de temps, transmission instantanée des ordres et de l’information, développement d’une économie en ligne, possibilité de mobiliser : les ressources offertes par l’internet ont fait de tous les habitants du monde des adeptes des écrans électroniques, et, pour beaucoup, des addicts à leurs contenus. Les logiciels et les notifications étaient les mêmes à Islamabad, Pékin, Reykjavik et Singapour. Le mauvais anglais, parfois appelé globish, était utilisé par tous. Les vêtements portés, la musique écoutée, les vidéos regardées, se ressemblaient de plus en plus, quelle que soit la nationalité.
En cinquante ans, dont vingt-cinq d’applications concrètes pour l’humanité, internet et le numérique ont révolutionné le fonctionnement du monde… et de l’être humain.
Dans notre deuxième partie, nous verrons comment, dans le quart de siècle suivant, s’est déroulée la féroce bataille qui opposa les libertariens d’un côté aux régulateurs de l’autre, ceux qui considéraient qu’internet renforçait le libéralisme et ceux qui considéraient qu’il le détruisait.
Mais pour l’instant, dans un deuxième chapitre de cette première partie, essayons de voir ce qu’il est advenu de notre corps entre 2000 et 2024.
(vendredi 27 septembre : Histoire du XXIe siècle. Première partie (2000-2024) – Naissance de la post-humanité. Chapitre 2 – Le corps humain tiraillé par des injonctions contradictoires)
Je viens de relire ce texte pour réviser, comme on dit, et mieux suivre la pensée de l’auteur.
J’aimeAimé par 1 personne
Être lu, c’est bien ; relu, c’est mieux. J’espère que cette seconde lecture t’a apporté quelques éléments supplémentaires de connaissance et/ou de réflexion. Bien à toi.
J’aimeJ’aime
Aïe, je n’avais pas lu l’introduction avant de poster mon commentaire.
J’aimeAimé par 1 personne
Roubert à la conquête du futur antérieur.
Ce texte est bien documenté, l’auteur nous a habitué à cela ; il constitue une remise historique intéressante doublée d’une projection vertigineuse et passablement inquiétante.
Je m’interroge sur le parti pris de se situer à la fin du XIXème siècle. « C’était écrit » pourront se dire les lecteurs de desvies.art en 2099.
J’aimeAimé par 1 personne
wow!! 20Histoire du XXIe siècle – Première partie : 2000-2024, Naissance de la post-humanité. Chapitre 1 – La numérisation du monde
J’aimeAimé par 1 personne
Comme Jeanne, je suis admirative du travail de synthèse et comme Seb « Je me sens nettement moins c… » Enorme !!
Bravo Pierre-Yves et « courage ! » pour la suite.
Joëlle
J’aimeAimé par 1 personne
Quelke synthèse impressionnante! C’est lumineux. Et très effrayant..
J’aimeAimé par 1 personne
Waouh ! Je viens de le lire deux fois. Je me sens nettement moins c.. Maintenant faut que je retienne. Je vais relire !
J’aimeAimé par 1 personne