Aller au contenu principal
  • VIDÉOS
  • CONTACT

Pourquoi le Japon se réarme-t-il ?

Mise en contexte
Le Japon, longtemps fidèle à son pacifisme constitutionnel, se réarme face à la menace croissante de la Chine et de Kim Jung Un. Cette mutation stratégique, façonnée par une érosion sémantique subtile, redéfinit le concept de défense en le transformant en une offensive latente. Alors que l’Article 9 de la Constitution semble toujours en place, son interprétation s’est modifiée pour permettre des frappes préventives, ouvrant la voie à une militarisation discrète. Le gouvernement japonais, sous l’égide de Shinzo Abe puis Kishida, adopte des stratégies qui inversent le pacifisme en une réalité guerrière, où les missiles, vendus comme outil de défense, deviennent des armes d’attaque ciblée, dévoilant une joute sémantique inquiétante sous le vernis de légalité.

Au Japon, le traumatisme d’Hiroshima, quant à lui, se heurte désormais à la nécessité impérieuse de survie face à une Chine qui modernise son arsenal à une vitesse vertigineuse. Tokyo, longtemps réfugié derrière une constitution pacifiste et le parapluie nucléaire américain, amorce une mutation vers ce qu’on peut appeler la « contre-attaque capacitaire ». Il y a ici une logique qui vaut la peine d’être expliqué, car le passage du Japon d’un pacifisme constitutionnel rigide à une posture offensive latente ne s’est pas fait par une révolution brutale, mais par une érosion sémantique méthodique où le droit a fini par se plier à la réalité balistique de son voisinage. En fait, Tokyo n’a pas déchiré l’Article 9 de sa Constitution de 1947, il l’a simplement réinterprété jusqu’à ce que les mots « renonciation à la guerre » finissent par inclure la capacité de frapper préventivement le sol ennemi.

Cette alchimie juridique a transformé l’instrument de défense en un levier de puissance offensive tout en prétendant rester fidèle à l’esprit des Pères fondateurs imposés par MacArthur. L’hypothèse que nous suivrons est que le Japon a réussi ce tour de force par un « tour de passe-passe sémantique performatif », transformant l’impossibilité légale en une nécessité stratégique par le simple glissement des définitions.

L’Article 9 a initialement été conçu comme une pierre tombale posée sur les ambitions impériales du Japon, interdisant non seulement la guerre, mais aussi le maintien de tout « potentiel de guerre ». Pendant des décennies, cette contrainte servit de bouclier moral à une nation traumatisée par le feu atomique et soucieuse de se reconstruire sous l’aile protectrice de Washington : le pays s’était donc juré de ne jamais redevenir une menace. Pourtant, dès 1954, la création des Forces d’autodéfense (Jieitai ou JSDF)[1] marqua le premier acte de cette pièce de théâtre sémantique : le Japon ne possédait pas une « armée », mais une « force de police » lourdement armée. Cette ambiguïté initiale a permis au Japon de naviguer entre les exigences américaines de réarmement et les réticences profondes d’une population encore hantée par les spectres de 1945[2].

Ce fut sous l’ère de Shinzo Abe que la mutation sémantique s’accéléra brutalement pour atteindre un point de non-retour idéologique en 2014, par une simple décision du cabinet : le gouvernement japonais décréta que la Constitution autorisait désormais le droit à la « défense collective ». Cela signifiait que le Japon pouvait désormais intervenir militairement pour protéger un allié, même s’il n’était pas lui-même attaqué directement. On n’a pas changé pas une virgule au texte sacré ; on a simplement changé le cerveau de ceux qui le lisaient. Ce fut un acte performatif pur : le gouvernement affirma que la réalité avait changé, et la loi suivit le mouvement, annonçant la fin du « pacifisme de sens commun » au profit d’un réalisme musclé camouflé sous les oripeaux de la légalité[3].

En décembre 2022, le cabinet de Fumio Kishida franchit le Rubicon sémantique final en adoptant les nouvelles stratégies de sécurité nationale qui incluent la fameuse « capacité de contre-attaque ». Ce terme est le chef-d’œuvre de la prestidigitation linguistique nippone : il ne s’agit pas d’une attaque préventive, nous dit-on, mais d’une défense active visant à frapper les bases de missiles ennemies avant qu’un second tir ne soit effectué.

Le Japon achète désormais des missiles Tomahawk américains, des engins dont la portée n’a plus rien de défensif au sens classique du terme, ce qui permet à Tokyo de prétendre que ces armes ne sont que des extensions du bouclier, alors qu’elles constituent, dans les faits, un glaive capable d’atteindre le cœur de la Chine ou de la Corée du Nord. En somme, l’offensive est devenue la forme suprême de la défense, vidant l’Article 9 de sa substance originelle sans jamais l’avoir officiellement abrogé.


Bibliographie

  • [1] Les Forces d’autodéfense du Japon (Jieitai ou JSDF) ne sont pas, juridiquement parlant, une armée, mais une anomalie institutionnelle née des cendres de 1945 et de la paranoïa constructive de la Guerre froide. Pour comprendre ce qu’elles sont réellement, il faut les voir comme un « fantôme légal » : une force militaire qui possède l’un des budgets les plus colossaux au monde (le 3e ou 4e mondial en 2026), tout en étant officiellement dépourvue de « potentiel de guerre » selon l’Article 9 de la Constitution. C’est une puissance de feu de premier ordre enfermée dans une camisole de force sémantique.
  • [2] Samuels, R. J. (2007). Securing Japan: Tokyo’s Grand Strategy and the Future of East Asia. Cornell University Press.
  • [3] Pyle, K. B. (2007). Japan Rising: The Resurgence of Japanese Power and Purpose. PublicAffairs.

France | Québec

Nous avons érigé la Cathédrale de Turing sans réaliser que ses voûtes de silicium finiraient par occulter le ciel. Ce monument de calcul, dont Alan Turing a jeté les bases dès 1936, n’est plus un simple outil suspendu à nos volontés, mais une architecture universelle qui simule la pensée jusqu’à la remplacer. En franchissant son seuil, l’observateur contemporain est saisi par un acmé technologique, ce point de bascule où l’intelligence biologique perd son monopole face à l’auto-accélération irréversible du progrès . L’IA ne se contente plus de traiter nos données ; elle ingère le social, sature nos structures collectives et transforme nos interactions en sous-produits algorithmiques. Cet essai dissèque la mutation brutale d’une technique qui, cessant d’être un prolongement de l’humain, s’auto-génère et impose sa propre trajectoire à ceux qui l’ont forgée. Nous vivons cette schizophrénie collective décrite par Dickens : le meilleur et le pire des mondes s’y confondent, tandis que nous déléguons notre discernement à des boîtes noires dont l’opacité devient la norme souveraine.

ISBN‏ :‎ 978-2923690285 | 267 pages

Lire un aperçu de cet essai

Chapitre 2 – La cathédrale de Turing

La « Cathédrale de Turing » est une métaphore représentant l’ère de l’intelligence artificielle comme le nouveau temple de l’esprit où le silicium remplace la pierre. Elle symbolise l’acmé de la singularité technologique et l’aboutissement du système technicien, rendant hommage à Alan Turing dont la machine universelle constitue les plans de fondation de cet édifice qui dépasse désormais l’entendement humain.

Cette « Cathédrale de Turing » n’est pas le fruit d’un plan préétabli, mais celui d’une lente accrétion, une sédimentation où chaque avancée s’appuie sur les vestiges des précédentes. Sous les verrières de l’IA générative et des réseaux de neurones, l’édifice repose sur des fondations invisibles, des strates de codes anciens et de protocoles archaïques qui soutiennent encore le poids de nos systèmes bancaires ou de nos réseaux de transport. C’est une architecture de la continuité : on n’y détruit rien, on superpose, on colmate, on ajoute des arcs-boutants numériques à une structure dont la complexité finit par échapper à ses propres bâtisseurs. Nul ne possède plus le plan complet de cette nef immense ; on ne fait qu’en habiter les replis.

Dans cet espace, la technique dépasse sa fonction d’outil pour devenir l’ordonnatrice de notre réalité. On y retrouve l’aboutissement du système technicien cher à Ellul : l’IA s’y impose comme la « méthode absolument efficace en toutes choses  », une force d’organisation qui ne tolère plus de marge d’erreur ou d’alternative. Ce n’est plus nous qui ajustons l’outil à nos besoins, c’est l’infrastructure qui définit les conditions de notre efficacité. La logistique, l’énergie, les flux de données ne sont plus gérés selon une temporalité humaine, mais selon une cadence algorithmique devenue le dogme de cette cathédrale. Tout ce qui fait notre singularité — l’improvisation, la lenteur, l’hésitation — tend à être lissé pour s’insérer dans la perfection du calcul.

Pourtant, cette majesté apparente dissimule une vulnérabilité systémique. La Cathédrale de Turing est un édifice de verre, sensible au moindre déséquilibre. Parce que tout y est interconnecté, la défaillance d’un seul obscur composant peut se propager en une onde de choc imprévisible, paralysant des pans entiers de notre civilisation. Ces pannes massives que nous traversons parfois sont les rappels brutaux de la « trahison de l’outil » : plus le système est parfait dans son exécution, plus son instabilité est profonde en cas d’anomalie. Nous avons érigé une voûte splendide, mais son équilibre repose sur une interdépendance si serrée qu’elle en devient précaire.

Le triomphe de cette infrastructure réside finalement dans sa capacité à se faire oublier. Elle ne s’impose pas par la contrainte, mais par une présence devenue atmosphérique, aussi naturelle que l’air ou la lumière. La Cathédrale de Turing a fini par se confondre avec notre environnement, quadrillant nos choix, nos échanges et nos désirs avec une discrétion absolue. C’est là que se situe son acmé : ce moment où la technique n’est plus un objet que l’on regarde, mais le milieu même dans lequel nous évoluons. Nous n’habitons plus seulement le monde, nous habitons cette structure invisible qui, tout en nous portant, redéfinit silencieusement les frontières de notre liberté.

L’intelligence artificielle est une
réalité en soi qui se suffit à elle-même

Le sociologue français Jacques Ellul soulignait qu’» aussi longtemps que l’on n’aura pas étudié le phénomène technique en dehors de ses implications économiques et des problèmes de système économique ou de lutte de classe, on se condamne à ne rien comprendre de la société contemporaine[1]. » Cette injonction, qui est faite au sociologue, oblige ce dernier à une recherche de la compréhension des phénomènes dans leur singularité[2] et particulièrement lorsqu’il s’agit de technologies numériques et d’intelligence artificielle. Et c’est bien ce que nous avons l’intention de proposer au lecteur comme analyse en décortiquant cette technologie tout à fait inédite qu’est l’intelligence artificielle, c’est-à-dire la comprendre dans sa propre singularité, la comprendre pour ce qu’elle est intrinsèquement.

Afin de parvenir à cette compréhension, il faut tout d’abord revenir notre hypothèse de départ ancrée dans la pensée de Jacques Ellul pour en extensionner la portée[3] : L’intelligence artificielle est une réalité en soi qui se suffit à elle-même, autonome à l’égard de l’homme qu’elle oblige à s’aligner sur elle, modifie radicalement les objets auxquels elle s’applique sans être pour sa part modifiée par eux, parce qu’elle est la technologie obligatoirement efficace en toutes choses qui absorbe tout, même le social.

Pour Ellul, le système technicien n’est pas un simple inventaire de machines, mais une architecture globale — aérienne, bancaire, informatique, énergétique, politique, etc. — dont l’unique boussole est la recherche de la méthode absolument la plus efficace. Or, il faut se rendre à l’évidence : l’IA n’est pas un rouage de plus dans cette mécanique, elle en est l’aboutissement logique. En apprenant de façon autonome par le biais de ses réseaux de neurones artificiels, elle ne se contente plus d’exécuter des ordres ; elle s’approprie la logique du système pour s’y substituer. Elle est, par nature, la méthode absolue.

Ce basculement auquel nous assistons est total. Dès lors que l’intelligence artificielle colonise chaque sous-système et les verrouille entre eux, elle ne se contente pas d’optimiser la technique : elle devient le système lui-même. En 1988, Jacques Ellul s’interrogeait déjà sur l’instant où cette structure aveugle se doterait enfin d’un mécanisme de feed-back capable d’en piloter l’orientation et la vitesse. Trente-cinq ans plus tard, l’intelligence artificielle apporte une réponse implacable à cette interrogation. Ce n’est pas une simple évolution qui se dessine devant nos yeux, mais un renversement de l’ordre établi, car un système capable de s’autoconfigurer et d’apprendre de ses propres déploiements finit inévitablement par absorber tout ce qui lui est extérieur, jusqu’à digérer la vie sociale dans ses recoins les plus intimes.

Par exemple, l’application de cette hypothèse à l’urbanisme révèle sans doute l’aspect le plus tangible de la prédation du système technicien. Dans la ville traditionnelle, l’espace était le fruit d’une sédimentation historique, de conflits d’usage et d’une certaine part d’imprévisibilité humaine. Aujourd’hui, sous la poussée de l’IA, l’urbanisme bascule dans l’ère de la « ville intelligente » ou Smart City, où le territoire n’est plus un lieu de vie, mais un gisement de données à optimiser. Ici, l’IA ne se contente plus de gérer le trafic ou l’éclairage ; elle devient la matrice même de la cité. En connectant le sous-système des transports à celui de l’énergie, de la surveillance policière ou de la gestion des déchets, elle crée une infrastructure autorégulée qui ne tolère plus l’inefficacité. C’est ici que la thèse d’Ellul se matérialise : la ville devient un mécanisme de feed-back géant. Si un flux de population ralentit ou si une consommation d’énergie fluctue, l’IA reconfigure l’espace en temps réel, souvent au détriment de la spontanéité sociale.

L’exemple de la Ville de Québec[4], s’alliant au géant Google pour synchroniser ses feux de circulation via le projet Green Light[5], offre une illustration saisissante de cette mutation du système technicien. Ce n’est plus une simple question d’ingénierie routière, mais bien l’instauration d’une gouvernance algorithmique du territoire. Ici, l’IA ne se contente pas d’assister l’humain ; elle traite des masses de données issues de nos propres déplacements captées par nos téléphones et intégrées à Google Maps pour dicter le rythme de la cité.

Le fait que l’IA puisse ainsi proposer des ajustements de quelques secondes à peine démontre la précision chirurgicale de cette « méthode absolument efficace ». Ce qui était autrefois le domaine de l’observation empirique et de la planification rigide devient une rétroaction fluide et quasi instantanée, c’est-à-dire que le système s’autoconfigure : il détecte les goulots d’étranglement et recalibre ses propres paramètres pour assurer une fluidité sans faille. Pour justifier la mise en place d’un tel processus, on a vanté au citoyen la réduction des gaz à effet de serre et le confort de l’automobiliste. Mais derrière ce vernis de bienveillance écologique se cache l’absorption définitive de l’espace public par la logique technicienne où le citoyen, dans ce théâtre urbain, est réduit à un capteur mobile, une unité de données dont le comportement alimente la machine qui, en retour, conditionne sa trajectoire. La faisabilité technique de ce projet pilote n’est plus à prouver, elle est déjà opérationnelle, et elle confirme que l’IA est en passe de devenir le tissu conjonctif de tous les sous-systèmes urbains. Lorsque la gestion des feux, de l’énergie et de la sécurité sera totalement intégrée dans une interface unique, la ville ne sera plus qu’un vaste automate où la vie sociale, prévisible et optimisée, n’aura plus d’autre choix que de suivre le signal vert imposé par le système.

Il y a aussi, dans cette gestion par l’algorithme, l’évacuation de la dimension politique de l’urbanisme. Ici, le choix de l’aménagement n’appartient plus au citoyen ni même à l’élu, mais à la « méthode la plus efficace en toutes choses » dictée par le calcul. On assiste alors à une sorte de pétrification de la vie sociale : le système technicien, par l’entremise de l’IA, absorbe les comportements humains pour les transformer en flux prévisibles et gérables. La ville ne nous abrite plus, elle nous traite comme des variables de son propre fonctionnement.

Ces affirmations peuvent paraître excessives, et le lecteur est fondé à y voir une provocation. Pourtant, si nous nous permettons une telle dureté de ton, c’est que notre hypothèse l’exige pour être éprouvée. En ce sens, la démarche qui anime cet ouvrage ne sera donc pas une observation passive, mais une dissection méthodique. Il s’agira de démonter, pièce par pièce, les rouages de cette hypothèse afin de révéler les mécanismes profonds qui structurent le système technicien d’aujourd’hui, au moment précis où il s’apprête à refermer son emprise sur la totalité du réel.

L’autonomie technologique

L’idée de singularité technologique, telle que martelée par Ray Kurzweil, n’est pas une simple prédiction de salon, mais plutôt une prophétie qui postule une rupture radicale dans la trame de l’histoire humaine. Ce point de bascule, où l’intelligence artificielle dépasse l’entendement biologique, annonce une explosion de progrès dont les ondes de choc sociales échappent totalement à nos modèles de prévision actuels. Pour Kurzweil, ce n’est pas une intuition vaporeuse, mais le résultat mécanique de ce qu’il nomme la « Loi du retour accéléré ». Pour la formuler, il a convoqué la célèbre « Loi de Moore » afin de la tordre subtilement et l’étendre à l’ensemble de l’évolution technologique, transformant une banale observation industrielle en un dogme de l’accélération universelle. Une erreur épistémologique flagrante.

Il faut revenir à la source : en 1965, Gordon Moore, l’un des piliers d’Intel, a gravé dans le marbre que le nombre de transistors sur une puce doublerait environ tous les 18 à 24 mois. Ce n’est pas qu’une affaire de silicium, c’est une chute vertigineuse des coûts couplée à une montée en puissance exponentielle et on ne parle pas ici d’une progression linéaire, mais bien d’une courbe qui s’emballe. Cette puissance de calcul brute agit en quelque sorte comme un acide qui dissout les limites des autres disciplines. Prenez l’aviation : si on parvient aujourd’hui à concevoir des réacteurs d’une redoutable efficacité en matière de consommation de carburant, c’est parce que les calculateurs permettent de simuler des écoulements de fluides et des résistances de matériaux impossibles à modéliser autrefois. Enfin, l’argument de la Loi de Moore lui-même s’essouffle, puisqu’on arrive aux limites atomiques de la gravure sur silicium. Croire en une croissance infinie de la puissance de calcul dans un monde aux ressources finies relève plus de la foi religieuse que de la rigueur scientifique, mais on verra plus loin dans cet ouvrage qu’Elon Musk a trouvé la parade à ce problème. La singularité pourrait bien n’être que le chant du cygne d’une civilisation qui a confondu la vitesse de ses processeurs avec la direction de son destin, mais rien n’est moins certain.

L’innovation ne se contente donc plus de progresser, elle s’auto-alimente. Les microprocesseurs, toujours plus denses, permettent de concevoir des alliages composites et des structures d’une légèreté insolente, où chaque boulon et chaque revêtement est optimisé par une puissance de calcul qui n’existait pas deux ans auparavant. L’aviation, ici, n’incarne qu’un symptôme parmi d’autres de cette réaction en chaîne. En réalité, chaque saut de performance du microprocesseur injecte une dose d’adrénaline dans le moteur de l’innovation globale, créant un cycle où la machine aide à construire la machine qui la remplacera, nous rapprochant chaque jour un peu plus de cet horizon de la singularité où le contrôle humain risque de devenir un concept obsolète.

De l’autre côté, la critique de cette notion de « singularité technologique » ne se contente pas uniquement de douter de la technique : elle s’attaque directement à l’arrogance de ce déterminisme mathématique. Si Kurzweil voit une ligne droite vers l’apothéose technologique, ce moment d’acmé que connaîtra l’humanité, ses détracteurs y voient de préférence un mirage qui ignore les frottements du réel. Tout d’abord, le premier obstacle est irrévocablement d’ordre physique et biologique. La pensée n’est pas qu’un pur calcul, une suite de zéros et de uns que l’on pourrait doper à l’infini. En réduisant l’esprit humain à un traitement d’information, Kurzweil évacue par le fait même la conscience, l’émotion et l’incarnation biologique. C’est le « problème difficile » de la conscience théorisé par David Chalmers[6] : on peut simuler les connexions d’un cerveau, mais cela ne garantit en rien l’émergence d’un sujet. On risque donc de se retrouver avec des machines extrêmement performantes, mais fondamentalement « creuses », des automates sans âme qui exécutent des directives sans en saisir le sens, et pourtant, dans un chapitre subséquent, il sera démontré comment Dario Amodei, PDG de la firme Anthropic, pense la chose tout autrement.

Ensuite, il y a le mur de la complexité sociale et éthique. L’idée que le progrès technologique mène nécessairement à un mieux-être est une fable ; l’histoire avec un grand H nous en est témoins avec les grandes boucheries liées aux deux Grandes guerres mondiales du XXe siècle. L’accélération brute, sans gouvernance aucune, pourrait tout aussi bien mener à une fragmentation sociale irrémédiable. Si une élite peut s’augmenter biologiquement ou accéder à une IA omnisciente, tandis que le reste de l’humanité stagne, la singularité n’est plus, dès ce moment, une promesse de dépassement, mais un outil de ségrégation sociale radicale ; on sort de l’évolution pour entrer dans une ingénierie de caste.

En direction vers la singularité technologique

Cette bifurcation sociale ne surgit pas du néant ; elle est le point de rupture d’une trajectoire amorcée par la densification de nos outils. De notre point de vue de sociologue, la singularité technologique, qui devrait un jour survenir, est non seulement le fait de l’intelligence artificielle, mais elle est initialement le fait de la complexité technologique. L’IA n’agit ici que comme un catalyseur surpuissant : elle ne crée pas la rupture, elle l’accélère. À l’image des microprocesseurs dont la puissance démultipliée a ouvert les vannes d’innovations sectorielles, l’IA propulse la complexité vers un seuil où l’accès à la technologie ne définit plus seulement le confort, mais la nature même de l’individu et son rang dans une nouvelle hiérarchie biologique. De là, l’intelligence artificielle ne vient qu’accélérer le processus menant à la singularité technologique, tout comme des microprocesseurs de plus en plus puissants rendent possibles des innovations dans plusieurs domaines. Ce que nous voulons ici signifier, c’est que l’intelligence artificielle n’est que l’une des multiples possibilités technologiques qui auraient pu conduire ou conduira à cette singularité. En fait, si l’intelligence artificielle n’avait pas été au rendez-vous à ce moment-ci de la progression technologique, une autre technologie aurait éventuellement servi de support à cette croissance. Autrement dit, ce n’est qu’un concours de circonstances si l’intelligence artificielle se retrouve dans la position dominante actuelle. D’ailleurs, il faut bien observer comment celle-ci a évolué pour comprendre que tout n’est ici question que de contingence, c’est-à-dire qu’il était possible que l’intelligence artificielle sorte de son long hiver, mais qu’il n’était en rien nécessaire qu’elle prenne les devants de la scène technologique et corporative.

D’une part, si l’intelligence artificielle est cet accélérateur de la singularité technologique, il faut voir comment elle agit sur la complexité technologique. Ajoute-t-elle à celle-ci ? La sert-elle ? La contraint-elle ? La masque-t-elle ? D’autre part, si l’intelligence artificielle se substitue au système technicien tel que nous le connaissons aujourd’hui, c’est qu’elle aura fait en sorte de fédérer tous les composants du système technicien sous sa gouverne, parce qu’elle est définitivement la technologie absolument efficace en toutes choses.

Dans les faits, tout ce qui n’est actuellement pas technologique doit le devenir, et tout appareil, logiciel, appareil ou objet quelconque qui n’a pas encore été touché par la grâce de l’intelligence artificielle doit l’être pour le rationaliser et le transformer en un moyen absolument efficace. Tout ce qui n’est pas encore technologie doit le devenir, parce que le rôle fondamental de toute technologie est de dépouiller, de mettre au clair et de rationaliser ce qui existe déjà. Et au moment où ces lignes sont écrites, la seule technologie qui détient incontestablement cette capacité à tout transformer, c’est bien celle de l’intelligence artificielle. Et comme cette dernière s’appuie sur les techniques et méthodes du deep learning, ce n’est qu’une question de temps avant qu’elle ne s’appuie sur celles-ci pour poursuivre son inexorable développement et pousser encore plus loin, au-delà même de ce qui est aujourd’hui envisageable, des systèmes intelligents qui seront à la fois d’une absolue efficacité en tout et d’une incommensurable complexité que nul ne saurait même saisir.

Comme le soulignait Jacques Ellul, « la technique assume aujourd’hui la totalité des activités de l’homme, et pas seulement son activité productrice », parce qu’il y a l’idée que la technique libère et qu’elle « est productrice de liberté[7] ». Elle libère non seulement de certaines tâches fastidieuses, mais elle offre aussi une plus grande liberté d’action. Par exemple, se déplacer en avion sur de grandes distances, transplanter des organes pour prolonger la vie, offrir un confort tel, que vivre dans un pays nordique ne représente plus du tout un défi au quotidien, etc. Pour autant, sommes-nous aussi libres qu’on le pensait grâce à la technique ? Autre exemple : lorsque plus d’un milliard de personnes utilisent librement et sans contrainte aucune les réseaux sociaux pour créer du lien social et obtenir de la reconnaissance sociale, personne ne se rend compte qu’on est en définitive rigoureusement conditionné par cette technique incarnée dans une technologie numérique, accessible aussi bien à partir d’un ordinateur, que d’une tablette, que d’un téléphone portable et d’objets connectés. Conséquemment, ce milliard de personnes constitue en définitive une masse totalement cohérente qui agit dans un seul et même sens. Et il ne s’agit là que d’un exemple parmi bien d’autres où la technique assume l’une des activités de l’homme qui n’a, au demeurant, rien à voir avec son activité productrice et commerciale, mais tout à voir avec sa vie sociale. D’ailleurs, dès 1958, Ellul en soulignait déjà le caractère : « il faut principalement souligner le fait que la technique s’applique maintenant à des domaines qui n’ont pas grand-chose à faire avec la vie industrielle[8]. »

Cependant, il n’en reste pas moins que la machine, et à plus forte raison l’ordinateur, représente l’archétype idéal de l’application technique. En fait, utiliser un traitement de texte ou un tableur, même si la chose semble aujourd’hui banale, est une application d’une extrême efficacité technique. Autrement, quand on observe ce qui émerge — voiture autonome, algorithmes financiers intelligents, imagerie médicale intelligente, reconnaissance faciale à grande échelle en temps réel —, il faut se rendre à une autre évidence : c’est de la technique à l’état pur, c’est-à-dire la recherche de l’efficacité absolue en toutes choses. Il s’agit donc bien de puissance technique, d’un rapport à la technique telle que celle-ci cherche à tout assimiler et à fédérer sous sa tutelle.

Et les répercussions de l’intelligence artificielle vont au-delà de la simple technologie. Comme le remarquait Ellul, « dans toutes les situations où se rencontre une puissance technique, celle-ci cherche, de façon inconsciente, à éliminer tout ce qu’elle ne peut assimiler. Autrement dit, partout où nous rencontrons ce facteur, il joue nécessairement, comme son origine le prédestine, semble-t-il, à le faire, dans le sens d’une mécanisation. Il s’agit de transformer en machine tout ce qui ne l’est pas encore. On peut donc dire que la machine constitue bien un facteur décisif[9]. » En ce sens, et le meilleur exemple qui puisse être donné de cette prise de position de la part de Jacques Ellul, est bien celui de la dématérialisation, de la délocalisation et de la détemporalisation qu’imposent les technologies numériques, car elles éliminent systématiquement tout ce qui ne peut être assimilé sous leur férule. Rien ne leur échappe.

On peut alors observer le phénomène sous un angle moins frontal, mais tout aussi lucide : nous assistons à une reconfiguration brutale, presque tectonique, de nos échanges. Ce que les plateformes comme Uber ou Airbnb ont instauré, ce n’est pas seulement une nouvelle manière de se déplacer ou de se loger, c’est un basculement de paradigme qui contourne les cadres protecteurs que nous avions mis des décennies à bâtir. La transformation des services bancaires par la Blockchain[10]–[11] suit cette même logique de désintermédiation, promettant une autonomie technique qui, en réalité, fragilise les leviers de régulation traditionnels des banques centrales. En fait, le cœur du problème réside dans cet extractivisme feutré pratiqué par la Silicon Valley. En s’appropriant les interactions de milliards d’utilisateurs sans contrepartie financière, ces entreprises ont érigé un modèle de profit qui repose sur une main-d’œuvre invisible et involontaire. Les technologies numériques agissent ici comme un solvant qui dissout les frontières fiscales et sociales ; elles ne se contentent pas de déplacer la valeur, elles la rendent évanescente pour l’administration publique. En délocalisant et en dématérialisant l’impôt, ces géants du web ont placé les États devant un fait accompli, les forçant à une remise en question profonde de leurs outils de souveraineté. Ce n’est plus une simple crise de croissance, c’est l’exigence d’un nouveau contrat social face à une économie qui cherche à s’affranchir de toute attache géographique et citoyenne.

Cette offensive n’a rien d’une coïncidence ou d’un simple progrès technique linéaire ; elle est le signe d’une emprise totale. Les technologies numériques, désormais dopées par une intelligence artificielle qui s’insinue dans chaque recoin de l’activité humaine, opèrent avant tout un « immense inventaire de tout ce qui est encore utilisable, de ce qui peut être accordé avec la machine[12]. » Ce n’est plus l’outil qui s’adapte à l’homme, mais l’existence entière qui est passée au crible pour vérifier sa compatibilité avec le processeur. On nous vend de la fluidité, mais c’est un quadrillage. Si l’on accepte l’idée que « la technique intègre la machine à la société, [elle] la rend sociale et sociable[13] », il faut comprendre que cette sociabilité est celle d’un rouage. Le numérique ne crée pas de lien, il met de l’ordre, un ordre froid et implacable là où régnait autrefois le désordre fertile de l’imprévisibilité humaine. On le constate, l’optimisation du travail par des algorithmes sophistiqués n’est que la partie émergée de cette mise en fiches du monde. Ici, l’ordinateur et ses logiciels ne se contentent pas d’aider ; ils clarifient, rangent et rationalisent avec une silencieuse persévérance. Ils accomplissent « dans les domaines abstraits ce que la machine a fait dans le domaine du travail[14] », c’est-à-dire qu’ils transforment la pensée, l’administration et le droit en une chaîne de montage immatérielle. L’ordinateur est devenu le grand inquisiteur de la performance, portant partout la loi de l’efficacité comme une vérité absolue devant laquelle tout doit plier. En sanctionnant impitoyablement l’inefficacité sociale, il a rendu obsolète tout ce qui n’est pas mesurable ou immédiatement productif. Cette bascule est irréversible car « en cela, la situation de la technique est radicalement différente de celle de la machine[15]. »


[1] Ellul, J. ([1977] 2004). Le système technicien, Paris : Calmann-Lévy, réédition Le Cherche midi, p. 40.

[2] La « recherche » ici considérée comme une herméneutique sociologique.

[3] Ellul, J. ([1954] 2008). La Technique ou l’Enjeu du siècle, 3e éd. Paris : Armand Colin, p. 2.

[4] Blais, S. (2025). L’IA pour synchroniser des feux de circulation. La Presse. URL : https://www.lapresse.ca/actualites/circulation/2025-08-18/ville-de-quebec/l-ia-pour-synchroniser-des-feux-de-circulation.php.

[5] Le projet Green Light de Google est une initiative utilisant l’intelligence artificielle pour optimiser la synchronisation des feux de circulation. En analysant les données de navigation de Google Maps, le système suggère des ajustements aux ingénieurs municipaux afin de réduire les arrêts fréquents des véhicules, fluidifier le trafic et ainsi diminuer les émissions de gaz à effet de serre.

[6]  Chalmers distingue les « problèmes faciles » (mécanique du traitement de l’information) de l’expérience subjective (qualia). Selon Chalmers, augmenter la puissance de calcul ne garantit en rien l’émergence d’une conscience ; la machine pourrait rester un « zombie philosophique », simulant la pensée sans jamais la ressentir, invalidant ainsi l’idée d’une fusion spirituelle entre l’homme et l’IA.

[7] Ellul, J. (1988), op. cit., Paris : Hachette, p. 9.

[8] Ellul, J. ([1954] 2008). Op. cit., p. 2.

[9] Ellul, J. ([1958] 1990). Op. cit., p. 2.

[10] Technologie transparente et sécurisée de stockage et de transmission d’informations fonctionnant sans organe central de contrôle.

[11] Robson, D. (2016 [September]). « Rethinking Global Finance ». Wired UK, p. 56-57.

[12] Ellul, J. ([1958] 1990), op. cit., p. 3.

[13] Idem.

[14] Idem.

[15] Idem., p. 4.

France | Québec

L’Amérique n’est pas une nation qui fait la guerre ; elle est la guerre faite nation, un colosse de fer qui se drape dans le velours du messianisme pour mieux occulter une prédation vieille de deux siècles. L’Amérique ne vous bombarde pas, elle vous libère de vous-mêmes dans un élan de générosité biblique qui ressemble furieusement à un passage à tabac industriel.

Ce deuxième volet des Cahiers du Réel s’attaque au grand récit américain du « monde libre » pour révéler une hégémonie qui se vit comme un sacerdoce, ce fameux « service rendu à l’humanité » dont la facture se règle invariablement en barils de sang et en décombres fumants. Sous le vernis de la démocratie exportée se cache un ADN forgé par le combat perpétuel, une « Destinée Manifeste » qui transforme chaque invasion en un acte de charité chrétienne où le fusil du pionnier devient le sceptre de la raison. Cette violence n’est jamais vécue par Washington comme une agression vulgaire, mais comme une purification, une « régénération » nécessaire pour que le reste du monde, dans sa fange et son chaos, finisse par ressembler à un centre commercial de l’Ohio.

ISBN‏ :‎ 978-2923690230 | 261 pages

Lire un aperçu de cet essai

Chapitre 3
Le pari nucléaire

L’arme atomique, initialement conçue dans les laboratoires fiévreux de Los Alamos comme l’instrument d’une hégémonie absolue et d’une fin définitive de la boucherie par l’annihilation, n’est-elle pas devenue, par sa prolifération incontrôlée et son basculement dans une multipolarité nerveuse, le moteur principal d’une instabilité mondiale chronique ? L’hypothèse que nous soutiendrons ici est que l’atome, loin de figer l’histoire dans une Pax Americana éternelle, a engendré une fragmentation de la puissance où la dissuasion n’opère plus comme un bouclier protecteur pour le gendarme du monde, mais comme une licence d’agression asymétrique et une assurance-vie pour les régimes contestataires. Si les architectes du projet Manhattan avaient pu anticiper la dilution de leur secret, ils auraient sans doute hésité devant la boîte de Pandore qu’ils ouvraient, car l’atome a fini par paralyser la puissance même qu’il était censé sacraliser.

[Abonnez-vous pour accéder au contenu intégral de cet essai]

Le droit de vie et de mort sur les nations

Le 6 août 1945, lorsque le bombardier B-29 Enola Gay décolle de la base de Tinian dans les îles Mariannes, il transporte bien plus qu’une charge explosive ; il emporte un basculement ontologique où la science rejoint l’apocalypse pour dicter un nouvel ordre mondial. Ce fut aussi un choc sans précédent qui brisa net la résistance psychologique japonaise, Hiroshima et Nagasaki devenant les vestiges d’une victoire militaire totale que les États-Unis n’auraient sans doute jamais obtenue aussi promptement par des moyens conventionnels sans payer un tribut de sang inacceptable. Truman décida donc d’utiliser unilatéralement cette foudre nouvelle dans sa volonté de vouloir éradiquer totalement le militarisme nippon, sans compromis ni négociation, imposant ainsi l’idée que l’Amérique détenait désormais le droit régalien de vie ou de mort sur les nations. Cette décision ne visa pas seulement à clore le chapitre du Pacifique, mais agissait déjà comme une diplomatie atomique brutale destinée à pétrifier Moscou et à tracer les contours d’un siècle américain sous ombre radioactive[1].

De facto, l’utilisation de la bombe fut immédiatement perçue au sein du Pentagone naissant comme la garantie d’une victoire totale, outil capable de forcer une capitulation inconditionnelle sans que le pays n’ait à sacrifier des millions de ses fils sur les plages d’invasion de l’archipel nippon. Les États-Unis ont alors cru avoir débusqué le remède définitif aux bourbiers terrestres et aux guerres d’usure, imaginant un futur où leur seule volonté technique suffirait à maintenir l’ordre planétaire depuis la stratosphère. Cette hubris technologique a donc installé l’idée que la puissance ne se mesure plus au nombre de divisions d’infanterie, mais à la capacité de rayer une métropole de la carte en quelques secondes par une simple pression sur un bouton. Et c’est à ce moment que le Pentagone devint le centre de gestion de cette nouvelle ère, où la guerre, évacuée de sa dimension charnelle pour le soldat américain, s’est transformé en une opération logistique de destruction massive gérée par une bureaucratie de l’apocalypse.

[Abonnez-vous pour accéder au contenu intégral de cet essai]

L’impact sur l’ordre mondial fut immédiat et structurant : les Nations Unies, le système de Bretton Woods et l’OTAN naissant sous le parapluie nucléaire d’une superpuissance qui dictait désormais les règles du jeu avec la certitude de l’invincibilité. Washington a donc imposé ses valeurs libérales et son système financier de la façon la plus efficace possible, car personne n’oserait contester sérieusement le détenteur du monopole de la foudre, créant de facto une période de domination unipolaire sans partage qui semblait devoir durer l’éternité. On crut alors que la paix mondiale serait désormais garantie par la terreur sacrée de l’atome, un genre de forme de stabilité imposée par le haut où le gendarme du monde n’aurait eu qu’à montrer ses muscles nucléaires pour faire taire les velléités de conquête. Toutefois, cette période de monopole fut, somme toute, assez courte, une parenthèse enchantée de quatre ans, qui forgea durablement le logiciel politique d’une Amérique convaincue d’être la nation indispensable investie d’une mission divine de police globale. On peut ici considérer que ce passage, dès 1949, à un monde nucléaire bipolaire, provoqué par l’explosion de la première bombe soviétique surnommée RDS-1 par les services de renseignement, a transformé la dissuasion en un dialogue de sourds entre deux colosses dont les arsenaux n’allaient avoir de cesse de s’élargir jusqu’à l’absurde.

De là, la peur de la « Destruction Mutuelle Assurée » (MAD) devint le pivot central de ce que John Lewis Gaddis[2], en 1987, a qualifié de « Longue Paix », car le risque d’une apocalypse nucléaire totale verrouillait toutes les frontières européennes et empêchait toute confrontation directe entre le Kremlin et la Maison-Blanche[3]. Les deux blocs se livrèrent donc des guerres par procuration sanglantes en Asie ou en Afrique, mais n’osèrent jamais franchir la ligne rouge qui aurait entraîné l’effondrement définitif de la civilisation industrielle. Autrement dit, la dissuasion entre ces deux superpuissances a fonctionné avec une efficacité macabre, reposant sur une froide rationalité partagée entre deux acteurs qui, malgré leur haine idéologique, craignaient autant l’un que l’autre le silence des cendres.

Cependant, la fin de ce monopole binaire et l’émergence de nouvelles puissances comme le Royaume-Uni, la France, puis la Chine populaire de Mao en 1964, vinrent fissurer cette simplicité architecturale pour introduire les prémices d’une instabilité multipolaire complexe. Chaque nation chercha alors à forger son propre sanctuaire nucléaire pour ne plus dépendre de la protection incertaine d’un protecteur lointain, transformant l’atome en un symbole de souveraineté absolue et de fierté nationale indécrottable. A posteriori, cette prolifération montra que le secret technologique ne pourrait être gardé éternellement dans un coffre-fort à Washington, et que la science de la destruction totale était devenue un bien commun pour quiconque possédait les ressources industrielles et l’obstination politique nécessaires. Dès lors, l’équilibre du monde ne repose plus sur un axe unique de stabilité, mais sur une constellation de forces dont les intérêts divergeaient de plus en plus radicalement du centre impérial américain.

[Abonnez-vous pour accéder au contenu intégral de cet essai]

Les parias du nucléaire

Aujourd’hui, l’émergence de puissances considérées comme parias, à l’instar de la Corée du Nord, a prouvé qu’un pays isolé et économiquement exsangue pouvait tenir tête à l’empire américain s’il possédait seulement quelques ogives fonctionnelles : ce qui est particulièrement ironique dans les circonstances, alors que le « pygmée » défi le géant et l’oblige à la retenue nucléaire. Pour le die sans artifices, Kim Jong-un, en possédant la bombe comme une assurance-vie inattaquable pour sa dynastie, a totalement inversé la logique de la dissuasion : ce n’est plus le gendarme qui dissuade le fauteur de troubles par sa force de frappe, mais le fauteur de troubles qui paralyse le gendarme par la menace d’une frappe tactique désespérée. Auquel cas, Washington sait désormais qu’il ne risquera jamais la destruction de Los Angeles pour sauver Séoul d’un chantage nucléaire, ce qui fragiliserait d’autant toutes les alliances traditionnelles et encouragerait d’autres nations à suivre ce chemin de la sanctuarisation atomique. La Corée du Nord a ainsi brisé le mythe de l’invincibilité américaine en démontrant que l’atome est le grand égalisateur de puissance, permettant au pygmée de tenir le géant en respect.

Et c’est dans ce cadre à la limite schizophrénique que le monde multipolaire actuel est d’autant plus instable que des acteurs comme l’Iran frappent avec insistance à la porte du club nucléaire, menaçant de déclencher une réaction en chaîne incontrôlable au Moyen-Orient où l’Arabie Saoudite ou bien la Turquie pourraient réclamer leur propre bombe pour ne pas être rayées de la carte. On n’est plus dans la rationalité froide et prévisible de la Guerre froide, mais dans une ère de provocations constantes et de jeux de dupes où le risque d’erreur de calcul tactique est immense. D’un point de vue strictement géopolitique, la dissuasion devient ici tripolaire ou multipolaire, multipliant d’autant et de façon exponentielle les variables d’incertitude et rend la gestion des crises quasiment impossible par les canaux diplomatiques classiques hérités du siècle dernier. Dans les faits, et l’Histoire en a fait la démonstration, la surexpansion d’une puissance survient généralement au moment où elle doit faire face à des menaces éparpillées et nucléarisées qu’elle ne peut plus contenir par la simple projection de sa force conventionnelle.

La Chine, quant à elle, n’a pas le choix d’accélérer massivement la modernisation de son arsenal, tout en cherchant à atteindre la parité avec les États-Unis et la Russie pour affirmer son hégémonie en Asie et sécuriser ses ambitions territoriales sur Taïwan. On peut vraisemblablement supposer que cette course aux armements d’un nouveau genre montre que l’atome reste, pour Pékin, l’outil indispensable pour chasser l’influence américaine de ses eaux territoriales et imposer son propre ordre régional fondé sur la force brute. Désormais, la dissuasion n’est plus ce bouclier statique destiné à maintenir le statu quo ; elle est devenue une arme de mouvement, un levier politique agressif utilisé pour redessiner les zones d’influence au détriment de l’ordre né en 1945. Auquel cas, cette instabilité viendrait du fait que chaque nouvel acteur nucléaire réduirait mécaniquement la liberté d’action des États-Unis, forçant le gendarme au compromis amer là où il imposait autrefois sa volonté souveraine.

[Abonnez-vous pour accéder au contenu intégral de cet essai]


[1] Alperovitz, G. (1965). Atomic Diplomacy: Hiroshima and Potsdam. Simon and Schuster.

[2] Surnommé le « Doyen des historiens de la Guerre froide », Gaddis est un professeur émérite à l’université de Yale et l’une des figures les plus influentes de l’historiographie américaine contemporaine.

[3] Gaddis, J. L. (1987). The Long Peace: Inquiries into the History of the Cold War. Oxford University Press.

[4] Waltz, K. N. (1981). The Spread of Nuclear Weapons: More May Be Better. Adelphi Papers, No. 171. International Institute for Strategic Studies.

France | Québec

Le corps n’est plus une fatalité biologique, il est devenu un chantier permanent. Nous habitons une chair que nous ne nous contentons plus de subir, mais que nous redressons, mesurons et sculptons avec une ferveur qui confine à l’obsession religieuse. Cette entreprise de normalisation ne date pas d’hier. Elle s’enracine dans le regard des humanistes qui, dès la Renaissance, ont cessé de voir dans l’enveloppe humaine un simple réceptacle de l’âme pour y projeter un idéal de justes proportions. Alberti ne peignait pas des hommes, il traçait des géométries morales. Aujourd’hui, la technique a remplacé le pinceau, mais l’injonction demeure identique : il faut que le corps réponde de lui-même. Le passage du corps subi au corps piloté marque une rupture anthropologique majeure où l’individu devient l’ingénieur de sa propre matière. On ne naît plus corps, on le fabrique à coups de disciplines, de diététiques et de prothèses identitaires. C’est ici, dans cet interstice entre la biologie brute et la volonté de puissance, que se joue la véritable gouvernance de soi. Le corps est notre dernière frontière, le seul territoire que nous croyons encore pouvoir totalement coloniser. La mise en forme du corps est désormais indissociable d’une mise en forme du social. La rectitude physique devient le miroir d’une rectitude morale exigée par la modernité.

ISBN‏ :‎ 978-2923690278 | 544 pages

Lire un aperçu de cet essai

Le corps est le lieu de toutes les rencontres. Porteur d’identités sociales, il est devenu une fascinante entreprise de normalisation et de transformation. De ce simple constat, nous nous posons une question : « Comment le corps est-il devenu, au fil du temps, un objet de préservation, de réparation, d’augmentation et de transformation ? ». Pour tenter de réponde à cette question, une hypothèse : « Trois grands courants, à la Renaissance, ont construit le corps socialement acceptable d’aujourd’hui : il y a tout d’abord l’idée qu’il est possible, avec le peintre Alberti, d’aspirer à un corps de justes proportions comme idéal de beauté, avec le médecin Vésale, de réparer le corps, de le soigner efficacement, de le guérir et lui redonner vitalité, et avec l’éducateur Mercurialis, de fabriquer un corps et de le façonner en quelque sorte selon sa volonté ; ces trois courants ont ceci de particulier qu’ils traverseront toutes les époques depuis la Renaissance jusqu’à aujourd’hui, et qu’ils structureront une certaine représentation sociale du corps qui fait de ce dernier l’ultime identification à soi-même. »

Afin de confirmer, nuancer ou infirmer cette hypothèse, il importe donc d’explorer l’inscription sociale du corps à travers les époques pour mieux comprendre ses attitudes, ses comportements, ses gestes, ses postures et les interventions à déployer sur celui-ci pour le régulariser et le normaliser, le rendre conforme à certaines attentes, surtout l’amener à un certain idéal de corporéité élaboré au cours des XVe et XVIe siècles. Deux variables, donc, pour effectuer ce travail : l’individu et le collectif. D’une part, c’est au croisement de la pratique médicale, de la recherche scientifique et de l’innovation technologique que les interventions sur le corps deviennent envisageables pour chaque individu. D’autre part, c’est au croisement des discours de la pratique médicale, de la recherche scientifique et de l’innovation technologique que les interventions sur le corps deviennent socialement acceptables.

Du Moyen-Âge jusqu’au XXIe siècle, cet ouvrage tentera de relever certains phénomènes qui ont contribué de différentes façons à proposer de nouvelles représentations sociales du corps. Quelles sont ces nouvelles représentations du corps qui font de ce dernier l’ultime destination de soi et un vaste territoire où s’investissent différents acteurs intéressés par sa préservation, sa réparation, son augmentation, sa transformation et surtout sa normalisation ?

France | Québec (disponible 15 mai 2026)

L’Occident ne s’effondre pas comme un château de cartes ; il se dilate jusqu’à l’atrophie dans un vacarme de serveurs informatiques et de discours humanistes épuisés. Cet essai dissèque la trajectoire d’une civilisation qui, sous le couvert du progrès technologique, a substitué le flux à la substance et la gestion des risques à la vision politique. De la géopolitique des grands ensembles aux algorithmes qui prédisent nos angoisses sanitaires, nous ne sommes plus des citoyens, mais des variables d’ajustement au sein d’un système thermodynamique en quête d’équilibre impossible.

Le territoire n’est plus une frontière géographique mais une infrastructure numérique où se cristallisent les nouvelles inégalités sociales, plus profondes et plus invisibles que jamais. L’écologisme de salon se heurte brutalement à la réalité de l’extraction minière nécessaire à notre « dématérialisation », révélant une hypocrisie systémique que cet ouvrage refuse d’ignorer. C’est une autopsie du présent que propose Pierre Fraser, loin des lamentations nostalgiques, en pointant du doigt les points de rupture d’un modèle qui a confondu la maîtrise du monde avec sa simple exploitation technique.

ISBN‏ :‎ 978-2923690-29-2 | 544 pages

Partager :

  • Partager sur X(ouvre dans une nouvelle fenêtre) X
  • Partager sur Facebook(ouvre dans une nouvelle fenêtre) Facebook
J’aime chargement…

Chargement des commentaires…

    • Commentaire
    • Rebloguer
    • S'abonner Abonné
      • SOCIOLOGIE VISUELLE MÉDIA
      • Rejoignez 67 autres abonnés
      • Vous disposez déjà dʼun compte WordPress ? Connectez-vous maintenant.
      • SOCIOLOGIE VISUELLE MÉDIA
      • S'abonner Abonné
      • S’inscrire
      • Connexion
      • Copier lien court
      • Signaler ce contenu
      • Voir la publication dans le Lecteur
      • Gérer les abonnements
      • Réduire cette barre
    %d