Afrofuturisme

Dans A Spy in Time, l’humanité a été détruite par une supernova. Seuls ont survécu les habitants de Johannesburg, terrés dans les galeries minières creusées sous la ville. Des Noirs dans leur immense majorité. Cinq cents ans plus tard, leurs descendants ont recréé une civilisation mais vivent toujours dans la hantise d’une nouvelle apocalypse. Ils possèdent une agence de renseignement chargée de veiller à ce que cet événement traumatique ne se reproduise pas. Pour ce faire, l’agence expédie des espions dans le passé grâce à une technique de voyage dans le temps qu’elle a mis au point. Le narrateur, Enver Eleven, est l’un d’entre eux.

A Spy in Time marque une rupture dans l’œuvre de l’écrivain sud-africain Imraan Coovadia, jusqu’alors réaliste. Mais ses thèmes de prédilection, la couleur de peau et l’identité, ne sont pas loin. Derrière les pérégrinations de son héros, note le Sunday Times, Coovadia pose l’inévitable question nietzschéenne : si nous pouvions revivre notre vie, ferions-nous les choses de la même manière ? « C’est une chose quand la question concerne une personne, répond-­il, mais qu’en est-il quand il s’agit de l’histoire, et de l’histoire africaine qui plus est, avec toutes ses catastrophes ? »

Svoïatchenitsa

« Va savoir pourquoi, ça m’agaçait de présenter Olivier et Cathe­rine comme mon beauf et ma belle-sœur à ce pince-fesses de la préfecture. J’ai donc dit :
“Mme Svoïatchenitsa et son mari, des amis russes de passage.”
La qualité de leur français a beaucoup impressionné.
“Pas le moindre accent”, s’est émerveillée la préfète. »
D. P.

Svoïatchenitsa désigne en russe une sœur de l’épouse. Svoïak est le mari d’une sœur de l’épouse. La langue française n’a que « belle-sœur » ou « beau-frère », sans autre distinction.

Aidez-nous à trouver le prochain mot manquant :

Existe-t-il dans une langue un mot pour désigner le fait de s’être levé très tôt ?

 

Écrivez à

Einstein avait raison, finalement

 

Laissez-moi dire tout d’abord que je ne pardonne à personne.
Samuel Beckett

 

La mécanique quantique est le cadre le plus précis et le plus général jamais conçu pour faire des prédictions sur le comportement des systèmes physiques. A son avènement, dans les années 1920, tout le champ de la chimie s’est ­trouvé, du jour au lendemain, réduit à une appli­cation particulière des lois de la physique. Soudain aussi, on a compris la brillance des étoiles, la conduction de l’électricité ainsi que l’existence même et la stabilité des objets les plus familiers. La mécanique quantique a rendu possible le développement de quantité de technologies qui ont radicalement transformé la vie moderne. Et elle est surtout le fondement logique sur lequel repose toute la physique.
Pourtant, la conception de la réalité qu’implique la mécanique quantique fait l’objet depuis près d’un siècle de controverses qui passionnent les physiciens mais aussi les philosophes, les médias et de vastes pans de la culture contemporaine. L’histoire de ces controverses est le sujet du livre d’Adam Becker, What Is Real. La voici résumée en quelques mots : il était une fois une physique qui aspirait à proposer une description objective, littérale, réaliste, complète et mécanique de ce qu’est le monde. Et puis soudain, dans les premières décennies du XXe siècle, cette aspiration est apparue ­bizarre, naïve, dépassée, sous les assauts de découvertes déconcertantes relatives au comportement de particules ­subatomiques.
L’expérience de la double fente en est un exemple célèbre. À gauche, une source d’électrons ; au ­milieu, une plaque comportant deux fentes par lesquelles les électrons peuvent passer et qui peuvent être obturées ; à droite, un écran recouvert d’un matériau fluorescent qui s’éclaire un instant au point d’impact de l’électron. Considérons trois cas différents. Cas no 1 : on obture une des deux fentes et on laisse la source diffuser un grand nombre d’électrons. Certains vont atteindre l’écran fluorescent et y produire de petits éclairs de lumière. Ils se concentrent autour du point x1 si l’on a obturé la fente du haut et autour de x3 si l’on a obturé la fente du bas. Cas no 2 : on envoie d’abord des électrons en ne laissant ouverte que la fente du haut, puis en ne laissant ouverte que la fente du bas. On observe deux concentrations sur l’écran fluorescent, l’une autour de x1, l’autre autour de x3. Cas no 3 : on envoie une grande quantité d’électrons en laissant les deux fentes ouvertes. On s’attend à ce que la moitié environ passent par la fente du haut, l’autre moitié par la fente du bas, et à retrouver les deux concentrations autour de x1 et x3, comme dans le cas no 2.

Or, étonnamment, ce n’est pas ce qui se produit. Quand les deux fentes sont ouvertes en même temps, on a toujours deux concentrations en x1 et x3, mais on voit aussi une série de petites concentrations, qui forment des bosses et des creux, au voisinage de x2 – ce que les physiciens appellent une figure d’interférence. On pourrait supposer que le phénomène est dû à des collisions entre les électrons qui passent par la fente du haut et ceux qui passent par la fente du bas. Mais ce n’est pas le cas. On le confirme en ralentissant le flux d’électrons au point qu’à un moment donné il n’y ait plus qu’un seul électron présent dans le dispositif. En envoyant ainsi une succession d’électrons solitaires, on observe la même ­figure d’interférence.
Tout se passe comme si un électron atteignant l’écran fluorescent quand les deux fentes sont ouvertes ne passait pas par l’une des deux fentes mais par les deux. Et pourtant, si l’on fixe un détecteur d’électrons à chacune des fentes et que l’on envoie un électron dans le dispositif, on le détecte bien passant soit par la fente du haut, soit par la fente du bas. C’est comme si le seul fait de regarder, de consigner ce que produit le passage de chaque électron dans une fente, produisait à nouveau le schéma attendu des deux pics de concentration en x1 et x3, sans la figure d’interférence en x2.

Malgré l’étrangeté du phénomène, on a pu découvrir un ensemble succinct et efficace de règles qui se sont révélées extraordinairement utiles pour prédire le comportement d’électrons dans ce type de circonstances, puis extra­ordinairement utiles pour prédire le comportement de tous les systèmes physiques que nous connaissons, dans toutes les circonstances. De plus, ce phénomène d’interférence s’est lui-même révélé être bien plus qu’une simple ­curiosité. Il est absolument essentiel au fonctionnement microscopique de la nature. Sans lui, les lasers ne pourraient pas fonctionner, les métaux ne conduiraient pas l’électricité, il n’y aurait pas de combinaisons chimiques et les atomes eux-mêmes cesseraient vite d’exister. Les règles qui prédisent tout cela constituent la mécanique quantique.
Mais distinguer une vision du monde dans cet ensemble de règles pouvait paraître insurmontable. Pensons aux électrons du cas no 3. Quel chemin prennent-ils pour aller de la source à l’écran fluorescent ? On ne peut manifestement pas se dire que chaque électron passe soit par la fente du haut, soit par la fente du bas, puisque sur l’écran fluorescent nous observons autre chose que les deux seules concentrations en x1 et x3. Mais on ne peut pas non plus se dire que chaque électron passe à la fois par la fente du haut et par celle du bas, puisque les détecteurs nous disent le contraire.
Dans les années 1920, un cercle de brillants physiciens gravitant autour de Niels Bohr, à Copenhague, et constituant l’avant-garde du développement mathématique de la mécanique quantique, acquiert la conviction qu’il va falloir « revoir de fond en comble [la] façon d’aborder le problème de la réalité physique », selon les termes de Bohr. Ils sont convaincus que toute tentative de décrire ce qui « se produit réellement » dans l’expérience des deux fentes ou ce qui se produit réellement à l’intérieur des atomes aboutit inéluctablement à un paradoxe. Ce à quoi on assiste, pensent-ils, n’est rien d’autre que la découverte scientifique des limites de la science. La physique ne peut plus prétendre découvrir ce qu’est la nature. Comme l’écrit Becker, pour Bohr « la physique quantique ne nous dit rien de ce qu’est le monde […], car les objets quantiques n’existent pas de la même manière que les objets qui nous entourent ». Selon Bohr et son cercle, ce que la physique doit faire, tout ce qu’elle peut aspirer à faire, c’est formuler des prédictions sur les résultats d’expérience.
Exposer de façon détaillée cette nouvelle conception de la physique – ce qu’on appelle l’interprétation de Copen­hague – n’est pas une mince affaire. Les diverses tentatives de Bohr et de son cercle ne sont pas toujours compatibles entre elles et n’ont parfois même pas de cohérence interne. Ce qui est clair, c’est qu’ils voyaient dans la mécanique quantique une théorie universelle pouvant en principe s’appliquer à tout système physique. Mais il y avait un hic : pour appliquer l’appareil mathématique de la mécanique quantique à un système physique X donné, il faut se référer à quelque chose d’autre, quelque chose d’extérieur à X, au moyen duquel X peut être ­mesuré ou observé. Or, pour des raisons qui n’ont jamais été entièrement expliquées, selon Bohr et son cercle, cet observateur ou point d’observation extérieur doit, lui, être décrit dans le langage plus familier de la physique « classique ».
Toute application de la mécanique quantique nécessite donc de commencer par tracer une séparation entre l’objet mesuré (auquel on applique le formalisme mathématique de la mécanique quantique) de l’appareil de mesure (qui doit être traité comme relevant de la physique classique). Or le lieu matériel de cette séparation n’est nullement fixé. Il dépend de ce que l’on a choisi de considérer comme l’objet mesuré et ce que l’on a choisi de considérer comme l’appareil de mesure. On peut tracer la frontière entre un objet d’expéri­mentation subatomique et l’appareil ­expérimental macroscopique utilisé pour l’étudier, mais aussi entre ce dernier et le technicien de laboratoire qui consigne ses résultats, entre ce technicien et moi à qui il remet son rapport, voire entre mes yeux et mon cerveau. Mais il faut tracer la frontière quelque part, il faut qu’il y ait quelque chose de part et d’autre, si bien que l’idée même d’un traitement quantique de l’Univers tout entier ou de l’acte d’observation lui-même débouche nécessairement sur une contradiction dans les termes. Ou sur quelque chose de ce genre.
Car, encore une fois, les exposés que nous en avons ne s’accordent pas tous. Bohr se souciait peu de la clarté, qu’il jugeait surfaite. Il enseignait, paraît-il, à ses étudiants que clarté et vérité tendent à s’exclure mutuellement et que si une vérité simple est une proposition dont la négation est fausse, une vérité profonde est une proposition dont la néga­tion est aussi vraie. Et, visiblement, ce genre de propos fumeux lui valait de passer pour un sage.
Tout cela a fini tant bien que mal par se cristalliser pour donner une interprétation orthodoxe rigide et largement ­acceptée. Dès 1927, Werner Heisenberg et Max Born, tous deux d’éminentes ­figures du cercle de Bohr et ­futurs Prix Nobel, jugent opportun de déclarer que les idées exposées ci-dessus constituent « une théorie close, dont les postulats physiques et mathématiques de base ne peuvent plus être modifiés ». À partir de ce moment-là, on a décrété que toutes sortes de questions familières du genre « Comment ça fonctionne ? » ou « À quoi ça ressemble ? » étaient dépourvues de sens et qu’il était inutile de chercher à les creuser.

Les arguments convaincants et accablants formulés à l’encontre des idées de Bohr et de son cercle par des personnalités comme Erwin Schrödinger, David Bohm, Hugh Everett, John Bell et surtout Albert Einstein furent accueillis par du silence, des railleries, une inexplicable incompréhension ou du pur charabia. Et tout cela allait persister sous différentes formes mais avec toujours la même intensité pendant près d’un siècle.
Il apparaît pourtant en fin de compte que Bohr et son cercle s’étaient trompés. Et que tout ce qu’ils avaient jugé impossible a été réalisé. Nous disposons aujourd’hui de nombre de théories prometteuses sur ce qui se passe réellement à l’intérieur des atomes. Toutes ces théories donnent à entendre que le monde est très différent de tout ce nous avions ima­giné jusqu’ici, mais l’important en l’occurrence c’est que toutes décrivent de façon réaliste et ­exhaustive ce qu’est ­objectivement la nature, qu’il y ait ou non quelqu’un pour l’observer. Aucune de ces théories n’exige que l’on trace une frontière ou que l’on fasse une distinction entre l’objet mesuré et l’appareil de mesure ; toutes considèrent l’opération de mesure comme une interaction physique tout à fait ordinaire, comme quelque chose d’analogue à la collision entre deux entités physiques tout à fait ordinaires. Et toutes ces théories sont compatibles avec toutes les données expé­rimentales dont nous disposons.
Une façon bien connue d’exprimer ce que l’expérience des deux fentes a de si déroutant est de dire que les électrons semblent se comporter tantôt comme des ondes (qui s’amplifient et passent par les deux fentes, et dont les différentes parties peuvent interférer entre elles), tantôt comme des particules (qui restent localisées et passent soit par une fente, soit par l’autre). Et nombre de ces théories cherchent à expliquer ce comportement en décrivant l’électron comme une sorte de combinaison des deux.
Une famille de théories qui remonte à Louis de Broglie et à David Bohm veut que les électrons soient formés à la fois d’une particule et d’une onde. Les particules-­électrons, qui ont toujours une position bien précise dans l’espace et ne passent que par l’une ou l’autre des deux fentes, sont guidés dans leur parcours par une « onde pilote » qui les accompagne et se propage à travers les deux fentes. C’est l’interaction entre ­diverses composantes de ces ondes, une fois qu’elles sont passées par les deux fentes, qui fait que même des électrons traversant le dispositif un par un forment la curieuse « figure d’interférence » du cas no 3. Et c’est la perturbation méca­nique de ces ondes par les détecteurs d’électrons qui donne le sentiment que le seul fait d’observer peut faire disparaître la figure d’interférence.

Un autre ensemble de théories, dite de la « réduction du paquet d’onde », postule qu’il n’y a que des ondes, mais que ces ondes ont parfois tendance à se condenser spontanément pour former de petits amas corpusculaires qui se comportent comme des particules. Les diverses théories de cette famille font des prédictions légèrement différentes les unes des autres quant au résultat de certaines expériences, et toutes font des prédictions légèrement différentes de celles des théories de la famille de Broglie-Bohm, et les théories de ces deux familles font des prédictions légèrement différentes de celles du formalisme standard de Bohr et de son cercle.
Nous ne savons toujours pas si l’une de ces théories se révélera être la bonne et, si oui, laquelle. Nous ne le savons pas parce que les expériences qu’il faudrait mener pour en avoir le cœur net dépassent nos possibilités technologiques. Mais de plus en plus de physiciens sérieux sont convaincus qu’une telle théorie est possible et qu’on finira par la découvrir, et reprochent à ceux qui pensent qu’elle est inconcevable de manquer d’imagination.
Le livre d’Adam Becker est l’un des premiers à tenter de raconter cette histoire en prenant acte de la façon dont elle s’est terminée, c’est-à-dire en disant quel camp a eu le dessus dans la controverse sur l’interprétation de Copenhague, lequel a perdu, lequel a prétendu le contraire et comment il s’en est tiré. Il s’embrouille parfois un peu dans l’exposé des détails scientifiques et philosophiques de la querelle, mais quelques faux pas comptent peu au ­regard du service rendu. Et c’est quand il raconte l’histoire des grands esprits impliqués dans cette affaire qu’il est le plus convaincant.
Prenons par exemple Einstein. On présente habituellement son rapport à la physique quantique sous l’angle de la tragédie. Il était incontestablement le plus grand scientifique de son temps. Il avait à lui seul infirmé toutes les conceptions antérieures de l’espace et du temps pour leur substituer sa théorie de la relativité générale, l’une des idées les plus profondes et les plus belles que personne ait jamais conçues. Qui plus est, il était lui-même l’un des pionniers de la méca­nique quantique. Mais il se trompait. Il était fier et obstiné. Il n’était pas préparé à suivre la nouvelle science jusqu’à ses aboutissements. Il n’était pas disposé à croire que la nature pouvait refu­ser de se ranger à ses intuitions.
À la lecture du livre de Becker, on en conclut que cette interprétation ne tient pas debout. Si Einstein n’était pas en phase avec ses collègues physiciens, c’est que sa pensée était plus limpide que la leur et qu’il s’exprimait avec plus d’honnêteté. Il s’avère qu’Einstein a été le premier (en 1935) à mettre le doigt sur ce que la mécanique quantique avait de réellement nouveau et choquant, à ­savoir ce qu’on appelle l’« intri­cation quantique », l’idée que deux particules émises par une même source conservent une relation d’interdépendance même lorsqu’elles sont séparées par une grande distance. Mais, comme personne ne l’écoutait, cet apport essentiel – que même ses nombreux éminents biographes ont laissé passer – n’apparaît qu’aujourd’hui, plus d’un demi-siècle après sa mort.
La première théorie concurrente parfaitement au point et objectivement réaliste de la version orthodoxe de la mécanique quantique (selon laquelle un électron est à la fois une onde et une particule) date du début des années 1950. On la doit au physicien américain David Bohm. Il la propose alors qu’il vient de perdre son poste à l’université de Princeton pour avoir refusé de témoi­gner contre certains de ses collègues accusés de sympathies communistes et qu’il s’apprête à prendre le chemin de l’exil. En 1952, alors qu’il vit au Brésil, un physicien nommé Max Dresden donne une conférence sur les découvertes de Bohm à l’Institute for Advanced Study de l’université de Princeton, sans doute le plus important centre de recherche en physique théorique à l’époque. Becker rend compte des réactions, qui furent violentes : « Quelqu’un traita Bohm de “calamité publique”, un autre de “traître”, un troisième de “trotskyste”. » Le directeur de l’institut, Robert Oppenheimer, avait dit auparavant de la théorie de Bohm : « Nous considérons cela comme du déviationnisme juvénile. » Quand on lui avait demandé s’il avait lu les ­articles de Bohm, il avait répondu : « Nous n’avons pas de temps à perdre. » Lors de la conférence de Max Dresden, il prodigua ce conseil à l’assistance : « Si nous ne pouvons pas réfuter Bohm, nous devons nous mettre d’accord pour l’ignorer. »
Et c’est exactement ce qui s’est produit. Bohm avait démontré pour la première fois de façon décisive que Bohr et son cercle avaient tort. Mis à part deux ou trois objections confuses, on lui ­opposa un cruel mur de silence. Bohm était ­dévasté, il alla de pays en pays avant de se fixer au Birkbeck College, à Londres, et décida apparemment de ne plus jamais parler de sa belle théorie à quiconque. Elle resta dans l’obscu­rité jusqu’en 1964, année où le physicien irlandais John Bell se mit à l’examiner sérieusement. Il se demanda pourquoi il n’en avait jamais entendu parler et entre­prit de la rendre claire et accessible dans une série de conférences et d’articles. Mais il fallut attendre les années 1980 pour qu’une petite communauté très critiquée de physiciens, de mathématiciens et de philosophes, qui avaient appris l’existence de la théorie par Bell, s’intéresse activement aux travaux de Bohm. Sa théorie est aujourd’hui considérée comme l’une des deux ou trois plus ­importantes réa­lisations dans l’histoire de notre compréhension de la mécanique quantique.
Ce pour quoi tous ces physiciens se battaient n’est autre que l’ambition et les principes du projet de la science. L’histoire qu’on nous a racontée jusqu’ici à propos de cette controverse est que Niels Bohr et son cercle étaient l’avant-garde d’une révolution intellectuelle ­courageuse et visionnaire et que les Einstein, ­Schrödinger, Bohm et Bell, en dépit de leur incontestable génie, étaient trop timorés, étroits d’esprit ou prisonniers des modes de pensée traditionnels pour les suivre.

Il s’avère que c’était beaucoup plus compliqué que cela. On pourrait même dire, au vu de tout ce que nous avons appris entre-temps, que c’était exactement l’inverse. Ce que l’imagination scientifique a d’authentiquement et de définitivement révolutionnaire, c’est son ambition dévorante, terrifiante, sans bornes, de réduire le monde tout entier, et nous-mêmes et tous nos faits et gestes, à un vaste enchaînement de simples pressions-tractions mécaniques. C’est cela qu’on ne parvient pas à assimiler entièrement. C’est cela qui contrarie toute prétention au savoir. Bohr et son cercle se sont employés de façon éminemment conservatrice – un peu comme le Vatican trois siècles plus tôt à l’égard de Galilée – à fixer une ­limite à ce genre d’aspirations. Mais leur entreprise s’est révélée moins aisée qu’ils l’avaient imaginé.

 

— Cet article est paru dans The New York Review of Books le 19 avril 2018. Il a été traduit par Nicolas Saintonge.

Polyphonie amérindienne

Un « Indien urbain » : c’est ainsi que se définit l’écrivain américain Tommy Orange. Membre des tribus cheyenne et arapaho de l’Oklahoma, il a grandi à Oakland, en Californie. C’est là qu’il situe l’action de son premier roman, There There, dans lequel il cherche à ­décrire ce que ressentent les Amérindiens d’aujourd’hui. Orange « utilise la narration à la première, à la deuxième et à la troisième personne pour créer un roman polyphonique qui reflète l’ensemble d’un peuple », écrit Alicia Elliott dans le quotidien canadien The Globe and Mail.

Tommy Orange, note Alexandra Alter dans The New York Times, fait partie d’une nouvelle génération d’auteurs amérindiens des États-Unis et du Canada qui publient une prose et une poésie très novatrices et font voler en éclats les vieux préjugés à l’égard de la littérature et de l’identité des peuples ­autochtones.

La surveillance sous surveillance

 

Martyna Kalvaitytė est une étudiante lituanienne. Elle a été stagiaire au Cato Institute, à Washington, et au ministère lituanien de la Défense. — Cet article lui a valu de recevoir le prix Books/Sciences-Po de l’essai critique 2017 dans la catégorie « Texte en anglais ». Il a été traduit par Nicolas Saintonge.

 

En 2013, les révélations d’Edward Snowden ont mis en lumière la surveillance de masse pratiquée par les Five Eyes, l’alliance formée par les services de renseignement des États-Unis, du Royaume-Uni, du Canada, de l’Australie et de la Nouvelle-Zélande, et notamment par l’Agence de sécurité nationale américaine (NSA). Prism, Xkeyscore, Tempora ne sont que quelques-uns des programmes d’interception des communications dont le fonctionnement a été dévoilé grâce aux informations communiquées par Snowden. Ces révélations ont suscité en retour un débat planétaire sur la surveillance électronique, les atteintes aux libertés publiques qu’elle suppose et l’avenir des télécommunications numériques.
Les révélations de Snowden ont fragilisé les outils utilisés par les Five Eyes et engendré de la méfiance à l’égard des opérateurs télécoms et des fournisseurs d’accès. Elles ont aussi ­entraîné une transformation de la NSA [lire « Snowden contre le Léviathan », Books n° 60, ­décembre 2014, ainsi que notre hors-­série « Internet : pièges et maléfices », décembre 2018-janvier 2019].
Timothy Edgar a d’abord été juriste au sein de l’American Civil Liberties Union (Aclu), la principale organisation de ­défense des libertés publiques aux Etats-Unis, avant d’intégrer en 2006 la communauté du renseignement en tant que premier délégué aux libertés publiques auprès du directeur du renseignement national (ODN), qui supervise toutes les agences de renseignement américaines (1). Dans son livre Beyond Snowden, il met à profit sa connaissance intime des deux camps en présence dans le débat sur la surveillance. Edgar revient sur le statut juridique des programmes de la NSA avant les révélations de Snowden et sur ses efforts à l’époque pour mieux protéger les libertés du citoyen, et explique les réformes entreprises par la NSA à la suite de l’affaire Snowden. Après quoi il formule des recommandations sur les moyens de renforcer la protection des libertés publiques tout en rendant les moyens de surveillance plus efficaces.
Quand il était à l’Aclu, son rôle était de passer au crible les pratiques de surveillance mises en place dans le cadre de la « guerre contre le terrorisme » ­déclenchée au lendemain des attentats du 11 septembre 2001. Les activités de renseignement étant secrètes par nature, la seule façon de mettre en évidence les dangers d’abus éventuels était, écrit-il, « de recenser la myriade de moyens susceptibles au moins théoriquement d’être utilisés par l’administration pour abuser de son pouvoir ».
Mais en intégrant, en 2006, le monde fermé du renseignement, Edgar a pu se familiariser avec ces mêmes programmes de surveillance qu’il avait auparavant ­tenté d’imaginer et de dénoncer. Son rôle était de veiller à ce que la vie privée et les libertés individuelles des ressortissants américains soient protégées – ce n’était pas jugé utile pour les étrangers dans la mesure où leurs libertés sont assurées par le Pacte international relatif aux droits civils et politiques adopté par l’Assemblée générale des Nations unies en 1966. Edgar dit s’être rendu compte après coup qu’il n’avait « pas mesuré les conséquences de la surveillance globale sur la vie privée » et que la législation américaine sur la surveillance était obsolète. Elle s’inscrivait (et s’inscrit encore largement) dans une ­logique d’avant le numérique, du temps où la transmission des données se heurtait à des frontières et où l’émetteur, le récepteur et leurs positions géographiques étaient aisément identifiables.
Après avoir rappelé le contexte historique et juridique des programmes de surveillance de masse de la NSA et ­décrit les règles et les mécanismes destinés à empêcher les abus, Edgar évoque les difficultés que pose leur mise en œuvre. Ainsi de la collecte accidentelle de données de ressortissants américains en contact avec des personnes faisant l’objet d’une surveillance, ou encore de l’absence de cadre juridique de protection de la vie privée résultant du caractère obsolète des lois et de la jurisprudence. Des arrêts de la Cour suprême autorisaient en effet une surveillance de masse portant à la fois sur le contenu des communications et les métadonnées. On considérait donc que la collecte de données de masse ne constituait pas une intrusion relevant du Quatrième Amendement à la Constitution, lequel protège les citoyens contre les « perquisitions et saisies non motivées » (2). « La justice fédérale continuant d’interpréter la Constitution selon les critères de l’ère analogique, se reposer sur ses amendements pour limiter la surveillance transnationale de la NSA à l’ère numérique revenait à combattre des missiles et des drones avec des couteaux en silex et des peaux d’ours. »

Les révélations de Snowden, publiées à partir du 5 juin 2013 dans The Guardian, ont d’abord contraint la NSA à adopter une position purement défensive, en raison du secret entourant ses programmes de surveillance mais aussi du témoignage mensonger du direc­teur du renseignement national James Clapper. Auditionné par une commission d’enquête du Sénat, il avait répondu « non » à la question : « La NSA collecte-t-elle des données sur des millions ou des centaines de millions d’Américains ? » Après quoi la NSA a dû, de gré ou de force, s’engager dans une politique de transparence. Un site officiel spécifique a été mis en place en août 2013 pour présenter des documents déclassifiés relatifs aux collectes de données. Cela n’a pas suffi à rétablir la confiance : « Toutes les tentatives pour soumettre les opérations de surveillance de la NSA à un contrôle n’ont rencontré que l’indifférence du ­public », écrit Edgar.
À ce stade, le livre fait problème, car l’auteur ne se confronte pas réellement à la signification du contenu des révélations de Snowden et simplifie à l’excès les arguments des détracteurs de ces programmes de surveillance de masse, au point que l’on peut s’interroger sur sa position personnelle. « J’ai découvert que la collecte massive de données n’avait rien à voir avec ce qu’en disent les plus ardents détracteurs de la NSA – et même certains de ses défenseurs, qui affirment que tout le monde est mis sous surveillance afin de détecter ceux qui pourraient basculer dans le terrorisme. »
Au crédit de la collecte massive de données, il fait valoir qu’il est plus efficace et rapide de procéder de la sorte que d’attendre de se voir délivrer des mandats pour des cas précis, et que cela permet de continuer à suivre les cibles même quand elles changent de téléphone et d’avoir l’historique de leurs communications.
En contrepoint, on peut se référer au livre de David Lyon, directeur du Centre d’études sur la surveillance à l’université Queen’s, au Canada. Dans « La surveillance après Snowden » (3), Lyon se penche sur l’opération Co-Traveler, révélée par The Washington Post en décembre 2013. Ce programme collecte les données de géolocalisation des téléphones portables dans le but d’en déduire des habitudes de comportement et de mettre en lumière des relations entre les personnes. Combiné à d’autres outils de surveillance, il va bien au-delà de la collecte de données de masse telle que la défend Edgar et se fonde expressément sur l’approche préventive. Edgar a beau nier la valeur prédictive de l’usage des données de masse, il reconnaît le problème : « Pour dire la même chose de façon plus orwellienne, la NSA doit cibler tout le monde si elle veut être sûre de posséder des données sur quiconque pourrait à l’avenir devenir une cible. »
Edgar ironise à propos de Glenn Greenwald, le journaliste qui a recueilli les révélations de Snowden. Il résume le point de vue de Greenwald de la sorte : « Le but de la NSA est d’exercer un contrôle politique et social, d’encourager “la passivité, l’obéissance et le conformisme”. » Et rétorque : « Si tel est le cas, l’agence a franchement mal fait son boulot. » Si nous vivions dans le monde que décrivent Orwell et Greenwald, poursuit-il, jamais le documentaire Citi­zenfour, de Laura Poitras (qui retrace l’histoire de Snowden), n’aurait remporté un oscar ni les articles de Greenwald un prix Pulitzer (4).
Si l’on veut analyser l’impact des ­activités de la NSA dans une perspective orwellienne, on peut évoquer l’enquête réalisée en 2013 par PEN America, une association de défense de la liberté d’expression des auteurs. Un auteur sur six admet pratiquer l’autocensure et éviter d’écrire sur certains sujets qui pourraient lui faire courir des risques. L’autocensure s’étend à la recherche sur Internet : 16 % des auteurs ayant répondu à l’enquête ont indiqué éviter les recherches pouvant éveiller des soupçons. Par ailleurs, une étude d’Elizabeth Stoycheff, professeure de journalisme à l’université Wayne State, montre que les personnes bien informées et critiques des pratiques américaines de surveillance hésitent à exprimer leurs opinions dans un environnement hostile (5). La surveillance par la NSA aboutit donc à faire taire les opinions mino­ritaires critiques à l’égard de pratiques de l’État. Edgar peut toujours affirmer que la surveillance de la NSA est à mille lieues du modèle orwellien décrit par Greenwald, mais, pour que son propos se tienne, il ferait bien de se confronter aux exemples montrant l’effet des activités de l’agence sur la liberté d’expression. Car les récompenses attribuées à Greenwald et à Citizenfour ne suffisent pas à convaincre que ces activités sont sans effet.
Le principal intérêt de Beyond Snowden est d’offrir des pistes pour améliorer le système actuel. Edgar affiche un parti pris optimiste : « Nous pourrions ­profiter des avantages de l’ère numérique sans sacrifier notre vie privée. Il existe des solutions de rechange aux programmes qui reposent sur la collecte massive de données. » L’auteur préconise en premier lieu d’adapter le cadre juridique de la surveillance électronique au contexte numérique au lieu de s’en tenir aux règles édictées pour un contexte analogique. Pour ce faire, il propose que les experts en informatique et en surveillance soient invités à expliquer l’impact de ces ­programmes sur l’élaboration des politiques publiques. Il analyse aussi le potentiel de la cryptographie. Incorporer cette technologie dans les programmes de collecte massive de données aurait certes pour effet de ralentir et de renchérir le traitement de l’information mais permettrait de réduire les risques d’atteinte à la vie privée.
L’auteur formule enfin quelques ­recommandations concrètes. Il plaide pour moins de confidentialité. Le secret est en effet bien souvent difficile à mettre en œuvre et à assurer. Et les informations confidentielles dont la divulgation comporterait des risques pour la sécurité ­nationale sont en réalité peu nombreuses. Edgar juge aussi nécessaire de repenser la séparation des pouvoirs. Les élus du Congrès devraient pouvoir assister à des réunions d’information confidentielles à propos des programmes sur lesquels ils sont censés exercer un contrôle.

Pour tenir compte du caractère transnational de la collecte des signaux numériques, Edgar s’intéresse aussi à l’effet des politiques européennes. Il analyse de façon nuancée l’invalidation par la Cour de justice de l’Union euro­péenne de l’accord Safe Harbor (« Sphère de sécurité ») qui enca­drait le transfert de données personnelles de l’UE vers les États-Unis, au motif que les programmes de surveillance de masse américains sont incompatibles avec une protection adéquate des droits des citoyens européens. Mais il regrette que l’Union n’ait pas suffisamment agi pour préserver la vie privée de ses ­citoyens. La loi dite Investigatory Powers Act, votée au Royaume-Uni en 2016, et les lois antiterroristes adoptées en France et en Allemagne en 2017 ­témoignent de l’incapacité à traiter le sujet à l’échelle européenne. L’auteur invite dès lors l’UE à se pencher sur la question de la surveillance exercée au sein des États membres au lieu de chercher avant tout à limiter l’intrusion des services de renseignement américains.
Même si l’auteur donne souvent le sentiment de naviguer avec difficulté entre la défense des outils de surveillance et celle du respect de la vie privée, il ­atteint son but en faisant clairement ­valoir les arguments des deux parties, à une époque où la montée du nationalisme, en Europe comme aux États-Unis, rend plus nécessaire que jamais la coopération internationale.

La plume ou le micro ?

Pour bien raconter, il faut avoir quelque chose à raconter. Et, pour recueillir du matériau, pourquoi pas le journalisme ? Peut-on imaginer meilleur trou de serrure pour observer les recoins de l’âme de la société ou des individus qui la composent, et tous les petits et grands événements qui affectent nos contemporains ? La guerre, par exemple. C’est un « énorme avantage pour un écrivain d’avoir l’expérience de la guerre », assène Ernest Heming­way en professionnel des deux exercices (1). Une expérience qu’on peut acquérir comme victime ou comme militaire, mais aussi comme reporter au proche contact du « boum boum », pour ­reprendre les termes de la ­profession.

Tous les écrivains ne sont pas d’accord. Pour un Ward Just qui recon­naît que c’est le journalisme qui lui a fourni « l’engrais qui a fait pousser les plantes de [son] jardin » de romancier, combien vilipendent les « folliculaires » (Voltaire), ceux qui « trempent leur plume dans l’encre impure de l’écriture » (Dominique Fernandez), voire « ces ratés de l’écriture » (Henry de Montherlant). Même Hemingway fait la fine bouche : « Travailler pour un journal ne peut pas faire de tort à un jeune auteur, s‘il arrête à temps » (comme il l’a fait lui-même, faut-il préciser).

Quelle injustice ! Surtout aujour­d’hui, où la frontière journalisme-­littérature est de plus en plus poreuse, observe Jean-Paul Kauffmann, qui quant à lui opère de part et d’autre de cette supposée démarcation avec autant de bonheur. Sur le papier journal, sur l’écran ou sur la page d’un livre, on préfère désormais « la petite phrase légère et court ­vêtue » chère à Michel Butor, le style sec et factuel, la concision. Même chose pour le fond : « Le journalisme ne ­relève-t-il pas d’une forme de fiction ? Il ne rend pas moins compte du réel que la littérature […] Pourquoi les séparer ? » (Kauffmann, toujours (2)). Combien de romans ont d’ailleurs pris naissance dans la réalité, c’est-à-dire sur une page de journal – celle des faits ­divers, le plus souvent ? Madame ­Bovary (affaire Delamare), Le Rouge et le Noir (affaire Berthet), Anna Karé­nine (suicide de la maîtresse de M. Bibikov), pour ne s’en tenir qu’aux grands classiques du xixe siècle.

Prenant acte de cette convergence, de plus en plus d’écrivains cherchent à cumuler les attraits du roman (arc narratif et suspense, psychologies creusées, habiletés diverses) et l’ancrage dans le réel. Double gain pour le lecteur : il s’amuse et il s’instruit, en toute quiétude car, par hypothèse, tout est vrai. C’est Truman Capote qui, avec De sang-froid, a ouvert outre-­Atlantique cette voie de la long-form nonfiction, de plus en plus et de mieux en mieux fréquentée.

La littérature française n’est évidemment pas en reste (voir par exemple Emmanuel Carrère). On peut même dire qu’elle avait pris presque un siècle d’avance avec Félix Fénéon : chez lui, l’entrefilet devenait une œuvre d’art. « À Oyonnax, Mlle Cottet, 18 ans, a vitriolé M. Besnard, 25 ans. L’amour, naturellement. » (3) Allez donc faire à la fois plus concis, plus véridique et plus suggestif.

L’avenir de l’intelligence artificielle selon Yuval Noah Harari

Le mari de Hedda Gabler, Jørgen Tesman, est un historien universitaire appliqué, bien qu’un peu laborieux. Il prépare un livre dont il espère qu’il fera du bruit et qu’il lui assurera la chaire qu’il convoite, ainsi que les moyens de financer le goût de sa femme pour la vie dans la bonne société d’Oslo. Quand sa tante lui demande de quoi parlera le livre, ­Tesman répond qu’il portera sur l’artisanat dans le Brabant médiéval. « Quand je pense que tu peux écrire un livre sur un sujet pareil ! » s’exclame-t-elle (1).

Ejlert Løvborg est le rival de Tesman à l’université – et l’ancien amant de Hedda. Il a récemment publié un ouvrage qui parle de rien de moins que « l’évolution des civilisations – d’une manière générale ». L’ouvrage a été reçu avec enthousiasme. Løvborg passe chez Tesman avec dans la poche le manuscrit d’un nouveau livre sensationnel. Tesman lui demande de quoi il traite. Løvborg lui explique qu’il s’agit de « la suite ». Le premier volume retraçait l’histoire de la civilisation de ses origines à nos jours ; le suivant portera sur le futur. « Mais, mon Dieu, lance Tesman, on n’en sait rien ! ». Certes, admet Løvborg, « et pourtant, il y a des choses à en dire ». L’ouvrage, explique-t-il, parlera des « puissances culturelles du futur » et de « l’évolution des civilisations ». Tesman est stupéfait : « Je n’aurais jamais eu l’idée d’écrire des choses pareilles. » Hedda se dit que l’histoire du futur de Løvborg est allé­chante : son mari, lui, n’est qu’un ­ennuyeux « spécialiste ».

L’historien israélien Yuval Noah Harari est l’Ejlert Løvborg actuel. Son Sapiens. Une brève histoire de l’humanité est paru en anglais en 2014, après sa publication en hébreu trois ans plus tôt. Retraçant en 400 pages incisives « l’évolution des civilisations » du néolithique à nos jours, le livre est un best-seller planétaire. Il existe pour ce genre d’ouvrages un lectorat nouveau et de plus en plus fourni. Les humanités sont, dit-on, « en crise » : les étudiants s’en détournent et les monographies ne se vendent pas. De plus en plus soumis aux « forces du marché », certains historiens tentent de satisfaire la demande de « livres-qui-­expliquent-tout », au risque de subir le regard ­désapprobateur de leurs confrères. Ils sont encouragés par les ­récentes incitations à produire des études portant sur la longue durée. Dans The History Manifesto (2), les historiens Jo Guldi et David Armitage s’inquiètent : en consacrant des recherches à des micro-­événements, les historiens s’exclu­raient des débats politiques et culturels brûlants (à propos du changement climatique, de la production durable, de la gouvernance internationale, etc.), dans lesquels une perspective de longue durée serait précieuse. La signification d’un événement au niveau local devrait céder la place à une perspective historique globale. Les « grandes histoires » n’étaient pas rares à l’époque d’Ibsen. Mais, au milieu du XXe siècle, les démarches comme celle de Løvborg en étaient venues à sembler ridicules. La tendance est peut-être à nouveau en train de s’inverser aujourd’hui.

Le dernier chapitre de Sapiens évoquait l’évolution probable de l’humanité. Harari l’a étoffé pour en faire le cœur d’Homo deus. Comme il l’explique, notre espèce a déjà accompli de grandes choses. D’autres bien plus grandes ­encore, qu’on ne peut imaginer, sont probablement à venir. Il y a des raisons de se réjouir. Autrefois, on accep­tait l’âge de 70 ans comme l’horizon de la vie dont nous avait fait don le ciel ; on se disait qu’il n’y avait pas grand-chose à faire pour prévenir ou vaincre les épidémies ; on voyait dans la pauvreté et la famine des coups du sort ou la malédiction divine ; on pensait que la guerre était dans la nature des choses ; et on croyait que le bonheur était une affaire de chance. Maintenant, dit ­Harari, tous ces problèmes apparaissent comme ­autant de projets à gérer, des questions qui relèvent de la volonté politique et ne sont pas limitées par nos lacunes ou par la technique. Nous sommes devenus les maîtres de notre destin. La notion même de « destin » devrait d’ailleurs être repensée comme un programme d’action. C’est tout le sens de l’« anthropocène », comme nous qualifions l’ère qui est la nôtre : notre espèce, Homo sapiens, joue désormais un rôle déterminant dans la création des conditions naturelles de son existence. Il fut un temps où les dieux se jouaient de nous. À l’avenir, « nous allons chercher à hisser les hommes au rang de dieux, à transformer Homo sapiens en Homo deus. »

 

Il y a une centaine d’années, les prédictions des historiens étaient dictées par leur conception des lois du changement : les principes accessibles à la raison qui expliquaient les événements du passé et rendaient possible de prédire l’avenir. L’histoire providentielle (qui invoquait le dessein de Dieu dans les affaires des hommes) avait ­cessé de faire autorité au XVIIIe siècle, remplacée aux XIXe et XXe siècles par des schémas laïcs : la conception progressiste de l’histoire attachée à la doctrine whig ; la loi des trois étapes successives de l’histoire de l’humanité développée par Auguste Comte (l’étape théologique laissant place à l’étape ­métaphysique puis au ­positivisme, ou âge scientifique) ; le récit de l’évolution des civilisations (du mythe à la science) offert par des anthro­pologues comme Edward Burnett Tylor, Lewis Henry Morgan et James George Frazer ; le rôle déterminant de la lutte des classes dans le marxisme ; les théories du « défi environnemental et de la riposte » [challenge and response] d’auteurs allant de Montesquieu à ­Arnold Toynbee en passant par Thomas Malthus ; les contraintes de la sélection identifiées par les tenants du darwinisme social.

Le titre de l’ouvrage de Herbert Butterfield, « L’interprétation whig de l’histoire » (1931) est aujourd’hui géné­ralement utilisé comme un raccourci pour mettre en garde contre toutes les théories historiques tenant le progrès pour inévitable. Mais le livre était en réalité essentiellement une condamnation iconoclaste de ce que Butterfield appelait l’« histoire générale », c’est-à-dire toute tentative de réduire le changement aux mécanismes d’un « processus historique » ­identifiable.

Chez Harari, ni le passé ni les ­futurs qu’il imagine n’ont à voir avec de quelconques processus immanents qui auraient force de loi : pour lui, c’est l’appa­rition spontanée de la science et de la technique – des innovations sorties de l’esprit d’une élite technicienne visionnaire – qui mène la danse. Nulle histoire sociale « vue d’en bas » ici : l’histoire est « souvent façonnée par des petits groupes de visionnaires tournés vers l’avenir plutôt que par les masses tournées vers le passé. » Les révo­lutions dans la lutte contre les bactéries patho­gènes et la production de vaccins anti­viraux ont beaucoup ­réduit la mortalité, et ­Harari assure qu’en 2050 « la médecine saura traiter [les germes qui apparaissent] plus efficacement qu’aujourd’hui ». Si nous ne parvenons pas à faire face à de nouvelles souches de grippe ou à la prolifération de ­microbes résistants, ce ne sera pas parce que le problème est insurmontable ou que la science ne peut y répondre, mais par manque de volonté politique ou de mobilisation adéquate des ressources. Nous pouvons avoir bon espoir que l’espérance de vie va continuer à croître : « Au XXe siècle, celle-ci a presque doublé pour passer de quarante à soixante-dix ans ; au XXIe siècle, nous devrions au moins pouvoir la doubler encore et atteindre cent cinquante ans », écrit-il.

 

Les craintes de Yuval Noah Harari

Voilà pour la bonne nouvelle. La mauvaise n’est pas ce qu’on pourrait imaginer. Le changement climatique, l’effondrement écologique et la menace réitérée d’une guerre nucléaire sont rapi­dement évoqués. (Sur le réchauf­fement : « Il nous faudra faire mieux. » Sur le désastre écologique : « Nous pourrions amoindrir le danger en ralentissant le rythme du progrès et de la croissance. » Quant aux armes nucléaires, elles ont contraint les superpuissances « à trouver d’autres moyens pacifiques de résoudre les conflits ».) Les craintes de Harari ne portent pas tant sur l’anéantissement de l’espèce que sur sa transformation. Là encore, la science et la technologie seront déter­minantes. Homo sapiens cessera peut-être d’exister. Non que la Terre sera devenue inhabitable ou que ­Donald Trump ou Kim Jong-un auront ­appuyé sur le bouton nucléaire. Mais nous ­serons devenus des êtres d’un genre nouveau : notre corps, notre esprit, notre relation à l’environnement et aux appa­reils mécaniques auront été radi­calement transformés. Notre capacité de savoir et de faire a toujours dépendu de nos outils. Mais ces outils ont désormais le potentiel de transformer ce qu’être humain veut dire. De nouveaux outils feront partie intégrante de notre corps : nous serons dotés de mains, de pieds et d’yeux bioniques ; des nano­robots patrouilleront dans nos veines à la recherche de maladies et répareront les dégâts du temps et les blessures ; des dispositifs portables ou implantables décupleront nos facultés sensorielles et modifieront notre humeur ; des dispositifs biologiques infiltreront nos cellules, réécriront nos gènes et nous doteront d’une peau, de sang et de neurones neufs et de meilleure qualité.

Là réside la principale menace pour Homos sapiens : la technologie censée nous « hisser » au rang de dieux pourrait modifier dans le même temps les facultés humaines. Harari est prompt à répéter ici les leçons du matérialisme scientifique de l’époque victorienne. Quoi qu’en dise la légende religieuse, nous n’avons rien de spécial au sein du règne animal : notre âme n’est pas immortelle ; il n’existe pas par essence de « moi » humain ; nos pensées et nos émotions sont le produit d’impulsions électrochimiques qui peuvent, en principe, être modélisés par ces règles formelles d’analyse des problèmes que nous appe­lons algorithmes ; notre enve­loppe charnelle et nos capacités intellectuelles ont évolué au fil du temps, et rien n’est figé dans notre « nature ». La seule chose que l’on puisse prédire avec certitude à propos de la nature humaine est qu’elle va changer. En nous rapprochant de plus en plus des machines, nous nous rapprocherons de plus en plus des dieux, à mesure que les capacités des premières ressembleront à celles des seconds. Telle est la prédiction de Harari.

L’avenir de l’humanité est entre les mains de techniciens experts en biotechnologies, en intelligence artificielle, en sciences ­cognitives et en informatique.
C’est un fait, affirme Yuval Noah Harari : les « derniers jours » d’Homo sapiens « appro­chent à vue d’œil ». Sauf catastrophe imprévisible, notre espèce sera remplacée par « des êtres entièrement nouveaux qui posséderont non seulement un physique différent, mais aussi un univers intellectuel et psychologique très différent ». La version actuelle ­d’Homo ­sapiens sera de trop au regard des ­besoins économiques et militaires. Les guerres seront menées par des drones, le travail accompli par des robots : « Tôt ou tard, prédisent certains économistes, les humains non augmentés deviendront totalement inutiles. » Les algorithmes inscrits dans le silicium et le métal remplaceront les algorithmes inscrits dans la chair, qui, nous rappelle Harari, sont ce à quoi la biologie et la science informatique nous réduisent de toute façon. Dans le jargon de la Silicon Valley, les êtres humains désormais inutiles ne sont que des « marionnettes de chair ». De nouvelles formes de vie vont apparaître, lesquelles briseront la chaîne qui – ­depuis les orga­nismes unicellulaires jusqu’à Homo sapiens – a fait dépendre la vie de composés exclusivement orga­niques. Harari voit dans tout cela le signe d’un grand « découplage » entre l’intelligence et la conscience. ­Découplage annoncé par les avancées de l’intelligence ­artificielle.

L’intelligence des ordinateurs a fait d’immenses progrès au cours des dernières décennies. Mais aucunement leur conscience, constate Harari. On constate aujourd’hui de fortes disparités dans l’utilité pratique et la valeur marchande des différents types de capacités mentales. Si l’on s’en tient à l’économie politique, « l’intelligence est obligatoire, la conscience optionnelle ». Les humains cesseront d’être des agents ; leur autorité sera remplacée par des ­algorithmes, au départ écrits par des êtres humains, à terme par des ­machines. Confrontée aux nouvelles technologies « posthumanistes », la société libérale s’effondrera. Nous ne pourrons plus penser l’individu libre de ses actes et de ses jugements comme fondement de l’ordre social ­libéral : « Nous – ou nos héritiers – aurons probablement besoin d’un tout nouveau package de croyances religieuses et d’institutions politiques. »

La religion nouvelle sera le dataïsme. Les frontières entre animaux, machines et systèmes sociaux seront abolies : tous deviendront des systèmes de traitement algorithmique de l’infor­mation. Les notions de bien et de mal seront supplantées par la valeur suprême qu’est le flux d’informations. Le « système cosmique de traitement des données » sera pareil à Dieu, omniprésent et omni­scient, sage et tout-puissant. « Il sera partout et contrôlera tout, et les êtres humains sont destinés à se fondre en lui. » Nous vénérerons l’Information et chérirons les Données.

Harari ne sait pas très bien le temps qu’il nous reste avant que l’Information prenne le pouvoir (il énonce certaines de ses prédictions pour le milieu de ce siècle, d’autres pour le suivant). Il ne sait pas non plus si des membres de l’espèce humaine telle qu’elle existe en ce début de XXIe siècle existeront dans le nouveau monde. Pour autant que je puisse en juger, nous connaîtrons une phase de transition avant que le système de l’Information n’absorbe tout un chacun dans le trou noir créé par ses concepteurs humains. La richesse sera concentrée entre les mains de la « minus­cule élite qui possède les algo­rithmes tout-puissants ». Certains d’entre nous deviendront des sortes de dieux : des membres d’une espèce nouvelle, Homo deus, « une petite élite de sur­hommes améliorés » assez intelligents et riches pour contrôler pendant un temps le savoir qui régit le reste de l’humanité et maîtriser les ressources néces­saires à leur propre transformation par le biais d’outils intellectuels et de prothèses biologiques. « À terme, nous serons tous morts », disait Keynes. Si certaines des plus grandes ambitions des prophètes de la vie éternelle devenaient réalité, il faudrait reformuler la phrase de la sorte : « À terme, la plupart d’entre nous seront morts. »

 

Les êtres humains « non améliorés », Nibelungen d’un nouveau genre, erreront, désemparés, dans l’ombre de l’élite « améliorée », leurs biens ayant été préemptés par des néo-Siegfried, les ­cyborgs sachant manier les algorithmes. Il faudra nourrir et entretenir les masses (Harari ne va pas jusqu’à imaginer que les superhumains accepteront la logique d’une solution finale). Mais ni la race des maîtres, ni les rési­dus de l’humanité passée ne trouveront de but ou de sens à leur triste vie : « Les gens ont besoin de faire quelque chose, sous peine de ­devenir fous. » À quoi occu­peront-ils leurs journées ? Découvriront-ils les joies de l’art ? Probablement pas : les « masses inutiles » trouveront sans doute la satisfaction qu’ils pourront dans la consommation, les drogues, les jeux ­vidéo et les mondes de la réalité virtuelle, qui leur procureront « bien plus d’excitation et d’intensité émotionnelle que la glauque réalité extérieure ».

Une sacrée histoire, racontée avec style et peps ! Le succès de l’auteur tient beaucoup à sa capa­cité à amuser, à ses bons mots : « Le sucre est devenu plus dangereux que la poudre à canon » ; « Épicure avait apparemment mis le doigt sur quelque chose : il n’est pas si facile d’être heureux » ; « le yang et le yin de la moder­nité sont la raison et l’émotion » ; « Dieu semble de retour. Mais c’est un mirage. Dieu est mort : c’est juste qu’il faut du temps pour se débar­rasser du corps. » Homo deus se veut ­didactique et même prophétique, mais, malgré l’avenir dystopique qu’il décrit, sa lecture est divertissante. ­Cependant, des questions reviennent sans cesse à l’esprit : qui peut prédire l’avenir ? Comment le prédire ? ­Comment évaluer la qualité des ­prédictions ?

Les historiens universitaires actuels n’aiment pas en règle générale aborder l’avenir : la plupart estiment que ce n’est pas leur boulot. Ils ne sont pourtant pas les plus mal placés pour le faire. Beaucoup en connaissent un rayon sur les futurs du passé : l’histoire des utopies et des dystopies ; les récits d’ascension, de déclin et de chute ; les fins du monde, les mondes sans fin, les mondes de demain ; toutes sortes de ­futurs imaginaires. Les historiens savent aussi que tous ces futurs ont mal anticipé ce qui allait réellement advenir. Il n’est pas un présent qui n’imagine l’avenir, et la ­façon dont l’ont fait les présents du ­passé nous en dit long sur eux. Certaines prédictions extrapolent les tendances d’un passé connu à un futur inconnu. Là aussi, les historiens savent bien décrire ces tendances. Ces extrapolations ne sont ni plus ni moins bonnes que d’autres modes de prédiction. Sauf information contraire et avérée, la météo de demain ressemblera à celle d’aujourd’hui ; l’an prochain, il fera plus froid l’hiver que l’automne ; le temps qu’il faut pour ­courir un marathon continuera de dimi­nuer ; le coût des microprocesseurs et des cellules photo­voltaïques baissera. Des prévisions de ce genre ne sont pas certaines, mais elles ne sont pas ­mauvaises.

 

Ce qui ne peut être imaginé ne peut être prédit

Cela dit, certaines extrapolations à partir de tendances historiques se sont révélées erronées. L’électricité n’est pas devenue « trop bon marché pour que cela vaille la peine d’en relever la consommation » grâce aux centrales ­nucléaires, comme on nous le prédisait de longue date (3) ; les traitements contre le cancer se sont considérablement améliorés, mais, en dépit de décennies de lutte contre la maladie, elle reste l’une des principales causes de mortalité ; quant aux systèmes de missiles antibalistiques efficaces, ils demeurent un rêve excessivement onéreux. La loi de Moore, qui prédit que le nombre de transistors sur les puces double tous les deux ans, s’est confirmée pendant des décennies mais pourrait toucher à sa fin. Les prévisions de Malthus concernant la productivité agricole se sont révélées erronées. Les paris du milieu du XXe siècle sur l’augmentation de la ­vitesse dans le transport aérien, la déma­térialisation des documents, la colonisation de l’espace, l’inéluctabilité de la guerre nucléaire ou bien la fin de toute forme de guerre n’ont – jusqu’à présent – pas été remportés. (Les prédictions devraient avoir une date de péremption.) Les extra­polations de Harari sur l’accroissement de la vie ­humaine pourraient être tout aussi fragiles.

Il y a d’autres difficultés encore à prédire l’avenir. L’une d’elles tient à l’inadéquation entre la fiabilité des prévisions et l’imprévisibilité des inno­vations scientifiques et technologiques. H. G. Wells avait anticipé l’invention d’une sorte de bombe atomique et beaucoup d’autres avaient vu venir des versions de l’avion ou du sous-­marin. Le personnage de bande dessinée Dick Tracy portait à son poignet un émetteur-­récepteur radio, ce qui, lorsque nous étions enfants, nous semblait de l’invention pure et simple. Mais personne n’avait prévu des innovations qui ont changé le monde telles que la réaction en chaîne par polymérase (la technique de duplication de l’ADN qui est au cœur de l’industrie des biotechnologies), l’ordinateur personnel omni­présent ou Internet. Prédire l’avenir est déjà suffisamment compliqué, mais, lorsqu’on fait à ce point dépendre les prévisions de sciences et de technologies émergentes, cela devient impossible. On sous-estime aussi, ce faisant, le choc des vraies nouveautés. Ce qui ne peut être imaginé ne peut être prédit.

Un problème tient enfin à la nature récursive de certaines prévisions, dont le résultat n’est en réalité pas étranger à la prévision elle-même. Il existe des prophéties autoréalisatrices : si les gens pensent que certaines choses peuvent arriver, ou vont arriver, ils sont susceptibles d’y consacrer des ressources et de coordonner leurs efforts pour les faire advenir. Dans le cas de la loi de Moore, on pourrait dire que l’augmentation de la puissance de calcul est autant le produit de compétences techniques que d’une prophétie autoréalisatrice : l’augmentation du nombre des semiconducteurs s’est maintenue à un rythme qui « vérifiait la loi » en partie parce que les experts avaient la conviction que de telles choses pouvaient se produire et que cette conviction a permis de ­mobiliser des ressources.

Il existe aussi des prophéties autodestructrices. Si l’on estime, par exemple, que les systèmes automatisés sont sûrs, on risque d’oublier de prendre des précautions et d’être vigilant, et donc de rendre ces systèmes dangereux. Si l’on pense à l’inverse que des immeubles peuvent être à la merci des séismes, ou que les centrales nucléaires sont par nature dangereuses, on prendra peut-être des mesures pour s’assurer de leur intégrité, les rendant ainsi plus sûrs.

Quelle confiance accorder aux prévisions de Harari ? Quelle confiance leur accorde-t-il, lui ? Certains peuvent en déduire, en suivant la logique de la prophétie autodestructrice, que l’on mettra un terme aux technologies ­incontrôlables. Mais l’auteur n’y croit pas. D’abord, on n’en sait pas suffisamment – sur la portée des nouvelles technologies, le cours de leur développement probable ou leurs conséquences – pour décider de « donner un coup de frein ». Ensuite, quand bien même on en saurait assez, le « capitalisme » nous interdirait d’appuyer sur la pédale de frein : un ralentissement du progrès technologique ferait s’effondrer l’économie « en même temps que notre ­société ». (Harari reconnaît là pour une fois, indirectement, que l’accélération de l’innovation technologique est liée à un ordre politique donné.) Quelques pages plus loin, il admet cependant que le futur dystopique qu’il prédit pourra peut-être, après tout, être évité : « Précisément parce que nous avons le choix concernant l’usage des nouvelles technologies, mieux vaut comprendre ce qui se passe et décider avant qu’elles ne décident pour nous. » Peut-être ­est-ce Harari lui-même qui a besoin de se décider.

 

Le futur qu’il envisage rejoint en grande partie celui des oracles de la Silicon Valley. Oracles qui, pour beaucoup, s’en font les supporteurs ­enthousiastes ; quelques-uns seulement s’inquiètent d’une catastrophe engendrée par la technologie. En 2000, ­l’informaticien Bill Joy, à l’époque ­directeur scientifique de Sun Microsystems, ­expliquait dans un ­article du magazine Wired inti­tulé « Pourquoi le futur n’a pas besoin de nous » que les machines vont non seulement supplanter l’intelligence et le travail humains, mais ­aussi usurper notre pouvoir. « Les ­espèces biologiques ne survivent presque ­jamais lorsqu’elles sont confrontées à des concurrents ­supérieurs », écrivait Bill Joy. Et Homo ­sapiens n’y parviendra pas davantage dans la lutte pour la vie qui l’oppo­sera aux machines que les humains ont créées. Les humains biologiques se verront « évincés », et le génie géné­tique pourrait bien transformer la nature humaine elle-même. « Je suis attaché à mon corps comme tout le monde, affirmait à peu près à la même époque un autre célèbre informaticien, ­Danny Hillis, mais, si je peux vivre jusqu’à 200 ans avec un corps en silicium, je prend le corps en silicium. » Bill Gates, Steve Wozniak – le cofondateur d’Apple – et Stephen Hawking ont exprimé ­depuis des craintes semblables à celles de Joy. Si la vision de Harari semble plausible, c’est peut-être parce qu’elle nous est familière : on nous avait prévenus.

On peut toutefois trouver une preuve plus directe de sa vraisemblance. Je vis à proximité du Massachusetts Institute of Technology (MIT). Quand je retrouve un ami pour déjeuner dans le quartier, je passe devant des avant-postes de Google et de Microsoft ; devant de grands centres de recherche publics et privés, en biomédecine et en ingénierie, en séquençage du ­génome ou en bio-informatique, en biologie de synthèse, en intelligence artificielle et en robotique. Des cathédrales du dataïsme, des usines à algo­rithmes, des ateliers de production de futurs posthumains. Mais, avant d’y arriver, je passe aussi devant des gens qui dorment sur des cartons et des « inutiles » affamés qui font la manche. Des gens trop pauvres pour s’acheter des appareils de réalité virtuelle. Ce que semble désormais réclamer le marché, c’est un futur imaginaire suffisamment exotique pour être excitant, mais suffisamment familier pour être crédible. Homo deus offre exactement cela.

 

— Cet article est paru dans la London Review of Books le 13 juillet 2017. Il a été traduit par Delphine Veaudor.

Ces tyrans qui prennent la plume

Dictateur, un job à plein temps ? Pas forcément, à en juger par le nombre de despotes qui ont trouvé le temps de prendre la plume et de faire couler non seulement le sang mais des flots d’encre. Certaines de leurs œuvres ont même rivalisé avec les textes divins, du point de vue de leurs tirages comme de leurs conséquences pour l’humanité.

Naguère, le dictateur-écrivain était mieux vu que le dictateur tout court (voir Frédéric le Grand). À l’ère moderne ce serait presque l’inverse. Lénine, Staline, Hitler, Mussolini, Atatürk, Salazar, Franco, Mao mais ­aussi Enver Hoxha, Fidel Castro, Leonid Brejnev, presque tous les tyrans d’Asie centrale, Nasser, Kadhafi, Ceaucescu, Saddam Hussein : ils ont tous multiplié ouvrages théoriques et Mémoires.

Leur production est souvent phénoménale. Les œuvres complètes de Lénine totalisent 55 volumes et celles de Staline 68, le record toutes catégories confondues appar­tenant sans doute à Kim Il-sung et Kim Jong-il : à leur crédit, 4 000 volumes pour le père et 1 500 pour le fils, touchant à tous les sujets, de la philosophie au cinéma, de la fabrication du tofu à l’éducation des masses (plus ou moins 3 millions de morts à eux deux).

Comment expliquer cet attrait pour la chose littéraire ? D’abord, beaucoup de dictateurs ont débuté comme intellectuels, voire comme écrivains (Mussolini avait publié des nouvelles, une biographie de Napoléon, un roman ; Hitler se présentait sur son CV comme auteur). Certains étaient aussi de grands lecteurs : Hitler possédait 16 000 livres, Atatürk en a lu 4 000 au cours de sa vie, Castro dévorait les classiques et Mao fut bibliothécaire puis libraire.

Presque tous les dictateurs, à ­défaut d’être arrivés au pouvoir à l’aide de leurs livres, ont quand même considéré qu’ils devaient se munir d’une dorure littéraire ou philosophique, quitte à se la procurer artificiellement. Cet amour de l’écrit est paradoxal, car c’est en général par la magie du verbe qu’ils conquièrent le pouvoir. Pourquoi, une fois en place, semblent-ils donc convaincus que seuls les mots couchés sur le ­papier peuvent les y maintenir ? C’est pourtant bien le cas, notam­ment dans le monde communiste où règne, comme en science, le principe du ­publish or perish. ­Lénine disait que la littérature « doit devenir un élément de la cause générale du prolétariat », et beaucoup de ses imitateurs, marxistes ou autres, ont élaboré leur doctrine plume à la main, le papier leur offrant l’opportunité d’une diffusion tous azimuts.

Les tyrans plus portés naturellement sur la parole que sur l’écrit, ou plus paresseux, ont souvent eu recours à une solution intermédiaire, la publication de leurs discours. C’est le cas d’Atatürk, de Fidel Castro ou de Mao. Hélas, comme avait osé l’écrire un critique d’Hitler, « quelle déception que de retrouver sur le papier les paroles d’un orateur reconnu ». Le Führer avait comme ­devancé le coup et amorcé, dans le corps même de Mein Kampf, un violent dénigrement de l’écriture, déclarant qu’« un brillant orateur ­écrira toujours mieux qu’un brillant écrivain ne parlera », et que l’écriture n’est pas la meilleure façon, ni la plus courageuse, d’interagir avec le Volk.

Autre paradoxe : comment, lorsqu’on est arrivé au pouvoir en expo­sant par écrit une doctrine, s’en distancier si elle se révèle ensuite inadéquate voire dangereuse ? Ce problème a ­pourri la vie de Mussolini, « devenu l’otage de sa propre pro­pagande, qui ne lui laissait plus aucune marge de manœuvre », écrit le journaliste écossais Daniel Kalder dans Dictator Literature. Le Duce, qui, c’est vrai, se positionnait dans ses premiers écrits comme anticlérical et ­rebelle, a dû beaucoup rétropédaler pour se transformer en défenseur autoritaire de la patrie et de l’autel. D’autres ont eu recours à une technique moins noble mais plus efficace : l’enfilage de platitudes qui n’insultent ni n’engagent l’avenir, et la multiplication de termes creux facilement réversibles, en quête perpétuelle de cette quadrature du cercle : « Faire preuve de ­génie sans ­jamais rien énoncer de significatif », pour reprendre les termes de Kalder.

Et que dire, sur le plan qualitatif, de la prose dictatoriale ? Elle est le plus souvent turgide, pesante, pontifiante, confuse, ennuyeuse ; celle d’Hitler regorge de fautes d’orthographe et d’erreurs de syntaxe. Pour la deuxième édition de Mein Kampf, il faudra apporter 2 294 corrections ! Les textes dictatoriaux sont également truffés de violences verbales voire de grossièretés – contre les déviationnistes (Lénine), les révisionnistes (Mao), les provocateurs (Mussolini), les juifs et autres « propagateurs de syphilis ­morale » (Hitler), les francs-­maçons (Franco) ; quant à Staline, il emploie (ou fait employer) le mot « combat » pas moins de 327 fois dans Histoire du parti communiste bolchevik de l’URSS. En ­revanche, peu d’émotions (sincères) et de sexe, sauf un petit peu chez Mussolini ou Saddam Hussein. Mais comment s’étonner du caractère impersonnel de ces récits, souvent produits de façon quasi industrielle par des nègres, voire des équipes entières de nègres ? À ceux-ci la tâche ingrate de confectionner des Mémoires authentiques à partir du plus indigent des matériaux, comme le journal de Brejnev, digne de ­celui de Louis XVI : « 16 mai 1976 : n’ai été nulle part ; n’ai appelé personne ; personne n’a appelé non plus ; le matin, rasé, lavé les cheveux ; un peu marché ; regardé la télé – l’armée contre le Spartak (les gars ont bien joué). » Mussolini confesse n’avoir « jamais pu venir à bout de cet illisible pavé de Mein Kampf » et Trotski dénie à Staline la paternité du texte Le Marxisme et la question nationale et coloniale car l’ouvrage « n’est pas suffisamment médiocre ».

Mais qu’importent les critiques – les dictateurs-auteurs n’ont jamais aucun problème de diffusion de leurs œuvres : ils en rendent la lecture obligatoire, même s’il faut parfois payer (Mein Kampf, Le Petit livre rouge). L’ancien président du Turkménistan Saparmourat Niazov employait une méthode plus originale : pour passer le permis de conduire dans son pays, il fallait avoir lu le Ruhnama, sa diatribe politico-­mystique.

Chez certains dictateurs, ce n’est pas la littérature qui est au service de la politique mais l’inverse, ­dirait-on. On trouve parmi eux des poètes – Staline (à ses débuts), Mao (tout au long de sa vie), Salazar (spécialisé dans les odes à sa patrie portugaise) –, mais surtout des romanciers, qui publient de façon anonyme (Saddam Hussein signe : « Par son auteur ») ou sous pseudonyme, comme Franco (même si le sien, Jaime de Andrade, est un secret de poli­chinelle). Leur production n’est pas forcément lamentable. La Maîtresse du cardinal, de Mussolini, est « un roman tout à fait lisible », décrète ainsi Daniel Kalder. Le roman de Franco, « Race », n’est guère folichon, mais pas aussi inquiétant ni aussi déplorable que le titre pourrait le laisser croire. Quant à la poésie de Mao, « elle n’est ni aussi bonne que la peinture de Churchill, ni aussi mauvaise que celle d’Hitler », selon l’un de ses traducteurs. On en vient à regretter que certains despotes n’aient pas sacrifié la politique à la littérature et troqué la casquette de dictateur pour le bonnet d’écrivain. Saddam, qui s’était lancé sur le tard dans l’écriture de romans d’amour (Zabiba et le roi, « Le château fort », « Les hommes et la ville », « Hors d’ici, maudits ! »), était passionné au point d’en négli­ger ses devoirs. Même si le résultat est d’une lecture éprouvante, ses sujets-lecteurs auraient certainement gagné au change.

Debussy le délicat

Debussy est la quintessence de la musique française. J’entends par là que les qualités essentielles de sa musique, non seulement sa délicatesse sensuelle mais aussi son aversion pour […] les paroxysmes orgiaques de la musique allemande de la fin du xixe siècle, comme chez Wagner et Strauss, sont aussi considérées aujour­d’hui comme des qualités essentiellement “françaises”. » Voilà ce qu’écrit le jeune compositeur et chef d’orchestre américain Matthew Aucoin dans The New York Review of Books, à l’occasion du centenaire de la mort de Debussy (1918) et de la parution du livre du musicologue anglais Stephen Walsh Debussy: A painter in Sound.

Comme en contrepoint venait le centième anniversaire de la naissance de Leonard Bernstein, une sorte de « photographie en négatif de Debussy », écrit Aucoin. Ce dernier incarnait « le raffinement indolent de la France fin de siècle, Bernstein l’impétueuse et assourdissante extraversion de l’Amérique du milieu du siècle suivant ». Mais, alors que l’anniversaire de Bernstein a donné lieu à « plus de 4 500 événements sur six continents », comme le dit un communiqué de presse, ­celui de Debussy est resté des plus discrets – avec tout de même la parution de deux coffrets de ses œuvres complètes, l’un édité par Deutsche Grammophon, l’autre par Warner Classics. Si l’introverti Debussy s’était vu propulsé par une campagne de communication aux quatre coins du monde, ajoute Aucoin, « il se ­serait replié en position fœtale ». Alors même que sa musique occupe « une position centrale dans le répertoire classique », tandis que celle de Bernstein apparaît « aussi peu consistante que jamais ».

Debussy « a apporté au monde une nouvelle forme de beauté », souligne pour sa part le musicologue américain Alex Ross dans un long article du New Yorker. Il y décortique savamment la musique du Français, en prenant pour point de ­départ les premières notes « éthérées » du Prélude à l’Après-midi d’un faune, morceau dont Pierre Boulez faisait l’acte de naissance de la « musique moderne ». ­Debussy a exercé une « vaste influence, non seulement sur les vagues successives des modernistes du xxe siècle, mais sur le jazz, la chanson populaire et Hollywood. Quand à la fois le sévère Boulez et le suave Duke Ellington vous citent en précurseur, c’est bien que vous avez fait quelque chose de singulier ».

Ce « singulier » tient d’abord à sa détermination à « nager délibérément et obstinément à contre-courant », selon Aucoin, en l’occurrence à affirmer haut et fort sa préférence pour « le génie musical français », dont il disait : « C’est quelque chose comme la fantaisie dans la sensibilité. » Se référant volontiers à Rameau et à Couperin, il mettait au-dessus de tout (écrit-il lui-même) « la pure tradition française […] faite de tendresse délicate et charmante, d’accents justes […], sans cette affectation à la profondeur allemande, ni besoin de souligner à coups de poing, d’expliquer à perdre haleine ».

C’est là justement « une qualité essentielle de la musique de Debussy, reprend Aucoin. Chez Wagner, au moins jusqu’à Parsifal, que d’ailleurs il appréciait, la musique semble être sans cesse en train de se demander quelle est sa destination et comment elle va y arriver. Un peu comme le faune dans le Prélude, ­Debussy veut trouver quelque chose de beau dans l’ombre et y demeurer un moment ». Dans Pelléas et Mélisande, le seul opéra qu’il ait achevé, écrit Stephen Walsh dans son livre, il exploite « des accords plus ou moins classiques d’harmonie tonale », mais les traite « comme des événements isolés ou des couleurs sans passé ni futur ».

Bien sûr, comme le reconnaît Axel Ross, « il est facile d’aimer sa musique, plus difficile de l’expliquer ». L’approche de Stephen Walsh consiste à explorer les liens tissés par Claude Debussy avec les autres formes d’art. Il est « peut-être le premier dans l’histoire à être devenu un artiste pleinement moderne, se joignant à toute une commu­nauté d’écrivains et de peintres, leur empruntant des idées et leur en donnant en retour ». À ses yeux, la musique était en retard sur la poésie et la peinture. C’est sur une suggestion de Stéphane Mallarmé qu’il composa à partir de son poème L’Après-midi d’un faune. En peinture, ce ne sont pas tant les impressionnistes que les symbolistes et les nabis qui ­l’inspirèrent.

Claude Debussy naît en 1862 dans une famille pauvre de la banlieue parisienne. Sa mère est repasseuse. Son père, commerçant puis ouvrier, s’engage dans les forces de la Commune en 1871 comme capitaine et est jeté en prison. C’est là qu’il rencontre un certain Charles de Sivry, com­positeur, à qui il parle de l’intérêt de son jeune fils pour la musique. Or la mère de Charles, Antoinette Mauté, est pianiste. Elle a été, dit-elle, l’élève de Chopin. Elle prend Claude sous son aile, le forme et le fait admettre au Conservatoire. De plus, ­Mathilde, la demi-sœur de Charles, a le « malheur », écrit Ross, d’être la femme de Paul Verlaine… Antoi­nette héberge le couple.

Élève indiscipliné, ­Debussy exaspère ses professeurs et fascine ses condisciples en remet­tant en cause les règles qu’on lui ­enseigne. Cela ne l’empêche pas de s’obstiner à concourir pour le prix de Rome – et de finir par le décrocher. Il se conforme pour ce faire aux ­attentes des juges, leur soumettant des morceaux d’un parfait académisme. Il y a là un savoir-faire paradoxal que l’on retrouve au fil de sa carrière.

En 1894, quand est donné pour la première fois Prélude à l’Après-midi d’un faune, l’œuvre, pourtant très novatrice à bien des égards, « étonne mais ne choque pas », note Ross. Debussy réussit « une révolution de velours ». La première de Pelléas et Mélisande, en 1902, fait de lui une figure culte auprès des jeunes branchés. « L’opéra ressemblait si peu à ses prédécesseurs qu’il a effectivement inauguré un nouveau genre de théâtre musical moderniste », ajoute Ross. Là, Debussy ne s’est pas contenté de s’inspirer de la pièce éponyme de Maeterlinck, il en a repris le texte ligne à ligne, à la manière de certains opéras russes, sans faire appel à un librettiste. En raison de l’écriture très neuve de Maeterlinck, une sorte de préfiguration de celle de Beckett, cet opéra réalise « une fusion sans précédent entre la musique et une esthétique littéraire avancée ». Debussy tente à plusieurs reprises de rendre compte de l’inquiétante tranquillité du poème de Verlaine En sourdine (Calmes dans le demi-jour/ Que les branches hautes font/ Pénétrons bien notre amour/ De ce silence profond…). En dix ans, il est passé d’essais aux accents wagnériens à une version épurée, économe, « perçante », selon Ross.

Mais ce genre d’ascèse musicale s’accompagne d’accès dépressifs, et il laisse quantité d’œuvres inachevées. Il traverse de longues périodes d’impuissance créatrice. « Ah le magicien que vous aimiez en moi, où est-il ? » écrit-il à un ami en 1914. Il publie des morceaux « léthargiques et nombrilistes », écrit Aucoin. Toujours à court d’argent, il produit aussi des œuvres sur commande, dénuées d’originalité. « C’était un homme très, très étrange, disait de lui la soprano Mary Garden. Avec ses yeux perçants et son front en saillie, il faisait de prime abord une forte impression. » Selon le pianiste Ricardo Viñes, son allure évoquait « un fier bandit calabrais ».

Mais sa personnalité était jugée passablement déplaisante. Surpris avec une maîtresse, il qualifia dans une lettre à Pierre Louÿs de « mauvaise littérature » la réaction angoissée de sa femme, qui tentera de se suicider avec un revolver. Sa conception de l’amitié était des plus fragiles. « Il avait tendance à agir comme si les autres n’existaient que tant qu’ils pouvaient lui rendre service », souligne Aucoin, qui qualifie même sa vie privée de « sordide ».

L’intéressé en était conscient, tout en cherchant à se justifier. Il écrit à son éditeur : « On s’obstine, autour de moi, à ne pas comprendre que je n’ai jamais pu vivre dans la réalité des choses et des gens, d’où ce besoin indicible d’échapper à moi-même dans des aventures qui paraissent inexplicables parce que s’y montre un homme que l’on ne connaît pas. C’est peut-être ce qu’il y a de mieux en moi ! D’ailleurs, un artiste est par définition un homme habitué au rêve et qui vit parmi des fantômes. »

L’animal raisonnable

Pourquoi adhérons-nous à des croyances absurdes, fausses ou douteuses ? Ne sommes-nous pas « l’animal raisonnable », au sens où l’entendait Aristote, c’est-à-dire doué de raison ? Notre dernier numéro (« La Terre est plate ! ») présentait trois approches possibles du sujet. La psychologie comportementale a mis au jour et décortiqué les nombreux biais cognitifs qui affec­tent nos modes de pensée. Au premier rang desquels le biais de confirmation, qui nous incite à privilégier les indices venant renforcer nos convictions déjà établies. C’est l’école de Daniel Kahneman, Amos Tversky et d’autres. Croire à notre rationalité est une fausse croyance. Nous ne cessons les uns et les autres, experts compris, de nous penser plus ration­nels que nous le sommes et nous voilons la face en refusant d’admettre que nos raisons de croire ou d’argumenter dans tel ou tel sens ne valent pas forcément mieux que celles de notre voisin. Le sociologue Raymond Boudon mettait l’accent, lui, sur ces « raisons de croire » pour en souligner, au contraire, la rationalité. Si nous pensons quelque chose, c’est que nous avons de « bonnes » raisons de le faire. Avant l’avènement de la science, la croyance à la ­magie était légi­time. Si une reli­gion prospère, c’est qu’elle est utile à ceux qui y adhèrent. Si tant de gens jouent à des jeux de ­hasard, c’est qu’ils trouvent intérêt à surestimer les faibles probabilités. Si nous adhé­rons à une idéologie, grande (socialisme, libéralisme…) ou « petite » (en matière d’éducation, d’alimentation…), c’est que nous y trouvons notre compte. Boudon en tirait une « théorie de la ratio­nalité ordi­naire », reposant sur l’idée que les phénomènes collectifs sont le produit de l’agrégation de comportements individuels.

Les approches de Kahneman et de Boudon sont en réalité complémentaires. Et elles sont ­solubles dans une troisième, si l’on envisage la question sous l’angle de la théorie de l’évolution. Dans notre numéro « La terre est plate ! », nous évoquions ainsi le point de vue du biologiste et anthropologue Joseph Henrich. Notre succès évolutif, selon lui, ne vient pas de notre propension à l’esprit critique mais au contraire de notre faculté à absorber ce que disent et font les autres. Les deux mamelles de notre succès sont l’imitation et la crédulité. C’est la faculté de croire aveuglément qui a accouché de la civilisation, c’est cette faculté qui a accouché de la crise financière de 2008, de Trump et du Brexit. Toute l’histoire d’Homo sapiens peut être pensée comme une tension entre les bonnes raisons du conformisme et celles du scepticisme et de la raison critique.

Dans leur livre The Enigma of Reason (inédit en français), les cognitivistes français Hugo Mercier et Dan Sperber posent une question simple et nouvelle : pourquoi la sélection naturelle a-t-elle favorisé la raison ? Ce faisant, ils en viennent à mettre en cause la conception traditionnelle de cette faculté, conçue comme fondamentalement destinée à accéder à un savoir plus certain et à prendre des décisions plus sages. Si l’on songe aux groupes de chasseurs-cueilleurs dont nous sommes issus, les principales fonctions de la raison sont sociales et, plus spécialement, « dialogiques » : il s’agit de fournir des arguments à la fois pour se justifier (donner de « bonnes raisons » de penser ce que je pense, dirait Boudon) et pour évaluer les arguments d’autrui (plus facile que d’évaluer les siens propres). C’est ce qui explique les (relativement) plus grandes chances de succès des décisions prises à plusieurs. Nous sommes une ­espèce coopérative. La raison étant d’abord une fonction sociale, les biais cognitifs décrits par l’école de Kahneman ne doivent pas lui être opposés ; ils lui sont consub­stantiels. Mais on peut supposer qu’ils jouaient un rôle plus positif dans les communautés de chasseurs-cueilleurs qu’aujourd’hui : ils servaient un « but commun » clairement identifiable, ce qui n’est plus le cas dans notre monde hypercomplexe et diversifié.

Un héritage de l’esprit de groupe de nos ancêtres est notre phobie des points de vue mettant en cause nos convictions les plus ­ancrées. Toutes sortes d’expériences amusantes en témoignent. C’est un facteur essentiel de consolidation des fausses croyances.