Les instits, ces héros

En Inde, où un quart des plus de 15 ans sont illettrés, les ensei­gnants des écoles publiques n’ont pas bonne presse. Ils sont surtout réputés pour leur absentéisme. Un mythe, estime Subra­manian Giridhar, directeur de la fondation Azim Premji, qui œuvre pour l’éducation en milieu rural. Dans son livre Ordinary People, Extraordinary Teachers, il livre les conclusions auxquelles il a abouti au terme de vingt ans d’enquête sur le système public d’éducation.

« Giridhar, qui a rencontré des centaines de professeurs des écoles dans des régions reculées du pays, a été impressionné par l’ardeur et le dévouement dont font preuve ces éducateurs mus par “la conviction que chaque ­enfant est capable  d’apprendre” », résume l’hebdomadaire The Week. Pour exercer, les instituteurs et institutrices doivent déployer des efforts considérables, note le magazine : « Établir un lien avec la population » afin de convaincre les ­parents d’envoyer leurs enfants à l’école, « négocier avec l’administration et les élus locaux » pour un raccordement au réseau électrique ou la réfection des locaux…, tout en affrontant la concurrence des écoles privées, en plein essor. Ordinary People « rappelle ­aussi, à juste titre, ce que l’école ­publique signifie pour la grande majorité des enfants indiens », souligne l’hebdomadaire progressiste Outlook. Aux plus démunis elle procure très souvent un repas et un lit. 

L’Orchestre rouge

Des rares groupes de résistants allemands au nazisme, on ne connaît guère, y compris outre-Rhin, que la Rose blanche. Or il y en eut un autre, d’une envergure très supérieure : il comptait non pas une dizaine de membres comme la Rose blanche, mais une bonne centaine, issus d’horizons très divers. Ce réseau diffusait des tracts et aida des juifs, des prisonniers de guerre, des travailleurs forcés. Il n’avait pas de nom, mais, quand elle le démantela, la Gestapo le surnomma l’Orchestre rouge.

Si son histoire a été largement occultée, c’est parce que les ­nazis ne se contentèrent pas d’exécuter plus de cinquante de ses membres. Ils détruisirent aussi leurs documents et accusèrent le cercle d’avoir espionné pour le compte de l’URSS. L’écrivain et journaliste Norman Ohler entend ressusciter et réhabiliter les fondateurs du réseau, Harro Schulze-Boysen et Libertas Haas-Heye, en qui il voit d’authentiques résistants. Les neuf années que dura leur combat contre le régime nazi (de 1933 à 1942) sont racontées « comme un thriller », juge Vera Linss sur le site de la radio MDR. Et, s’ils étaient bel et bien en contact avec l’URSS, c’était avant tout pour trouver un terrain d’entente en prévision de l’après-guerre. 

Pouvons-nous survivre à la technologie ?

Le « vaste globe lui-même »1 vit une crise qui mûrit rapidement – une crise que l’on peut attribuer au fait que le cadre dans lequel le progrès technologique doit s’accomplir est à la fois trop étroit et sous-organisé. Pour tenter de cerner cette crise et étudier les possibilités de la résoudre, on ne peut se contenter d’examiner les faits. Il faut aussi se livrer à quelques conjectures. Cette démarche mettra en lumière quelques-unes des évolutions technologiques possibles du prochain quart de siècle.

Pendant la première moitié de notre XXe siècle, la révolution industrielle s’est heurtée dans sa marche à une limite absolue, qui tenait non pas au progrès technique lui-même mais à un facteur de sécurité fondamental. Ce facteur de sécurité, qui avait permis à la révolution industrielle d’avancer entre le milieu du XVIIIe siècle et le début du XXe, était essen­tiellement une question d’espace ­vital géographique et politique : un ­espace toujours plus vaste pour l’exercice des activités technologiques conjugué à une intégration politique du monde toujours plus large. À l’intérieur de ce cadre en expansion, il était possible de s’accommoder des principales tensions engendrées par le progrès technique.

Or voilà que ce mécanisme de sécu­rité s’enraye brusquement. Au sens propre comme au sens figuré, l’espace vient à manquer. Nous commençons à présent à ressentir de façon aiguë les effets de la dimension réelle, finie, de la Terre. Ainsi, la crise ne découle pas d’événements acci­dentels ou d’erreurs humaines. Elle est ­inhérente au rapport de la technologie à la géographie d’une part et à l’organisation politique d’autre part. La crise est devenue tangible au cours des années 1940, mais certaines de ses prémices ­remontent à 1914. D’ici à 1980, elle évoluera probablement bien au-delà de ses formes premières. Personne ne peut dire quand et comment elle se termi­nera – ni quel état de choses elle produira.

Au cours de chacune de ses phases, la révolution industrielle a consisté à procurer davantage d’énergie à un moindre coût, à faciliter l’organisation des actions et des réactions humaines ainsi qu’à déve­lopper les moyens de communication. Chacun de ces éléments augmentait l’efficacité des deux autres. Ensemble, ils ont accru la vitesse d’exécution d’activités de grande ampleur, qu’elles soient industrielles, commerciales, politiques ou migratoires. Mais cette vitesse accrue n’a pas tant réduit le temps nécessaire à la réalisation des activités qu’étendu les territoires de la planète affectés par elles. La raison en est simple. Puisque la plupart des échelles temporelles sont établies en fonction des temps de réaction, des habitudes et d’autres facteurs physiologiques et psychologiques des humains, la vitesse accrue des processus technologiques a eu pour effet d’augmenter la taille des entités politiques, organisationnelles, économiques et culturelles. C’est-à-dire que, au lieu de réaliser les mêmes activités qu’auparavant en moins de temps, on a réalisé des activités de plus grande ampleur dans le même temps. Cette évolution importante s’est heurtée à une ­limite naturelle, celle de la taille réelle de la Terre. Cette ­limite est désormais ­atteinte ou, du moins, sur le point de l’être.

Des signes avant-coureurs de cette nouvelle réalité sont apparus avec force dans le domaine militaire. En 1940, même les plus grands pays d’Europe occidentale continentale n’étaient plus des entités militaires viables. Seule l’Union soviétique était en mesure de ­subir un revers militaire majeur sans s’effondrer. Depuis 1945, les seuls progrès de l’aéronautique et des communications auraient suffi à rendre n’importe quelle entité géographique, URSS comprise, incapable de soutenir une guerre future. L’avènement de l’arme nucléaire ne fait que couronner cette évolution. Les armes offensives sont désormais d’une telle effi­cacité qu’elles rendent absurdes toutes les échelles temporelles plausibles en ­matière de défense. Déjà, lors de la Première Guerre mondiale, on disait que l’amiral qui commandait la flotte pouvait « perdre l’Empire britannique en l’espace d’un après-midi ». Pourtant, les forces navales de cette époque étaient des entités relativement stables et à l’abri des surprises d’ordre technologique. Aujour­d’hui, il y a toutes les raisons de penser que même des innovations mineures et des petits subterfuges dans le domaine de l’armement nucléaire pourraient être décisifs en moins de temps qu’il n’en faudrait pour élaborer des contre-mesures spécifiques. Bientôt, les nations seront aussi instables en temps de guerre que l’aurait été un territoire de la taille de l’île de Manhattan dans un conflit mené avec les armes de 1900.

Cette instabilité militaire a déjà trouvé son expression politique. Deux super­puissances, les États-Unis et l’URSS, possèdent des moyens de destruction si considérables qu’ils laissent bien peu de chances à un équilibre purement passif. D’autres pays, dont les « neutres », sont incapables de se défendre militairement au sens classique du terme. Au mieux, ils se doteront d’une capacité de destruction, comme le fait la Grande-Bretagne actuel­lement. Par conséquent, le « concert des nations » – ou une organisation internationale équivalente – repose sur une base plus fragile que jamais. La situation se complique encore davantage avec la montée des nationalismes non européens.

Tous ces facteurs auraient débouché logiquement, du moins au cours des derniers siècles, sur une guerre. Y en ­aura-t-il une avant 1980 ? Ou juste après ? Il serait présomptueux d’apporter une ­réponse catégorique à cette question. En tout cas, le présent et l’avenir proche sont tous lourds de dangers2.

Le problème immédiat est de faire face au danger présent, mais il convient aussi d’envisager comment il va évoluer entre 1955 et 1980. Il ne s’agit pas de minimiser les problèmes immédiats de l’armement, de la tension entre les États-Unis et l’URSS ou des évolutions et révolutions en Asie 3. Ce sont les priorités. Mais nous devons être prêts pour la suite, de crainte que les succès immédiats que l’on aura pu connaître s’avèrent vains.

L’évolution technologique continue de s’accélérer. Les technologies restent utiles et bénéfiques, directement ou indirectement. Mais leurs conséquences tendent à accroître l’instabilité. Tout d’abord, l’offre d’énergie augmente rapidement. On s’accorde à penser que nous disposerons des combustibles chimiques conventionnels – charbon et pétrole – en quantité accrue au cours des deux prochaines décennies. La demande croissante tend à maintenir leur prix à un niveau élevé, mais l’amélioration des méthodes de production les pousse à la baisse. Sans aucun doute, l’événement le plus marquant dans le domaine est l’avènement de l’énergie nucléaire. Sa seule source disponible maîtrisée actuellement est aujourd’hui le réacteur à fission ­nucléaire. Cette technique semble approcher du point où elle deviendra compétitive par rapport aux sources d’énergie conventionnelles. Elle n’est pourtant vieille que de quinze ans, pendant lesquels l’essentiel des efforts a porté non pas sur la production d’électricité mais sur celle de plutonium. Encore dix ans d’efforts industriels à grande échelle, et les performances économiques des réacteurs dépasseront sans nul doute de loin celles d’aujourd’hui.

En outre, aucune loi de la nature n’impose que toute forme d’énergie ­nucléaire doive être liée à une réaction de fission, comme cela a été le cas jusqu’à présent. Si l’énergie ­nucléaire paraît être la source de toute l’énergie actuellement visible dans la nature, le moyen n’est pas la fission [mais la fusion]. À long terme, l’exploitation industrielle systématique du nucléaire pourrait permettre de compter sur d’autres modes de production plus efficaces encore.

De plus, les réacteurs sont restés jusqu’à présent liés au cycle traditionnel chaleur-­vapeur-production d’électricité, tout comme les automobiles furent d’abord construites sur le modèle des carrioles à cheval. Nous mettrons vraisemblablement peu à peu au point des procédés qui s’adapteront plus naturellement et plus efficacement à cette nouvelle source d’énergie, en abandonnant les tours et détours hérités de la combustion chimique. D’ici quelques décennies, l’énergie pourrait bien être aussi gratuite que l’air – le charbon et le pétrole restant surtout utilisés comme matières premières de la chimie organique de synthèse, à laquelle leurs propriétés conviennent mieux 4.

Soulignons ici que la tendance majeure sera l’étude systématique des réactions nucléaires – autrement dit la transmutation des éléments : de l’alchimie plus que de la chimie. Le véritable objectif de l’usage industriel des processus nucléaires est de les adapter à leur exploitation à grande échelle sur ce site relativement exigu qu’est la Terre. La nature n’a bien sûr jamais cessé d’effectuer des réactions nucléaires, elle le fait très bien et massivement, mais les sites « naturels » de son industrie sont les étoiles. Il y a tout lieu de penser que son mode opératoire exige au minimum l’espace de la plus petite étoile. Contraints que nous sommes par les limites de notre territoire, il nous faut faire beaucoup mieux que la nature. Ce n’est pas forcément impossible, comme en témoigne cette percée ­remarquable de la dernière décennie qu’est la fission, processus non naturel.

Il est difficile d’imaginer quels seront les effets de la transmutation massive des éléments sur la technologie en général, mais ils seront radicaux. La révolution est déjà à l’œuvre dans le domaine mili­taire, mais il ne faudrait pas considérer que la forme qu’elle y a prise, à savoir son effroyable capacité de destruction massive, est caractéristique de ce que représente la révolution nucléaire. Elle pourrait bien refléter toutefois les transformations profondes qu’elle entraînera dans tous les domaines 5.

Un autre domaine qui devrait évoluer rapidement, et indépendamment du ­nucléaire, est l’automatisation. La commande automatisée est aussi ancienne que la révolution industrielle, puisque l’innovation décisive de la machine à vapeur de Watt était la commande de la vanne d’admission de vapeur, notamment son régulateur de ­vitesse. Mais, durant ce siècle, de petits amplificateurs et commutateurs électriques ont propulsé l’automatisation dans une tout autre dimension. L’évolution a commencé avec les ­relais électromécaniques du téléphone, s’est poursuivie et étendue avec le tube électronique et s’accélère avec les divers dispositifs à semi-conducteurs (cristaux, noyaux ferromagnétiques, etc.). Depuis une dizaine ou une vingtaine d’années, il devient facile de piloter et de « discipliner » un grand nombre de ces dispositifs à l’intérieur d’une seule machine. Même dans un avion, le nombre de tubes électroniques avoisine le millier. D’autres machines contenant jusqu’à 10 000 tubes électroniques, cinq fois plus de cristaux et peut-être plus de 100 000 noyaux ferro­magnétiques fonctionnent désormais sans défaillance pendant de longues périodes, exécutant plusieurs millions d’actions programmées et régulées par seconde, avec une toute petite marge d’erreur par jour ou par semaine.

Nombre de ces machines ont été construites pour effectuer des calculs scientifiques et techniques compliqués ainsi que des études comptables et logistiques de grande ampleur. Il ne fait guère de doute qu’on les utilisera pour le pilotage de processus industriels complexes, la planification logistique et économique et bien d’autres tâches qui ne se prêtaient pas jusqu’ici à l’automatisation 6.

Les progrès en matière de commande automatisée sont en réalité des améliorations dans la communication de l’information au sein d’une organisation ou d’un mécanisme. La somme des progrès dans ce domaine est phénoménale. Quoique moins spectaculaires, les améliorations dans les communications au sens physique du terme – les transports – sont considérables et constantes. Si les progrès du nucléaire doivent nous amener à disposer d’une énergie illimitée, ceux des transports seront vraisemblablement encore plus rapides. Mais même les progrès « normaux » sur l’eau, sur la terre et dans les airs sont extrêmement importants7. Ces progrès « normaux » ont suffi à orienter le développement économique mondial en donnant naissance aux idées politiques et économiques qui ont cours actuellement dans le monde.

Examinons à présent les potentialités d’un domaine totalement « anormal », un domaine qui ne figure encore sur aucune liste d’activités importantes : la modification du temps météorologique ou, pour employer un terme plus ambitieux mais mieux choisi, le contrôle du climat. Un des aspects de cette acti­vité a déjà retenu l’attention du public : la pluie artificielle par ensemencement des nuages. La technique consiste à provoquer des précipitations en diffusant dans les nuages de petites quantités d’agents chimiques. S’il est difficile d’évaluer la portée des tentatives faites jusqu’ici, il semble que l’objectif soit réalisable 8.

Mais le sujet est beaucoup plus vaste. Tous les grands phénomènes météorologiques ainsi que le climat lui-même sont commandés par l’énergie solaire qui arrive sur la Terre. Modifier la quantité d’énergie solaire est bien sûr hors de notre portée. Mais ce qui compte réellement, ce n’est pas la quantité qui atteint la Terre, mais la fraction que celle-ci en retient puisque la partie réfléchie dans l’espace n’a pas plus d’utilité que si elle n’était jamais arrivée. Or la quantité qu’absorbent la terre ferme, les océans ou l’atmosphère semble dépendre de mécanismes complexes. Si nous n’en maîtrisons pour l’heure aucun, tout porte à croire que c’est possible.

Le dioxyde de carbone (CO2) rejeté dans l’atmosphère par la combustion du charbon et du pétrole (plus de la moitié de ces émissions ont eu lieu au cours de la génération écoulée) pourrait avoir suffisamment altéré la composition de l’atmosphère pour induire un réchauffement de la planète d’environ 0,6 °C 9.

Lors de son éruption de 1883, le ­Krakatoa dégagea une quantité d’énergie qui n’avait rien d’exorbitant. Si les cendres projetées étaient restées dans la stratosphère pendant quinze ans en réflé­chissant la lumière du Soleil, cela aurait pu suffire à faire baisser la température de la planète d’environ 3 °C. Mais elles n’y sont restées que trois ans, si bien qu’il aurait sans doute fallu cinq éruptions de ce genre pour atteindre un tel résultat. Il se serait agi d’un refroidissement notable. Durant le dernier âge glaciaire, au cours duquel la moitié de l’Amérique du Nord et toute l’Europe du Nord et de l’Ouest furent recouvertes d’une calotte glaciaire comparable à celles du Groenland ou de l’Antarctique, les températures n’étaient que d’environ 8 °C inférieures aux niveaux actuels. À l’inverse, un réchauffement de même ampleur ferait probablement fondre les calottes glaciaires et installerait un climat tropical ou semi-tropical sur toute la planète.

Nous savons aussi que la persistance de calottes glaciaires tient au fait que la glace réfléchit l’énergie solaire et émet vers l’espace une part plus impor­tante de l’énergie terrestre que le sol ordinaire. Si l’on répandait sur la glace ou dans l’atmosphère qui la surplombe des couches microscopiques de matière colorée, on pourrait inhiber le processus de réflexion-absorption, faire fondre la glace et modifier le climat local. Les moyens permettant ce genre de transformation sont à notre portée, et le montant des investissements requis ne serait pas plus élevé que celui qui a été nécessaire pour développer le chemin de fer et d’autres grands secteurs d’activité. La principale difficulté réside dans la prévision des effets d’une intervention aussi radicale. Mais notre connaissance de la dynamique de l’atmosphère approche rapidement le niveau qui permettrait ce genre de prévision. Nous interviendrons probablement sur les processus atmosphériques et le climat d’ici quelques décen­nies, et dans des proportions difficiles à imaginer aujour­d’hui.

Bien entendu, ce qu’on pourrait faire ne dit rien de ce qu’on devrait faire. Provoquer un nouvel âge glaciaire pour en contrarier certains ou, au contraire, un nouvel âge tropical « interglaciaire » afin de faire plaisir à tout le monde, voilà qui n’est pas très rationnel. En fait, évaluer les conséquences ultimes d’un refroidissement ou d’un réchauffement planétaires ne serait pas une mince affaire. De tels changements auraient une incidence sur le niveau des mers et, en conséquence, sur l’habitabilité des zones côtières des plateaux continentaux ; une incidence aussi sur l’évaporation des mers et donc sur les niveaux de précipitations et de glace, et ainsi de suite. Il n’est pas immédiatement évident de savoir ce qui serait bénéfique ou nuisible – et pour quelles régions du monde. Mais l’on peut sans aucun doute effectuer les analyses nécessaires pour prévoir certaines conséquences, intervenir à l’échelle voulue, et finalement obtenir des effets assez sensationnels. Le climat et le niveau des précipitations de certaines régions en seraient modifiés. On pourrait par exemple corriger ou atténuer des perturbations comme les arrivées massives d’air froid polaire (qui caractérisent l’hiver des latitudes moyennes) ou encore les tempêtes tropicales (cyclones). Nul besoin d’exposer en détail ce que cela signifierait pour l’agriculture et, à vrai dire, pour tous les aspects de l’écologie humaine, animale et végétale. Quel pouvoir sur notre environnement, sur toute la nature en somme ! 10

Ce genre d’actions aurait bien plus directement une portée planétaire que les guerres récentes et, sans doute, à venir et que l’économie. Une intervention humaine à grande échelle aurait un effet considérable sur la circulation générale de l’atmosphère, qui dépend de la rotation de la Terre et de la chaleur solaire intense des tropiques. Des interventions en Arctique pourraient influer sur le temps dans les zones tempérées, et des actions dans une zone tempérée en affecter une autre, située à 90 degrés de longitude de là. Le destin de tous les pays s’en retrouverait lié, bien plus que n’a pu le faire jusqu’ici la menace d’une guerre, nucléaire ou autre.

Gratuité de l’énergie, progrès de l’automatisation et des communications, contrôle partiel ou total du climat : toutes ces évolutions possèdent des caractéristiques communes qui méritent qu’on s’y arrête. Premièrement, bien qu’elles soient toutes intrinsèquement utiles, elles peuvent mener à la destruction. Les plus redoutables des outils de destruction nucléaire ne sont que les représentants extrêmes d’une famille qui comprend des méthodes utiles pour la production d’énergie ou la transmutation d’éléments. Les projets de contrôle du climat les plus élaborés seraient forcément fondés sur des idées et des techniques susceptibles de se prêter à des formes de guerre climatique que personne n’a encore imaginées. La technologie, comme la science, est entièrement neutre ; elle se contente de fournir des moyens de contrôle utilisables à n’importe quelle fin sans en privilégier aucune.

Deuxièmement, la plupart de ces évolutions tendent à concerner la planète tout entière ou, plus exactement, à produire des effets qui peuvent se propager d’un point à l’autre de la Terre. En cela, elles entrent en conflit avec la géographie telle que nous la concevons aujourd’hui, ainsi qu’avec les institutions qui sont fondées sur elle. Bien sûr, toute technologie interagit avec la géographie et impose ses propres règles et modalités physiques. Mais la technologie qui se développe actuellement et qui dominera les prochaines décennies semble être totalement en conflit avec les concepts et les entités géographiques et politiques traditionnelles, qui ont encore cours pour l’instant. Voilà la crise de la technologie qui est en train de mûrir.

Comment y répondre ? Quoi que l’on veuille faire, un facteur décisif doit être pris en compte : les techniques qui créent du danger et de l’instabilité sont en elles-mêmes utiles ou étroitement liées à quelque chose d’utile. En fait, plus elles sont susceptibles d’être utiles, plus leurs effets risquent d’être déstabilisants. Ce n’est pas le potentiel destructeur d’une invention donnée qui crée le danger. De par sa puissance et son efficacité, la technologie est intrinsèquement ambivalente. Elle porte en elle le danger.

Parmi les solutions que l’on pourrait trouver, il y en a une à écarter d’emblée. On ne résoudra pas la crise en cherchant à bannir telle ou telle technologie jugée particulièrement dangereuse. D’abord, les différents aspects d’une technique, ainsi que les principes scientifiques qui les sous-tendent, sont si imbriqués que, à longue échéance, seule la suppression totale de tout progrès technologique permettrait de résoudre le problème. Ensuite, d’un point de vue plus immédiat et prosaïque, les techniques utiles et les nuisibles sont si proches les unes des autres qu’il n’est jamais possible de séparer le bon grain de l’ivraie. Ce fait est bien connu de tous ceux qui ont laborieusement cherché à distinguer les usages militaires des sciences et des techniques de leurs usages civils : cette distinction ne tient jamais très longtemps – guère plus de cinq ans. De même, la séparation entre applications utiles et applications dangereuses dans quelque domaine technique que ce soit deviendrait sans doute caduque au bout de dix ans. […]

Enfin, et surtout, l’interdiction d’une technologie m’apparaît contraire au système de valeurs de l’ère industrielle. Elle est incompatible avec une dimension essentielle du projet intellectuel de notre époque. Il est difficilement imaginable qu’une telle contrainte puisse être imposée avec succès à notre civilisation. Il faudrait que les catastrophes que nous redoutons soient déjà survenues, que l’humanité ait perdu toutes ses illusions sur la civilisation technologique pour que ce pas puisse être franchi 11. Or même les désastres des guerres récentes n’ont pas produit un tel degré de désillusion, comme le prouve la vigueur phénoménale avec laquelle le mode de vie industriel a repris, même et surtout dans les régions les plus durement touchées. Le système technologique possède une vita­lité extraordinaire, peut-être plus que jamais, et les conseils de retenue ont peu de chances d’être entendus.

Une solution beaucoup plus satisfaisante que l’interdiction du progrès technique serait d’éliminer la guerre comme « instrument d’une politique nationale ». Le désir d’y parvenir est aussi ancien que n’importe quel élément du système éthique par lequel nous disons être gouvernés. Ce désir varie en intensité et devient plus fort après chaque grande guerre. Aujourd’hui il est assurément fort, pour des raisons pratiques et psychologiques évidentes. À titre individuel du moins, il semble être partagé dans le monde entier et transcender les différents régimes politiques. Reste à savoir s’il est réel et s’il sera durable.

On peut difficilement trouver à redire aux arguments pratiques avancés contre la guerre, mais les facteurs psychologiques sont sans doute moins solides. Les souvenirs de la guerre de 1939-1945 restent vivaces, mais il est difficile de prévoir ce que deviendra le sentiment populaire à mesure qu’ils s’estomperont. Le dégoût qui suivit 1914-1918 ne résista pas, vingt ans plus tard, aux tensions provoquées par une grave crise politique. Les éléments d’un conflit international à venir sont de toute évidence réunis aujourd’hui et même plus qu’après la Première Guerre mondiale.

Au vu du passé, on peut légitimement douter que, en l’absence de la composante psychologique, les considérations matérielles suffisent à contenir l’espèce humaine. Il est vrai que les raisons « pratiques » sont plus solides que jamais, car la guerre pourrait être infiniment plus destructrice que par le passé. Mais on a déjà eu cette impression à plusieurs reprises sans que cela soit décisif. Certes, cette fois, le risque de destruction semble plus réel qu’apparent, mais rien ne garantit qu’un danger réel influence davantage les actions humaines qu’une apparence convaincante de danger.

Quels garde-fous nous reste-t-il ? Rien de plus, visiblement, que des mesures opportunistes, prises au jour le jour ou, peut-être, d’année en année, une succession de petites décisions adéquates. Cela n’a rien de surprenant. Après tout, la crise est due à la rapidité du progrès, à sa probable accélération future et à la montée des tensions. Plus précisément, les effets que nous commençons à produire se ressentent à l’échelle du « vaste globe lui-même ». Toute accélération supplémentaire ne peut plus dès lors être absorbée comme par le passé en étendant le théâtre des opérations.

Il n’existe pas de remède au progrès. Toute tentative visant à rendre automatiquement inoffensives les formes dangereuses du progrès sera forcément décevante. La seule façon d’éliminer le danger réside dans l’exercice intelligent de notre jugement au quotidien.

Les problèmes que créent les formes possibles de guerre nucléaire dans un contexte international particulièrement instable sont énormes et ne sont pas faciles à résoudre. Ceux des prochaines décennies promettent d’être tout aussi redoutables, voire davantage. Les tensions sont fortes entre les États-Unis et l’URSS, mais, lorsque d’autres pays feront montre de leurs capacités offensives, la situation n’en deviendra que plus ­compliquée.

Les effrayantes possibilités actuelles de guerre nucléaire pourraient laisser la place à d’autres, encore plus redoutables. Une fois qu’il sera possible de contrôler le climat mondial, les complications ­actuelles nous paraîtront peut-être simples. Ne nous faisons pas d’illusions : dès que ces possibilités se concrétiseront, elles seront exploitées. Il sera nécessaire alors d’élaborer de nouveaux cadres poli­tiques adaptés. L’expérience prouve que même des évolutions technologiques de moindre envergure que celles qui se profilent transforment en profondeur les rapports sociaux et politiques. L’expérience montre aussi que ces transformations ne sont pas prévisibles a priori et que la plupart des conjectures que l’on fait se révèlent erronées. Pour toutes ces raisons, il convient de ne pas prendre trop au sérieux nos difficultés actuelles et les réformes proposées.

Le seul fait avéré est que nos difficultés sont dues à une évolution qui, bien qu’utile et positive, présente aussi des dangers. Saurons-nous procéder aux ajustements nécessaires à la vitesse voulue ? La réponse la plus optimiste consiste à dire que l’espèce humaine a déjà été soumise à des épreuves semblables et semble avoir un don inné pour les surmonter, au terme de bien des vicissitudes. Il serait déraisonnable d’exiger une recette prête à l’emploi. Nous ne pouvons qu’énoncer les qualités humaines requises : patience, souplesse, intelligence.

— John von Neumann était un mathématicien américain.

— Cet article est paru dans le magazine Fortune en juin 1955. Il a été traduit par Annie Gouilleux sur le site Pièces et Main-d’œuvre et revu par Books.

À l’adresse indiquée

« Mon obsession des adresses date du jour où j’ai appris que la plupart des ménages dans le monde n’en avaient pas », explique la juriste afro-américaine Deirdre Mask dans The Address Book. « L’adresse, selon l’Union postale universelle, est un des moyens de lutte contre la pauvreté les moins onéreux, car elle facilite l’accès de la population au crédit, au vote et aux marchés mondiaux, souligne l’auteure. Mais le problème ne se pose pas seulement dans les pays en déve­loppement. J’ai découvert que, même dans certaines ­régions ­rurales des États-Unis, les habi­tants n’avaient pas d’adresse postale. »

« Les adresses, observe le critique Andrew Holgate dans le quotidien britannique The Times, contribuent aussi à lutter contre les maladies : en 1854, le médecin John Snow parvint à identifier la source de l’épidémie de choléra qui sévissait dans le quartier de Soho, à Londres – une pompe à eau –, en notant sur une carte le lieu de résidence de toutes les personnes atteintes. »

Une adresse peut aussi révéler des informations qu’on ne souhaite pas forcément communiquer. « À Belfast, selon la rue où vous habitez, on saura si vous êtes catholique ou protestant. Et, aux États-Unis, les voies baptisées du nom de Martin Luther King – il y en a près de 900 – se trouvent dans des quartiers noirs, donc réputés malfamés », poursuit Holgate. 

À l’infini

Voici un roman étrange, « hybride » selon les mots de son auteur, l’Irlandais ­Colum ­McCann. L’« apeirogon » du titre désigne, en géométrie, un polygone qui a un nombre in­fini de côtés. Une métaphore de ce qu’essaie de faire ­McCann dans son livre : rendre compte de l’ambiguïté, des véri­tés multiples et parfois oppo­sées de l’inextricable conflit ­israélo-palestinien.

Soit deux pères. L’un est israé­lien. Sa fille a été tuée dans un attentat-suicide. L’autre est palestinien. Sa fille a été tuée par un jeune soldat de Tsahal. Les deux hommes sont amis et sillonnent le monde pour défendre une solution pacifique. Leur histoire est vraie.

À partir de ce canevas, ­Colum McCann déploie 1 001 chapitres d’une longueur très variable (parfois une simple phrase), mêlant anecdotes, citations, récits, remarques variées, sans lien apparent. Il y est question par exemple du dernier repas de Mitterrand, d’oiseaux migrateurs, de la correspondance entre Freud et Einstein… Ce défi formel a été diversement apprécié par la critique anglo-saxonne. Si Alex ­Preston parle dans TheGuardian d’un roman « bouleversant », Dwight Garner juge, dans The New York Times, que l’originalité de la structure masque la banalité du ­contenu.

L’incroyable incapacité des experts à prévoir l’avenir

En décembre 2007, lorsque le magazine BusinessWeek publia son tableau annuel des prévisions économiques pour les douze mois à venir, la totalité des 54 économistes interrogés prédirent que l’économie américaine n’allait pas « tomber en récession ». La croissance en 2008 n’aurait rien d’exceptionnel mais se poursuivrait, affirmèrent-ils tous. Ils ne furent pas les seuls à ne pas voir ce qui se profilait. En juillet 2009, un groupe d’éminents économistes et constitutionnalistes britanniques déplorait dans un courrier adressé à la reine « le défaut d’imagination collective » qui les avait conduits, sans exception, à ne pas anticiper la crise.

Si la lecture du livre de Dan Gardner est si réjouissante, cela tient pour beaucoup aux efforts que déploient les experts pour justifier après coup la nullité de leurs prévisions. Gardner cherche à comprendre pourquoi les pronostics des experts sont si souvent à côté de la plaque et pourquoi on tient rarement rigueur à ceux qui se sont trompés. Il s’appuie pour ce faire sur les travaux de Philip ­Tetlock, un psychologue américain qui en avait tellement assez de la suffisance des prévisionnistes qu’il conçut une expérience originale : en 1984, il sélectionna 284 universitaires, économistes et chercheurs qui gagnaient leur vie en vendant leurs avis sur les tendances politiques et économiques. Il leur demanda de lui fournir des prévisions vérifiables. Vingt ans plus tard, le bilan n’était pas glorieux. Au jeu des pronostics, constata Tetlock, la plupart des experts n’étaient pas plus adroits que « des chimpanzés lançant des fléchettes sur une cible ». Pis, lorsqu’ils furent confrontés à leurs erreurs, beaucoup refusèrent de les admettre : certains tentèrent d’éluder la question, tandis que d’autres prétendirent avoir eu raison depuis le début 1.

Une partie du problème, explique Gardner, tient au fait que les experts n’ont pas à répondre de leurs prévisions. Faites un pronostic audacieux et les journalistes et les caméras accourront. Mais, lorsqu’il ne se réalise pas, personne n’est là pour s’en souvenir. Repre­nant la célèbre distinction du philosophe et historien des idées Isaiah Berlin, Gardner divise les experts et les prévisionnistes en deux caté­gories : les renards, qui savent beaucoup de choses différentes, et les hérissons, qui sont spécialistes d’un seul grand sujet. Selon lui, les hérissons, dont le domaine d’expertise est ­limité, ont tendance à formuler des prévisions audacieuses et optimistes. Leurs pronostics sont plus simples et plus amusants, de sorte qu’ils monopolisent l’attention des médias. Mais ils ont aussi bien plus de chances de se tromper que les renards. Comme ils se fondent sur un éventail plus large de données et de disciplines, les renards ont tendance à être plus prudents dans leurs prévisions et, par conséquent, se trompent moins.

Les économistes ne sont pas les seuls à se fourvoyer. Qui peut jurer, la main sur le cœur, avoir prédit les Printemps arabes ? La démographie est une des denrées de base de la prospective, mais, même dans ce domaine, les prévisions ne sont pas ­aussi faciles qu’elles en ont l’air : personne ou presque n’avait vu venir le baby-boom de l’après-guerre, ­observe Gardner. De même, la régularité avec laquelle ses prophéties de catastrophe imminente ne se réalisent pas a ­desservi le mouvement écologiste. Dans son livre de 1968, La Bombe P, le biologiste Paul Ehrlichsoutenait ainsi que la population mondiale augmentait plus rapidement que la production agricole, et il prédisait que nous connaîtrions une ère de grandes famines dans la décennie ­suivante.

À la lecture de cette litanie jubi­latoire de prédictions erronées, il est aisé d’en conclure que prévoir le futur relève de la mission impossible. Il y a pourtant des choses hautement prévisibles, comme le savent bien les compagnies d’assurances et les commerces qui proposent des cartes de fidélité. Voici quelques bons conseils pour les prévisionnistes en herbe : ne cherchez pas à figer des choses qui évoluent constamment. Évitez de parler de bombes à retardement et abstenez-vous de prédire la fin de quoi que ce soit (des guerres, des ressources, et encore moins de l’histoire). Et ne cherchez pas à regarder trop loin dans le futur, vous risquez de vous vautrer 2.

— James Harkin est un journaliste indépendant britannique. Il est l’auteur notamment de Niche: Why the Market No Longer Favours the Mainstream (Little Brown, 2011).

— Cet article est paru le 13 mai 2011 dans le Financial Times. Il a été traduit par Inès Carme.

Retour à la maison

L’écrivaine et metteuse en scène de théâtre Ann-Luise Bertell appartient à la minorité suédophone de Finlande (6 % de la population). La famille qu’elle campe dans Heiman, son deuxième roman, aussi. Son récit se déroule dans la première moitié du XXe siècle en ­Ostrobotnie, région côtière de l’ouest de la Finlande, d’où est originaire l’auteure.

Ann-Luise Bertell « connaît bien ses habitants et les décrit avec tendresse : femmes déterminées, hommes lessivés par la guerre, aventuriers et familles souvent si imbriquées qu’il est difficile d’en sortir », résume le critique Peter Lüttge sur Svenska Yle, le site suédophone de la radio-télé­vision publique finlandaise Yle.

Démobilisé pour blessure lors de la Seconde Guerre mondiale, Elof, le personnage principal, parvient à récupérer la ferme familiale, qu’il avait dû abandonner enfant à la mort de son père. Il épouse la veuve d’un compagnon d’armes, Olga, forte femme qui le voit se replier sur lui-même et sombrer dans l’alcool. « On a de l’affection pour eux, même quand ils se comportent de manière stupide », ajoute ­Peter Lüttge, qui compare ce roman aux Sept Frères, d’Aleksis Kivi, classique de la littérature finlandaise (Stock, 1991).

Nostalgie du Pacifique

Quelques cabanes en bois dressées au bord de l’océan Pacifique, sur une plage de sable noir qui ressemble à de la boue, soumises aux caprices de la marée et aux pluies diluviennes : c’est le décor qu’a choisi la romancière colombienne Pilar Quintana pour La Chienne, le premier de ses livres traduit en français.

Elle y raconte la mélancolie de Damaris, qui s’occupe de l’entretien de la villa des Reyes, un couple fortuné de Bogotá. Depuis son mariage avec Rogelio, un pêcheur taciturne, elle rêve d’avoir un enfant mais n’y parvient pas. Une voisine lui donne une petite chienne âgée de quelques jours et Damaris noue avec l’animal une relation maternelle.

Mais l’affection laisse vite place au ressentiment. En grandissant, la chienne dédaigne sa maîtresse et se sauve à plusieurs reprises dans la forêt tropicale, laissant Damaris en proie à une colère froide.

« Le village dans lequel vit Damaris fait partie de ce que nous avons l’habitude d’appeler “l’autre Colombie”, la “Colombie profonde”, expressions généralement prononcées avec un brin de condescendance citadine. C’est la Colombie que nous avons du mal à comprendre parce que nous la regardons de haut, celle qui a le plus souffert de la guerre et de l’oubli, celle à qui les grandes villes ont très souvent tourné le dos », analyse Iván Andrade dans la revue colombienne en ligne Razón Pública.

Cette Colombie-là, Pilar Quintana en parle en connaissance de cause puisqu’elle a vécu neuf ans sur une langue de terre bordée par le Pacifique, dans une maison construite de ses mains, à proximité du village de Juanchaco. « Elle, qui connaît le nom des nœuds, les différents types de filets de pêche, les oiseaux et les insectes ; elle, qui distingue au premier coup d’œil un serpent inoffensif d’un venimeux, attache une grande importance à la précision de son écriture », note l’écrivaine et chroniqueuse Melba Escobar dans le quotidien El Tiempo. C’est à Bogotá, où elle vit désormais, que Pilar Quintana a écrit La Chienne, qu’elle qualifie dans les pages d’El Tiempo d’« hymne nostalgique au Pacifique ».

Son roman interroge notre conception de la maternité, en prenant pour toile de fond « une région où la fécondité est une sorte de déesse qu’on honore en procréant à tour de bras », pointe le journaliste Gerardo Quintero dans Semana rural, un magazine en ligne rattaché à l’hebdomadaire colombien Semana.

En filigrane, une question traverse le roman : l’amour d’une mère est-il aussi inconditionnel qu’on le dit ? Rien n’est moins sûr, semble répondre Pilar Quintana. La romancière laisse entrevoir la facette sombre du lien maternel, rappelant que, comme tous les cultes, celui que l’on rend à la déesse de la fertilité n’est pas sans exiger quelques victimes sacrificielles.

Sur les traces de Salomon

Le terme Harmaguédon (Armageddon, en anglais) est une déformation de l’hébreu Har Megiddo, « la montagne de Megiddo ». Dans le livre de l’Apocalypse, Harmaguédon est le lieu de l’ultime bataille entre les forces du bien et du mal. Voilà qui explique l’utilisation de ce mot pour parler de la fin du monde et l’afflux de touristes sur le site archéologique de Megiddo, situé à 90 kilomètres au nord de Jérusalem. 

Cette colline que les spécialistes fouillent depuis le début du XXe siècle est le résultat de l’empilement d’une vingtaine de cités d’époques différentes. La strate XX juste au-dessus de la roche, la plus ancienne, garde les traces d’un campement du néolithique. La strate I, qui offre une vue splendide sur la vallée de Jezréel, date des Perses. Entre les deux, on trouve les traces de peuplements cananéens, israélites, assyriens, babyloniens…

De l’Apocalypse au roi Salomon

Fin connaisseur du site, l’archéologue et anthropologue américain Eric H. Cline s’intéresse dans Digging up Armageddon à ceux qui l’ont fouillé. Il mêle « l’analyse détaillée des strates et des objets à l’excavation héroïque d’informations biographiques, d’anecdotes personnelles et de guerres intestines depuis la première campagne de fouilles de 1903-1905 », observe le journaliste scientifique Andrew Robinson dans la revue Nature.

Cline s’intéresse particulièrement aux années 1925-1939, période durant laquelle le chantier fut placé sous la responsabilité de l’Institut oriental de l’université de Chicago. Son directeur, l’égyptologue James Henry Breasted, et son mécène, le magnat John D. Rockefeller, étaient fascinés par les références bibliques qui lient le site au roi Salomon. 

Mystères de l’archéologie biblique

En 1928, leur équipe croit avoir trouvé les écuries du roi mythique décrites dans les textes. « Mais, comme souvent en archéologie, le débat n’est pas clos. La configuration des lieux évoque une écurie, mais on n’a déterré aucun os de cheval ; et si des restes de céréales y ont été mis au jour, aucune analyse n’a été publiée. Sans compter qu’aucune inscription relevée à Megiddo ne mentionne Salomon », précise Robinson. « Au moins quatre strates différentes de Meggido ont été surnommées « cité de Salomon ». Les écuries de Salomon sont devenues celles d’Achab, et, selon Cline, pourraient être désormais attribuées à Jéroboam II », ajoute l’historien Dominic Green dans l’hebdomadaire britannique The Spectator

Mais sans verser dans l’archéologie biblique, bien d’autres mystères intriguent les chercheurs à Meggido. Quelle catastrophe explique les squelettes écrasés et les pierres noircies retrouvés dans une des strates les plus anciennes ? Pourquoi le site a-t-il été abandonné en 300 avant notre ère ? Au moins un chercheur émet l’hypothèse qu’Alexandre le Grand a pu détruire la ville. « Mais on n’a aucune preuve d’une fin aussi cinématographique », écrit Cline.

À lire aussi dans Books : Apocalypse, mode d’emploi, juin 2012.

Charlie Kaufman s’essaie à la littérature 

Prononcez le nom de Charlie Kaufman devant des cinéphiles, et vous verrez leurs visages s’éclairer. Véritable coqueluche du cinéma indépendant américain, Kaufman passe pour avoir révolutionné l’art du scénario en créant des histoires complexes et métafictionnelles. On lui doit notamment les scripts de Dans la peau de John Malkovich et d’Eternal Sunshine of the Spotless Mind. Ce scénariste réputé s’est également essayé à la réalisation, avec beaucoup moins de bonheur toutefois. Après la réception en demi-teinte de son film Anomalisa, Kaufman est de retour, non pas sur les écrans, mais en librairie.

Du scenario au roman

Antkind décrit les tribulations de Balaam Rosenberger Rosenberg (surnommé « B »), un critique de cinéma entre deux âges, prétentieux et dogmatique, qui estime ne pas avoir eu la carrière qu’il mérite. Lorsqu’il rencontre un vieillard qui a passé l’essentiel de sa vie enfermé chez lui à tourner un film en stop motion d’une durée totale de trois mois, B est persuadé d’avoir déniché la pépite cinématographique qui lui apportera enfin la renommée. Hélas, le film disparaît dans un incendie avant qu’il n’ait eu le temps de le dévoiler au monde. Le reste du roman – près de 600 pages – retrace les tentatives de B de reconstituer le film de mémoire, avec l’aide d’un hypnothérapeute plus ou moins compétent.

Mémoire et perception de la réalité

« Quiconque ayant déjà vu un film de Kaufman se sentira ici en terrain familier », note le scénariste et romancier américain Matthew Specktor dans The New York Times. En effet, ce premier roman exploite un certain nombre de thèmes chers à Kaufman, comme l’impossibilité de se fier à sa mémoire ou à sa perception de la réalité. L’auteur ne se départit pas non plus de son goût pour la métafiction, faisant de son protagoniste un pourfendeur acharné de ses propres films – « Kaufman est un cinéaste prétentieux et largement surévalué », déclare B. Si Matthew Specktor voit dans Antkind un livre à la fois « extrêmement bizarre » et « extrêmement réussi », Kevin Power, lui, l’a trouvé pour le moins indigeste : « J’ai mis trois ou quatre ans à lire le roman de Charlie Kaufman. Du moins, c’est l’impression que j’ai eue », raille-t-il dans la Literary Review.

À lire aussi dans Books : Francis Kerline : « Cette traduction de David Foster Wallace m’a presque rendu fou », octobre 2015.