Ne riez pas des classiques

L’étude des classiques est en chute libre, et le latin, langue consubstantielle à l’essor de l’Europe et du christianisme, moribond. À la différence de l’hébreu ou du sanskrit, il n’a pas de statut officiel, sauf au Vatican. Et sa présence sur le WWW – pardon, le TTT, « Tela Totius Terrae » – est au mieux symbolique (0,03 % des pages). Même l’Unesco (dont le nom est un verbe latin : « s’unir ») n’a pas pu faire grand-chose pour sa protection.

Et pourquoi donc voudrait-on connaître les « langues mortes » ? Pour lire « les classiques » dans le texte, pardi ! Et pourquoi donc vouloir lire « les classiques » ? Parce qu’ils nous en apprennent plus sur nous-mêmes que sur eux. Il ne s’agit pas de les faire parler à notre place, comme des ventriloques, pour conforter nos opinions ou épater la galerie, mais plutôt de les écouter. Car en tendant l’oreille, ce que l’on entend, c’est la voix des générations qui, de l’Antiquité à nos jours, ont édifié brique par brique notre culture.

Un aspect parmi d’autres : l’humour. On riait beaucoup dans l’Antiquité – mots d’esprit de Cicéron (un joyeux drille), épigrammes de Catulle ou Martial, satires plutôt corsées de Juvénal, innombrables pièces comiques… Certains mouraient même de rire, comme le peintre Zeuxis. Et l’on théorisait volontiers sur le sujet, à l’instar d’Aristote ou de Démocrite, le « philosophe rieur » (hélas, hier comme aujourd’hui, les théories sur le rire sont à l’humour ce que les recherches orgasmologiques de Masters et Johnson sont à l’érotisme). Quant aux anémiés de l’humour, ils pouvaient déjà se rabattre sur des recueils de blagues, comme le fameux Philogelos (« L’ami du rire »), du IVe siècle après J.-C. (1). « Or le plus stupéfiant, écrit la grande latiniste anglaise Mary Beard (2), c’est qu’un nombre incroyable des blagues de ce livre sont encore assez drôles » – comme celle de l’habitant d’Abdère (petite ville qui était aux railleurs athéniens ce que la Belgique est à d’autres) : surpris de voir un eunuque en grande conversation avec une dame, il lui demande : « C’est ta femme ? – Non ! – Alors c’est ta fille ! » Mais, poursuit Mary Beard, « si l’on peut encore rire de ces blagues anciennes, c’est bien parce que c’est avec elles que nous avons appris à rire d’une blague ». Coluche n’avait sans doute pas lu le Philogelos, dans l’original du moins ; mais, sans le savoir, il lui devait beaucoup.

 

Traduction manquante – Le roman interdit de l’eugénisme

Trop de science nuit-il à la science ? L’exemple de Francis Galton, esprit universel britannique dont la prodigieuse créativité scientifique a débouché sur la théorisation de l’eugénisme, tendrait à le faire croire. Galton, en effet, déploya ses talents, voire son génie, soixante années durant dans une multitude de domaines : la météorologie (il a découvert l’anticyclone), la linguistique, l’exploration (de la Namibie), la sociologie (c’est le père des enquêtes par questionnaire), la criminologie (application de la statistique aux empreintes digitales), la psychologie, la photographie, la physiognomonie, et d’autres encore… Ses écrits (340 livres et communications diverses) couvrent un champ très large, allant du plus théorique au plus pratique – comme ce très britannique « Art du voyage » (1) où il donne aux apprentis explorateurs d’excellents conseils, dont celui d’intégrer des femmes indigènes dans les troupes de porteurs, car « elles résistent aux longues étapes aussi bien que les hommes, mieux en tout cas que les chevaux ou les bœufs, (…) recueillent et transmettent informations et ragots d’une utilité capitale (…) et tiennent chaud la nuit aussi ».

Mais les spécialités favorites de Francis Galton étaient le calcul statistique et la génétique – et donc, logiquement, la conjonction des deux. Le savant était un « obsédé du calcul », écrit Andrew Berry dans la London Review of Books. Il passait son temps à mesurer, évaluer, comparer – allant là encore du plus sophistiqué (il a « inventé » l’écart type et contribué à la mise au point des concepts clés de régression et de corrélation statistiques) au plus terre à terre : il se promenait dans les rues des villes britanniques avec des petites feuilles cartonnées qu’il répartissait dans ses différentes poches pour mesurer la proportion de jolies femmes (Londres en tête, Aberdeen en queue de classement). Parallèlement, il fut aussi un pionnier de la génétique, plus exactement de la prédétermination génétique, pour laquelle il se sentait génétiquement prédéterminé : Darwin était son cousin.

C’est d’ailleurs la génétique qui a conduit Francis Galton à s’essayer, sur le tard, au roman. Il s’est tourné vers la fiction pour pouvoir (impunément ?) pousser aux extrêmes ses fantasmes « eugénistes », mot qu’il a d’ailleurs inventé. Kantsaywhere est un récit futuriste, situé « on ne sait où » ni quand, mais en tout cas dans un pays où l’on prend au sérieux l’amélioration de la population par sélection génétique. Cet étrange récit décrit en effet le processus de sélection d’un collège créé pour recruter des élèves sur des critères exclusivement génétiques. Les jeunes candidats sont d’abord mesurés, examinés, pesés, palpés et quantifiés sous toutes les coutures ; puis leurs sens et leurs facultés corporelles sont évalués sur le terrain ; on détermine aussi leurs capacités intellectuelles (littéraires et artistiques exclusivement !) ; et l’on se penche enfin – surtout ? – sur leur pedigree (ceux qui n’ont pas toute l’information généalogique à leur disposition, comme les immigrants, souffrent d’un handicap de départ). Au terme du processus, si l’enfant est jugé apte, il sera éduqué, pourra se marier (à 22 ans), et se reproduire. Sinon, pas de collège, mais un camp de travail aux conditions « peu rigoureuses », pourvu que soit respectée cette obligation sacro-sainte : pas de bébés !

Les héritiers de Galton ont refusé la publication du manuscrit de Kantsaywhere, même passablement expurgé. Le fait qu’y soit évoquée la « manipulation de vies sexuelles » a sans doute pesé, d’autant que les descriptions des examens médicaux « sont empreintes d’un érotisme diffus », comme l’explique l’University College de Londres, dépositaire du texte. Mais plus encore que de pudeur, la famille Galton a su faire preuve « d’une méfiance prémonitoire remarquable vis-à-vis des implications politiques de la doctrine eugénique ».
L’écart entre sélection « positive » et « négative », ou « sélection » et « désélection », n’est en effet pas bien grand, et la doctrine eugéniste a vite connu les dérives que l’on sait. Mais en 1913 de nombreux bons esprits, dont George Bernard Shaw et le fils Darwin, avaient salué la naissance du premier bébé (eu)génétiquement programmé. C’était une petite fille. Son prénom ? Eugenette.


1| Petit manuel de survie, Poche, 2004.
 

Kibitzer

« Un fameux kibitzer, le Homais de Flaubert. Tu parles tranquillement et le voilà qui intervient : “Oh ! Mais…” Oui, un fameux kibitzer ! »

Daniel Pennac

 

Kibitzer, nom yiddish désignant une personne qui donne son avis sans qu’on le lui ait demandé.

Aidez-nous à trouver le prochain mot manquant.

Existe-t-il dans une langue un mot pour désigner une personne qui laisse toujours payer les autres ?

Écrivez-nous :

Aux origines de la révolution numérique

Qui a inventé l’ordinateur et Internet ? Peu de personnes le savent, relève Walter Isaacson en ouverture de Innovators, un gros livre de 500 pages dont l’objectif est de raconter l’histoire de la naissance et du développement de ces deux innovations techniques majeures de la seconde moitié du vingtième siècle. Contrairement à une image répandue au point d’être devenue un cliché, fait-il observer, ces deux composantes de ce qu’il est convenu d’appeler la « révolution numérique » ne sont pas sorties tout armées du cerveau de quelques génies solitaires enfermés dans une mansarde ou bricolant dans un de ces fameux garages californiens censés avoir vu leur gestation. Elles sont le produit d’un effort collectif de plusieurs dizaines d’années, le fruit d’une floraison de travaux menés en collaboration par de nombreux scientifiques, ingénieurs, entrepreneurs et amateurs doués, dont seules quelques figures archi-célèbres comme celles de Bill Gates et Steve Job sont familières du grand public.

On pourrait s’étonner de voir Walter Isaacson se lancer dans une histoire collective de l’informatique. Ancien PDG de la chaîne télévisée CNN et ex-directeur de la rédaction du magazine Time, cet homme de presse et écrivain est en effet connu comme l’auteur de plusieurs solides biographies grand public d’individus à la personnalité forte et singulière : Benjamin Franklin, Henry Kissinger, Albert Einstein et, tout récemment, Steve Job. Écrit à la demande de l’intéressé, qui se savait condamné par le cancer du pancréas dont il était atteint, ce dernier ouvrage, pour lequel Isaascon avait dû interrompre la rédaction de ce qui allait devenir Innovators, est une biographie « autorisée ». Rien n’y est cependant dissimulé des traits de caractère les moins avenants et les plus singuliers du charismatique patron de Apple, de ses manières agressives et méprisantes, et du comportement capricieux et tyrannique qui font partie intégrante de sa légende.

Bien avant de composer cette série de portraits individuels, Isaacson, en collaboration  avec Evan Thomas et sous le titre  The Wise Men: Six Friends and the World They Made, avait toutefois publié un essai très réussi de portait de groupe : celui de six hommes politiques et diplomates américains de la même génération liés professionnellement et unis par des relations d’amitié, qui ont contribué à façonner la politique étrangère des États-Unis après la seconde guerre mondiale (les plus connus sont Averell Harriman, Dean Acheson et George Kennan, le père de la politique du « containment » de l’URSS durant la période de la guerre froide). Avec Innovators, Walter Isaacson a voulu renouer avec l’esprit de cet ouvrage de jeunesse.

Le récit de l’aventure qu’il a décidé de raconter dans ce nouveau livre est loin d’être inédit. De nombreux ouvrages ont été consacrés à la préhistoire et aux premiers âges de l’informatique, par exemple, pour ne citer que quelques-uns parmi les plus connus, le classique L’Éthique des hackers de Steven Levy, plus récemment L’information, de James Gleick, dont un des héros est le père de la théorie de l’information Claude Shannon, ou Turing’s Cathedral de George Dyson. Sur les débuts d’Internet, la création du World Wide Web, l’histoire d’IBM, Intel, Apple, Microsoft, Google, Amazon et Facebook, les hommes qui ont créé ces sociétés et les produits qui en ont fait parmi les plus riches et prospères du monde, il existe une littérature extraordinairement abondante, qui va de livres d’histoire populaire parfois proches de la propagande commerciale à des études universitaires très savantes, en passant par une série de biographies plus ou moins sérieuses tombant quelquefois dans l’hagiographie.

De l’exploitation de cette littérature et des nombreux entretiens qu’il a eus au cours de plusieurs dizaines d’années avec une série de protagonistes de cette histoire, Isaacson a tiré un livre captivant, bourré d’informations et d’anecdotes. Un de ses grands atouts est sa capacité d’expliquer d’une manière claire et compréhensible par un lecteur dépourvu de connaissances particulières dans le domaine les aspects les plus ardus des développements qu’il mentionne. Organisé selon un ordre chronologique, son récit conduit des premiers calculateurs mécaniques et électromécaniques à Google et Wikipédia en passant par les ordinateurs électroniques à tubes à vide, l’invention du transistor, du circuit intégré et du micro-processeur, le développement des interfaces graphiques et de la « souris », la mise au point de la commutation par paquets puis de l’hypertexte, etc. Dans chaque cas, Isaacson veille à ne jamais faire référence à une réalisation technique sans en expliquer la nature et sans définir les concepts sur lesquels elle repose.

1.     L’ère du « hardware »   

Steve Job aimait rappeler la déclaration attribuée à Picasso : « Les bons artistes copient, les grands artistes volent ». Que beaucoup parmi les pionniers de l’informatique, artistes à leur manière, ont été de grands voleurs d’idées est un des faits qui ressortent le plus clairement du récit de Walter Isaacson. Une bonne partie des inventions qui ont constitué autant d’étapes-clé dans l’histoire de l’informatique ont de fait été le produit de l’exploitation, par ceux qui en sont les auteurs, d’idées en partie ou totalement attribuables, dans leur formulation initiale, à d’autres qu’eux. Isaacson considère cela comme une caractéristique fréquente, normale et inévitable du processus d’innovation, ce qu’il montre sur plusieurs exemples.

Une question récurrente dans les livres sur l’histoire de l’ordinateur est celle de la machine pouvant légitimement revendiquer le titre de premier ordinateur au monde. Les prétendants sont nombreux. L’ordinateur moderne est un dispositif électronique, traitant l’information sous forme numérique, plus précisément en base binaire, sous la forme d’une suite  de « 0 » et de « 1 », programmable et à vocation universelle, capable, non seulement de combiner des chiffres et de faire des calculs, à l’instar des premiers calculateurs, mais de manipuler toutes les informations exprimables sous forme de symboles pour exécuter un vaste éventail de tâches. Comme les machines à calculer de Pascal et Leibniz, la «  Machine  à différences »  de l’ingénieur anglais Charles Babbage, au XIXème siècle, restée à l’état de prototype, n’était qu’un calculateur très sophistiqué. Il n’en va pas de même de sa seconde machine, la  « Machine analytique », jamais réalisée, dont les opérations auraient dû être programmées à l’aide de cartes perforées comme celles utilisées par Jacquard pour son métier à tisser, et qui avait vocation de machine universelle. Comme les trois précédentes, il s’agissait toutefois d’un dispositif purement mécanique. Le Model K de George Stibiz, en 1937, dont un modèle fut construit aux Bell Labs en janvier 1940, était un ordinateur binaire, contrôlable à distance, mais une machine à usage spécifique fonctionnant à l’aide de relais électromécaniques. Plus avancée, la machine Z3 de Konrad Suze, réalisée en Allemagne durant la seconde guerre mondiale, peut être considérée comme le premier ordinateur à contrôle automatique, binaire et électrique. Conçue pour résoudre des problèmes précis d’ingénierie, elle aurait cependant pu être utilisée comme machine universelle. Mais il s’agissait aussi d’une machine électromécanique, qui de toute façon ne fut jamais mise en service. C’est aussi le cas de la machine imaginée par John Vincent Atanassof à l’université d’État de l’Iowa, un ordinateur à tubes à vide en partie électronique seulement, destiné de surcroît à un usage unique, la résolution d’équations linéaire. Colossus, la célèbre machine sur laquelle Alan Turing et de nombreux scientifiques anglais, durant la deuxième guerre mondiale, travaillèrent à Benchley Park pour déchiffrer le code de la machine allemande de cryptage Enigma, peut être considéré comme le premier ordinateur électronique, numérique et programmable. Mais il n’était défini que pour l’utilisation particulière qui l’a fait entrer dans l’histoire.

De l’avis unanime, le premier dispositif pouvant être considéré comme un ordinateur au sens plein du mot est la machine ENIAC conçue et construite par l’ingénieur Presper Eckert et le physicien John Mauchly à l’université de Pennsylvanie. Mis en service en 1945, ENIAC, qui comportait près de 18.000 tubes à vide, pesait presque trente tonnes et occupait un espace équivalent à celui d’un petit appartement de trois pièces, avait été réalisé à la demande de l’armée américaine, et grâce à un financement de celle-ci, pour exécuter automatiquement et beaucoup plus rapidement qu’à la main les longs et complexes calculs nécessaires pour établir, en balistique, les tables de tir. Il était entièrement électronique, numérique (opérant toutefois grâce à système en base 10 plutôt que binaire) et il s’agissait d’une vraie machine universelle et programmable. Pour l’imaginer, Eckert et Mauchly s’étaient inspirés des travaux de plusieurs autres scientifiques et techniciens, notamment ceux de John Vincent Atanassof, avec qui Mauchly avait eu une série d’échanges, par lettres et à l’occasion d’une visite qu’il lui avait faite. Quelques années plus tard, l’intéressé prit prétexte de ces contacts, pour soutenir qu’ENIAC avait été développé sur la base d’idées que ses inventeurs lui avaient volées.

Après avoir quitté l’université de Pennsylvanie et fondé une société, Eckert et Mauchly avaient introduit en 1947 une demande de brevet pour ENIAC. Elle leur fut accordée très longtemps après, en 1964. Mais un des fabricants avec lesquels la compagnie qui avait racheté la leur était en pourparlers en vue de l’octroi d’une licence, Honeywell, dans le but de réduire ses frais, engagea une action en contestation de la validité du brevet. Atanassof, qui considérait ne pas avoir reçu crédit pour ses travaux pionniers, se fit un plaisir de s’enrôler au service des plaignants. Un procès eu lieu, qui dura neuf mois. Atanassof s’y montra brillant et Mauchly peu convaincant. Pour cette raison, et parce qu’Eckert et Mauchly avaient commis l’erreur de définir le champ de protection de leur brevet de manière trop large, le juge déclara celui-ci invalide.

Il serait cependant incorrect, fait valoir Isaacson, de conclure de cette décision judicaire qu’ENIAC est le produit d’un vol intellectuel dont Atanassof aurait été la victime. Les idées de ce dernier ne représentaient qu’une petite partie de toutes celles que Mauchly « collectait dans son panier » à l’occasion de rencontres et de conférences. Et c’est bien à lui et son associé que revient le mérite d’avoir construit le premier ordinateur de l’histoire : «  Mauchly et Eckert doivent être placés au sommet de la liste des personnes que l’on peut créditer d’avoir inventé l’ordinateur, non parce que les idées [à la base d’ENIAC] étaient toutes les leurs, mais parce qu’ils avaient eu le talent d’emprunter des idées à de multiples sources, d’y ajouter leurs propres innovations et de réaliser leur vision à l’aide d’une équipe compétente, et parce que ce qu’ils ont fait a eu le plus d’influence sur la suite des développements [dans ce domaine] ».

Des épisodes de ce genre se retrouvent tout au long de l’histoire de l’ordinateur et d’Internet. Un d’entre eux s’est produit à l’occasion de ce qui en a constitué l’étape immédiatement suivante, et ses protagonistes étaient en partie les mêmes. Peu après avoir réalisé ENIAC, l’équipe responsable de la machine s’adjoignit les services de l’excentrique mathématicien de génie John von Neumann, avec lequel Eckert, Mauchly et leurs collaborateurs eurent de nombreuses, intenses et fructueuses discussions. De celles-ci allait sortir le projet d’une machine plus avancée, EDVAC, également construite pour l’armée américaine. Contrairement à ENIAC, mais comme les ordinateurs d’aujourd’hui, EDVAC calculait en mode binaire. Surtout, la machine était conçue en conformité avec ce qu’on appelle depuis lors l’« architecture de von Neumann », qui a pour caractéristique de regrouper les instructions de programmes et les données dans un même structure de stockage prenant la forme d’une mémoire effaçable et réinscriptible, ce qui permet à l’ordinateur de changer de programme en cours d’exécution d’une tâche.

Von Neumann avait résumé les principes de cette architecture et son mode de fonctionnement dans un document qui constituait dans son esprit la synthèse des travaux de l’équipe constituée autour d’ENIAC. Sans qu’il l’ait apparemment délibérément recherché, ce rapport fut publié sous son seul nom. Eckert et Mauchly en prirent ombrage en faisant valoir que von Neumann s’appropriait ainsi les résultats d’un travail collectif.  Leur ressentiment s’accrut lorsqu’ils voulurent breveter certains concepts sur lesquels étaient basés ENIAC et EDVAC. Connu pour sa propension à s’emparer des idées des autres et sa capacité à les développer bien au-delà du point où leurs auteurs les avaient poussées, von Neumann était surtout soucieux de faire progresser les connaissances et n’accordait que peu d’importance aux revendications de paternité intellectuelle. En décidant, conformément à cette vision du travail créatif, de faire circuler ouvertement son rapport, il avait ipso facto placé les concepts dont Eckert et Mauchly voulaient protéger l’exploitation dans le domaine public, ce qui rendait l’octroi des brevets demandés impossible. Comme on sait, à l’exception des groupes et individus se réclamant de la philosophie de l’« Open Source » ou du mouvement des logiciels libres fondé par Richard Stallman, qui a notamment donné lieu au système d’exploitation GNU/Linux de Linus Torvalds, les grands acteurs du monde de l’informatique tendent aujourd’hui à tourner le dos à l’approche qui était encore celle de von Neumann au profit d’une logique « propriétaire » : en 2011, fait remarquer Isaacson, Apple et Google ont dépensé davantage en procédures judiciaires et achats de brevets qu’en recherche et développement.

2.     Du transistor à l’ordinateur portable

Comme celle de l’ordinateur, l’invention du transistor, en 1947, eut lieu sur la côte Est des États-Unis, plus précisément dans les laboratoires de la société AT§T Bell. Pertinemment baptisés par Jon Gertner en une expression servant de titre au livre qu’il a consacré à leur histoire The Idea Factory, les Bell Labs sont un des hauts lieux de la recherche appliquée américaine. À huit reprises, des travaux qui y ont été réalisés ont été récompensés par le Prix Nobel. Une des plus fameuses découvertes qui y ont eu lieu est celle (assez fortuite en réalité) du rayonnement cosmique fossile à 3° K par Arno Penzias et Robert Wilson, qui apporta une preuve de poids à la théorie cosmologique du Big Bang ; un autre haut fait, encore plus célèbre, est précisément l’invention du transistor, qui valut la récompense scientifique suprême à trois de leurs chercheurs : William Shockley, John Bardeen et Walter Brattain.

Beaucoup moins fragile, volumineux et cher que le tube à vide, le transistor permet d’assurer dans de bien meilleures conditions et plus efficacement que lui les deux fonctions d’amplification d’un courant électrique et d’interrupteur. S’il est à l’origine de la révolution numérique, c’est parce qu’il permet de réaliser automatiquement sous une forme compacte, dans un dispositif résistant et de peu d’encombrement, des « portes logiques » capables d’effectuer des calculs en mode binaire selon les règles de l’algèbre de Boole. Les trois hommes à qui en revient la paternité formaient un assemblage exemplaire de personnalités différentes aux profils complémentaires : William Shockley était un physicien du solide, Bardeen un théoricien spécialisé en physique quantique et Brattain un expérimentateur. Leur collaboration allait s’avérer scientifiquement féconde, mais extrêmement éprouvante au plan humain. La faute en revient à William Shockley, personnage peu avenant qu’Isaacson ne fait aucun effort pour présenter comme aimable et qui, dans son récit, fait un peu figure du vilain de l’histoire. Brillant et capable d’inspirer par sa vision puissante, Shockley était aussi extrêmement autoritaire, jaloux, soupçonneux et enclin à une paranoïa qui ne fit que s’aggraver avec le temps : à la fin de sa vie, de plus en isolé, il développait des vues délirantes sur la supériorité intellectuelle de la race blanche et la nécessité de l’eugénisme.

Le transistor exploite les propriétés des métaux semi-conducteurs comme le silicium et le germanium. Contrairement aux matériaux isolants, les semi-conducteurs peuvent conduire le courant électrique, mais à l’opposé des  matériaux conducteurs ils ne peuvent le faire que dans certaines conditions, lorsqu’ils sont « dopés » par des impuretés. Après de nombreuses tentatives plus ou moins fructueuses, Bardeen et Brattain, qui travaillaient sous la supervision de Shockley, réussirent à élaborer un dispositif basé sur ce principe. Ravi que le transistor ait été inventé dans son laboratoire, mais amer de n’avoir pas été l’auteur de l’idée sur lequel il était basé, Shockley, sans en rien dire à ses collaborateurs, s’employa à imaginer un autre procédé moins artisanal que celui qu’ils avaient employé, qui impliquait l’utilisation d’électrodes. Animé par des raisons qui n’avaient donc rien de noble, il inventa le transistor à jonction bipolaire, la forme sous laquelle le transistor allait se développer, qui consiste en un sandwich de trois couches de semi-conducteurs, deux couches (négatives) dotées d’un excès d’électrons enserrant une couche (positive) déficitaire en électrons (dans certains cas moins fréquents, c’est l’inverse).

Shockley, Bardeen et Brattain furent tous les trois récompensés par le Prix Nobel pour cette réalisation. Mais c’est toujours avec réticence que le premier accepta d’en partager le crédit avec les deux autres. En conflit de plus en plus ouvert avec ses collaborateurs, mais aussi avec la direction des Bell Labs, Shockley décida, pour exploiter le transistor, de créer sa propre société à Palo Alto, en Californie, où il avait grandi. Plusieurs  laboratoires et entreprises travaillant pour l’armée américaine y étaient déjà installés, ainsi que la société Hewlett-Packard, fondée dans un garage durant la Grande Dépression. Il est courant de dater de la fondation de la compagnie Shockley Semiconductor l’essor de la Silicon Valley.

Parce que le caractère de Shockley n’avait pas changé, huit de ses meilleurs collaborateurs quittèrent au bout d’un certain temps la société pour fonder la leur comme la division semi-conducteurs de Fairchild, une compagnie travaillant pour l’armée américaine. Parmi ceux-ci figuraient notamment Robert Noyce et Gordon Moore. Robert Noyce était l’inventeur d’un procédé de fabrication des circuits intégrés, dispositifs compacts rassemblant sur un seul support plusieurs composants électroniques (au début uniquement des transistors, puis également des condensateurs et des résistances), dont les plus complexes sont les microprocesseurs, unités complète de traitement sous un très faible volume. Un autre procédé, moins élégant, avait été mis au point peu auparavant par Jack Kilby de la société Texas Instrument. Les deux procédés avaient fait l’objet d’une demande de brevet. Après de longues années, la controverse qui s’en suivit se termina à l’avantage de Noyce. Entretemps, le marché pour ce produit ayant explosé, les deux sociétés avaient passé des accords de licence croisée pour exploiter cette technologie en commun. Kilby obtint seul le prix Nobel pour l’invention du circuit intégré, parce que Noyce était décédé au moment où il lui fut décerné. Mais les deux hommes avaient toujours conservé une forte estime mutuelle et ne manquaient jamais une occasion de faire l’éloge de la contribution apportée par l’autre. « C’étaient des personnes décentes » commente Isaacson, « provenant de petites communautés soudées du Midwest. […] Contrairement à Shockley, ils ne souffraient pas d’un mélange toxique d’insécurité et d’inflation de l’ego. »

Des tensions au sein de Fairchild poussèrent Noyce et Moore à abandonner la société pour en fonder une nouvelle. Ce fut Intel, dont un des premiers employés était un autre transfuge de Fairchild, Andrew Grove, qui allait au bout d’un temps en devenir le PDG. Ici aussi, on avait affaire à un trio d’individus aux qualités complémentaires : Noyce et Moore étaient des théoriciens, Grove un homme pratique et un gestionnaire efficace.

Avec cette suite d’épisodes se sont manifestés pour la première fois de façon éclatante trois traits qui allaient caractériser de façon durable la culture de la Silicon Valley. Leur association a profondément marqué l’histoire de l’informatique aux États-Unis et a fini par engendrer un profil particulier d’entreprise innovante qui s’est répandu dans d’autres secteurs technologiques et d’autres régions du monde, où il est souvent (un peu trop rapidement) perçu comme l’unique modèle possible, à suivre absolument. Le premier de ces traits est la propension des chercheurs et ingénieurs ayant effectué une découverte ou mis au point une technologie à créer leur propre entreprise pour exploiter au plan économique le produit de leur ingéniosité. Jusqu’à la fin des années 1950, rappelle un expert cité par Isaacson, « la culture d’entreprise qui existait [aux États-Unis] était que l’on travaillait pour une compagnie et que l’on restait dans cette compagnie jusqu’à sa retraite. […] C’étaient là les valeurs traditionnelles de la côte Est, et même de l’Amérique du Midwest ». En quittant les Bell Labs pour fonder sa propre société en Californie, William Shockley ne faisait pas que donner le coup d’envoi à l’essor de la Silicon Valley. Il inaugurait aussi une tradition que ses successeurs allaient contribuer à renforcer.

Tant la création de Fairchild Semiconductors que celle d’Intel n’ont par ailleurs été possibles qu’avec un financement de capital à risque. Cette formule est aujourd’hui presque identifiée avec le financement de la technologie, mais elle représentait alors une véritable innovation. Enfin, notamment parce que Noyce venait d’un milieu marqué par la doctrine protestante congrégationaliste, caractérisée par le rejet de l’autorité et de la hiérarchie, avec Intel est apparu un type d’organisation interne des entreprises basé sur une structure « horizontale » et des rapports (relativement) peu hiérarchiques matérialisés par la disparition des bureaux directoriaux et la création d’un espace de travail commun ouvert, « en paysager », divisé en coins individuels par des demi-cloisons : même après être devenu PDG de l’entreprise, Andrew Grove travaillait au milieu de ses ingénieurs et développeurs.

Gordon Moore a attaché son nom à la très connue « loi de Moore » de croissance exponentielle de la puissance des circuits intégrés, une loi empirique vérifiée sur une période d’à présent 50 ans qui stipule que le nombre de transistors placés sur un circuit intégré double approximativement tous les deux ans. La progression explosive des capacités de traitement sous un volume de plus en plus réduit qui en résulte a rendu possible la naissance de l’ordinateur personnel.

L’histoire de la genèse de celui-ci est l’un des deux sujets de la seconde partie du récit d’Isaacson. Si la première partie se passait principalement sur la côte Est, celle-ci se déroule largement en Californie, plus particulièrement dans la Silicon Valley. Il ne faut cependant pas se méprendre au sujet du rôle joué par cette mythique région dans l’aventure de la révolution numérique. Piero Scaruffi le souligne dans son excellent ouvrage A History of Silicon Valley 1900-2014 : « L’ordinateur n’a pas été inventé dans la Silicon Valley, et la Silicon Valley n’a pas inventé le transistor, le circuit intégré, l’ordinateur personnel, Internet, le World-Wide-Web, le navigateur, le moteur de recherche ou les réseaux sociaux. La Silicon Valley n’a pas non plus inventé le téléphone, le téléphone cellulaire ou le smartphone. Mais à un moment ou un autre, la Silicon Valley a été déterminante pour disséminer ces inventions en perfectionnant des produits que le monde attendait ».

Ce n’est de fait pas dans la Silicon Valley qu’ont été produites les premières machines pouvant être qualifiées d’ordinateurs personnels, mais au Texas et dans la région de Los Angeles. Mais c’est bien dans la Silicon Valley que l’ordinateur personnel est devenu le moteur de la révolution numérique qu’il a été jusqu’à l’apparition du téléphone portable. Pour quelle raison ? Comme Scaruffi, Isaacson met en avant un facteur culturel. La présence dans la région de la Bay Area, près de San Francisco, de fortes communautés d’artistes libertaires, d’activistes de la Nouvelle Gauche et de représentants de la contreculture et du mouvement hippie, soutient-il, a joué un rôle de ferment dans l’essor de l’idée d’une appropriation de l’informatique par les individus.

Par l’intermédiaire de quel mécanisme ? Isaacson n’est pas très précis à ce sujet, et la description qu’il fait du bouillon de culture qu’a été à ses yeux ce milieu, qui emprunte volontiers au tableau qu’en a donné le pape du « nouveau journalisme » Tom Wolfe, n’est pas la partie la plus convaincante de son livre. Il montre cependant très bien le rôle joué, dans la mise en rapport du monde de la subversion politique et culturelle et de celui de la technique, par Steward Brand, éditeur et auteur du célèbre Whole Earth Catalog. Convaincu que l’ordinateur pouvait aider à changer en profondeur la société en arrachant le pouvoir des mains des grandes entreprises et du gouvernement pour le placer dans celles des individus, Brand déployait beaucoup de zèle pour entretenir l’agitation intellectuelle autour du concept d’un ordinateur à l’usage des particuliers.

La première formulation de cette idée était apparue dans un article publié dans le magazine The Atlantic Monthly par un personnage clé de l’histoire de la politique scientifique aux États-Unis, Vannevar Bush, conseiller scientifique  du Président Franklin D. Roosevelt, architecte de la collaboration triangulaire étroite entre le gouvernement (plus particulièrement le département de la défense), l’industrie et l’université qui allait s’avérer centrale dans la politique technologique américaine de l’après-guerre (notamment en électronique et informatique), et auteur du fameux rapport Science : The Endless Frontier qui a donné naissance à la National Science Foundation (NSF), l’agence fédérale américaine de  financement de la recherche. Dans cet article intitulé « As We May Think », Bush, qui en 1931 avait construit une machine  électromécanique analogique, imaginait sous le nom de «  Memex » un système d’encyclopédie électronique individuelle qui, par la manière dont il était pensé et censé fonctionner, annonçait à la fois l’ordinateur personnel, Internet, le World Wide Web et même Wikipédia.

Pour qu’une telle idée puisse se concrétiser, des progrès considérables étaient toutefois nécessaires dans trois domaines : le « hardware », auquel est largement consacrée la première partie du récit d’Isaacson, mais aussi les logiciels (« software ») et les dispositifs d’interface, qui font l’objet de sa deuxième moitié. Une étape décisive dans ce dernier domaine a été la mise au point de la « souris » par l’ingénieur Doug Engelbart, l’une des personnes qui avaient pris le plus au sérieux l’idée du système Memex. La souris n’était qu’une des inventions conçues par Engelbart pour réaliser un dispositif de stockage, de traitement et d’échange d’informations à même de matérialiser ce qu’il appelait l’idée d’« intelligence augmentée ». À l’occasion d’une démonstration spectaculaire organisée en décembre 1968 à l’initiative de Steward Brand, Engelbart présenta à un public subjugué la manière dont la combinaison de ces outils permettait de créer des documents à distance, de manipuler des tableaux et graphiques, de modifier les mises en page, en un mot, résume Isaacson, de faire tout ce que l’on peut accomplir aujourd’hui à l’aide d’un ordinateur personnel branché sur le réseau. (« C’est la meilleure chose [qu’on ait inventé] juste après l’acide (LSD) » est censé avoir commenté Ken Kesey, figure emblématique de la contreculture, après que Steward Brand lui eut fait visiter le laboratoire d’Engelbart).

Le travail réalisé par Engelbart avait très impressionné un jeune ingénieur nommé Alan Kay. Kay, qui travaillera par après pour Apple, a effectué la première partie de sa carrière dans le laboratoire ouvert par la société Xerox à Palo Alto, Xerox PARC, qui allait devenir le berceau de plusieurs développements fondamentaux dans l’histoire de l’informatique. À l’instar d’Engelbart, c’était un visionnaire. « Lorsqu’il se rendit à [XEROX] PARK pour son entretien d’embauche formel » raconte Isaacson, « Kay se vit demander ce qu’il espérait que serait sa plus grande réalisation. « Un ordinateur personnel » répondit-il. Interrogé sur ce dont il s’agissait, il s’empara d’un porte-document de la dimension d’un carnet de note, ouvrit sa couverture et dit : « Il y aura un système d’affichage sur écran plat. Un clavier, ici à la base, et suffisamment de capacités [de mémoire] pour stocker son courrier, des dossiers, de la musique, des images et des livres. Le tout dans un dispositif d’à peu près cette taille, pesant un ou deux kilos ». Ceci se passait en 1970, soit une bonne quinzaine d’années avant le moment où finit par apparaître, sous la forme de l’ordinateur portable, un objet répondant à cette description.

3.     La guerre des logiciels et des interfaces  

La partie de l’histoire qui suit est assez connue, puisque c’est largement l’histoire d’Apple et de Microsoft. On serait tenté de dire l’histoire de Steve Job et Bill Gates si, comme cela été le cas avec Mauchley et Eckert, ou Bardeen et Brattain, et comme ce le sera plus tard avec les fondateurs de Google Sergey Brin et Larry Page, ces deux hommes n’avaient l’un et l’autre opéré en association étroite avec un partenaire : Paul Allen pour Bill Gates, et Steve Wozniak  pour Steve Job.

Comme ceux qui les précédèrent, les épisodes de cette partie entremêlent des moments d’authentique créativité originale, de fécondation intellectuelle mutuelle et d’emprunts prédateurs d’idées développées par d’autres. Le cas de Bill Gates est exemplaire à cet égard. Programmeur extraordinairement doué, capable de se concentrer de façon presque surhumaine sur un problème, travailleur acharné qui avait l’habitude de rester trente-six heures d’affilée devant un terminal en se nourrissant de pizzas et de Coca-Cola, Gates était également un esprit rebelle, réfractaire à la discipline universitaire et collectionnant les condamnations pour excès de vitesse.

C’était surtout un homme d’une détermination extrême sachant parfaitement où il voulait aller, en même temps qu’un négociateur redoutable en affaires. Convaincu que l’avenir de l’informatique se jouait dans le domaine logiciel, c’est sur la programmation qu’il concentrait ses efforts. Son premier succès dans ce domaine fut d’écrire avec Paul Allen un interprète du langage Basic pour le micro-ordinateur Altair de la société MITS. Le contrat qu’Allen et lui, qui allaient bientôt fonder ensemble la société Microsoft, passèrent avec MITS, stipulait que les deux programmeurs conservaient la propriété du logiciel, que MITS ne pouvait exploiter que sous licence. Pour illustrer à quel point l’attitude très déterminée de Gates en matière commerciale s’est tôt manifestée, Isaacson cite in extenso une lettre ouverte qu’il a adressée à l’âge de 19 ans aux amateurs (« hobbyists »), accusant de vol ceux d’entre eux qui utilisaient sans payer de royalties le logiciel d’Altair, dont le développement, écrivait-il, avait coûté 40.000 dollars de temps d’ordinateur. Sur le principe, il avait raison, commente Isaacson, ajoutant toutefois qu’il fallait tout de même une certaine audace pour écrire une telle lettre, les 40.000 dollars en question n’ayant jamais été acquittés par Gates, qui avait utilisé gratuitement les terminaux de l’université Harvard.

Quelques années plus tard, Bill Gates, qui avait engagé son ancien condisciple Steve Ballmer (futur PDG de Microsoft), réussissait un coup de maître en concevant pour IBM le système d’exploitation MS-DOS, en une opération démontrant avec brio son habileté en affaires. Pour développer MS-DOS, Gates et Allen commencèrent par acheter pour la somme dérisoire de 50.000 dollars un système d’exploitation fabriqué par un certain Tim Paterson, qui travaillait pour une firme de Seattle, sans préciser au vendeur l’usage qu’ils envisageaient d’en faire. Après avoir adapté ce système, ils le vendirent à IBM pour 186.000 dollars seulement, mais dans des conditions qui allait faire la fortune de Microsoft : aux termes du contrat, IBM ne disposait que d’une licence non-exclusive, ce qui autorisait Microsoft à accorder une licence pour ce système à d’autres fabricants d’ordinateurs. Microsoft conservait par ailleurs la propriété du code source. Gates avait anticipé l’arrivée sur le marché de nombreux clones du PC d’IBM, et, avec MS-DOS se retrouvait propriétaire d’un standard industriel de facto.

Entretemps, Steve Jobs et Steve Wozniak avaient créé Apple, et mis successivement sur le marché deux modèles d’ordinateur personnel, l’Apple I et l’Apple II. Avec ce dernier, Jobs avait établi une doctrine dont il n’allait jamais s’écarter : dans les produits de sa société, le « hardware » et le système d’exploitation étaient étroitement liés. Il avait par ailleurs eu l’occasion, lors d’une visite au Xerox PARC, de découvrir tout ce qui avait été inventé par Doug Engelbart, Alan Kay et leurs collègues en matière d’interface, notamment la souris, le principe de la fenêtre et les images en mode-point  (« bitmapping »), dans lesquels chaque pixel est contrôlé indépendamment par l’ordinateur. De retour au siège d’Apple, Jobs donna consigne à ses collaborateurs d’incorporer, en l’améliorant, l’interface graphique de Xerox dans les produits en préparation, plus particulièrement le futur Macintosh.

Le conflit  avec Microsoft était inévitable. Au début des années 1980, les deux sociétés entretenaient de bons rapports. Les programmeurs de Microsoft écrivaient d’ailleurs des programmes pour l’Apple II, et lorsque le projet du Macintosh fut dévoilé, Gates proposa que Microsoft en développe le logiciel. Mais Steve Jobs était soupçonneux et craignait que Microsoft ne copie l’interface graphique. Par précaution, il fit insérer dans le contrat avec Microsoft une clause selon laquelle la société s’engageait à ne produire pour aucune autre compagnie qu’Apple, jusqu’à la fin de 1983, des programmes impliquant l’utilisation d’une souris ou d’une interface graphique. Mais le « champ de distorsion de la réalité » de Jobs, qui lui faisait souvent voir les choses comme plus facilement réalisables qu’elles n’étaient, lui fut fatal. Contrairement à ses prévisions trop optimistes, le Macintosh ne sortit pas à la fin de 1982, mais au début de 1984. Entretemps, Microsoft avait recruté un ancien collaborateur d’Alan Kay, et bientôt Bill Gates annonçait que sa société était en train de développer un nouveau système d’exploitation utilisant une interface graphique pour les ordinateurs IBM et leurs clones. C’était Windows, qui sortit en 1985.

Furieux, estimant que Gates l’avait trahi, Steve Jobs fit venir le patron de Microsoft au siège d’Apple, à Cupertino. Dans une salle de réunion remplie d’employés d’Apple qui n’avaient d’yeux que pour leur patron, raconte Isaacson, Steve Jobs se mit à hurler avec véhémence : «  Tu nous arnaques ! J’avais confiance en toi et tu es en train de nous voler ». À quoi Bill Gates, « qui avait l’habitude de devenir de plus en plus calme et détendu quand Jobs sombrait dans l’hystérie », répliqua de sa voix aigüe : « Eh bien, Steve, il y a plusieurs manières de voir les choses. On pourrait dire que nous avions tous les deux un riche voisin nommé Xerox. Je suis entré par effraction dans sa maison pour voler la TV, mais je me suis aperçu que tu avais  déjà fait main basse sur l’appareil ».  La guerre entre Apple et Microsoft était déclarée et elle ne prit jamais fin. Les deux sociétés la menèrent en s’appuyant sur deux stratégies opposées, conduisant à des résultats très différents : « La principale raison du succès de Microsoft était la volonté et la disponibilité de la firme à accorder licence pour son système d’exploitation à n’importe quel fabricant de matériel informatique. Apple, par contraste, opta pour une approche  intégrée. Son matériel venait exclusivement avec son logiciel et vice-versa. Jobs était un artiste, un perfectionniste, donc un obsédé du contrôle qui voulait être en charge de l’expérience de l’utilisateur du début à la fin. L’approche d’Apple a engendré à de plus beaux produits, une marge de profit plus élevée et une expérience plus sublime pour l’utilisateur. L’approche de Microsoft permettait un plus grand choix de matériel. Elle s’est aussi révélée plus efficace pour gagner des parts de marché ».

Jamais, comme on sait, Apple n’a abandonné l’approche choisie par Jobs, qui a continué à être celle de la société pour les générations ultérieures de technologies et de produits, les smartphones et les tablettes. Bien que Steve Jobs lui-même ne l’ait jamais reconnu, souligne Fred Vogelstein dans Battle of Titans, le récit de la bataille féroce opposant aujourd’hui Apple et Google pour la domination du marché de ces deux produits, la similarité de ce conflit avec celui qui mit aux prises Apple et Microsoft vingt ans auparavant est manifeste : avec Androïd, le système d’exploitation pour systèmes mobiles qu’il contrôle après avoir racheté la société qui l’a mis au point, Google reproduit la stratégie couronnée de succès de Microsoft avec Windows.

Comme l’ordinateur personnel, Internet est le produit d’une accumulation de développements intervenus au cours de plusieurs dizaines d’années. Parmi ses multiples pères, affirme Isaacson, un de ceux qui pourraient le plus légitimement revendiquer le titre est J.C.R. Licklider. Psychologue de formation, ancien collaborateur, au MIT, du fondateur et premier théoricien de la cybernétique Norbert Wiener, directeur-fondateur du laboratoire militaire où allait être mis au point le réseau ARPANET,  Licklider « est [en effet] à l’origine de deux des concepts les plus importants sous-tendant Internet : celui d’un réseau décentralisé permettant la distribution d’information de et vers n’importe quel lieu, et celui d’une interface facilitant les interactions homme-machine ».

Internet n’aurait toutefois jamais pu être développé sans les contributions de plusieurs autres personnes : Robert Taylor et Larry Roberts, qui aidèrent Licklider à développer l’idée d’un réseau « à temps partagé » permettant l’accès simultané aux mêmes données à partir d’un grand nombre de terminaux ; Paul Baran, Donald Davies et Leonard Kleinrock, inventeurs du procédé de « commutation par paquets » consistant à découper chaque message en une série de tronçons d’égale dimension gagnant leur destination par des chemins différents ; enfin Vint Cerf et Bob Kahn, concepteurs du protocole de communication Internet Protocol. De manière générale, un esprit très collégial régnait parmi les pionniers d’Internet. Sans que rien ne justifie cette prétention, après avoir longtemps reconnu la part décisive prise dans la mise au point de la technique de « commutation par paquets » par les deux chercheurs avec lesquels il avait collaboré, Leonard Kleinrock, à l’indignation générale, décida cependant un beau jour de s’attribuer le mérite exclusif de cette invention. Une telle revendication sans fondement heurtait de plein fouet la culture de « mérite distribué » (Isaascon) dominant parmi les pionniers d’Internet. « Internet est le produit du travail d’un millier de personnes » jugea nécessaire de rappeler à cette occasion Paul Baran, le véritable père de la commutation par paquets.

4.     D’ARPANET au World Wide Web

Internet a-t-il été développé pour des besoins militaires, comme un système de communication à même de garantir le maintien des contacts au sein des forces armées, même après la destruction des centres de télécommunications suite à un bombardement nucléaire, ou à des fins civiles, comme un instrument d’échange et d’accès aux données pour les chercheurs ? « Aux yeux des universitaires et des chercheurs occupés à construire le réseau », souligne Isaacson, « celui-ci n’avait qu’un objectif pacifique. Dans l’esprit de certains de ceux qui supervisaient et finançaient le projet, notamment au Pentagone et au Congrès, sa raison d’être était également militaire ».

Les uns et les autres, affirme-t-il, avaient raison. En 2011, l’ancien directeur de l’agence de recherche militaire ARPA (aujourd’hui DARPA), Stephen Lukasik, pour saper la théorie de plus en plus répandue selon laquelle ARPANET n’avait pas été développé pour des raisons stratégiques, publia un article dans lequel il affirmait, contrairement à qu’avait soutenu un de ces prédécesseurs, que le réseau avait bien été conçu comme un instrument de « commande et contrôle » des forces militaires dans un environnement caractérisé par l’existence d’armes nucléaires. À un scientifique impliqué à l’époque dans la conception d’ARPANET qui prétendait n’avoir jamais considéré la question de la survie du réseau en cas d’attaque nucléaire comme faisant partie de sa mission, Lukasik assena : « J’étais au sommet et vous étiez à la base, vous n’aviez donc aucune idée de ce qui se passait et de la raison pour laquelle nous faisions ce que nous faisions ». À quoi le chercheur « avec une pointe d’humour masquant une bonne part de sagesse » (Isaacson), répondit : « J’étais à la base et vous étiez au sommet, vous n’aviez donc aucune idée de ce qui se passait et de la raison pour laquelle nous faisions ce que nous faisions »

En passant, Isaascon fait un sort à la légende bien établie, qui a donné lieu à d’incessants commentaires sarcastiques, selon laquelle l’ancien vice-président américain Al Gore aurait prétendu « avoir inventé Internet ». Interrogé par CNN au sujet des qualifications qu’il pouvait faire valoir pour se présenter comme candidat au poste qu’il allait occuper pendant quatre ans, Gore a en réalité simplement déclaré : « Durant mes années de service au Congrès, j’ai pris l’initiative de créer Internet ». L’idée n’était pas très élégamment formulée, commente Isaacson, «  comme c’est souvent le cas quand on est interrogé à la télévision », mais jamais il n’a utilisé le mot « inventé ». Vint Cerf et Bob Kahn ont d’ailleurs publiquement reconnu l’importante contribution d’Al Gore à la création du climat politique qui a permis le lancement de l’initiative. Tout comme le républicain Newt Gingrich, qui, bien que son ennemi politique, n’a pas hésité à déclarer : «  Gore n’est pas le père d’Internet, mais en toute honnêteté, il est la personne qui, au Congrès, a œuvré le plus systématiquement pour que nous ayons Internet ».

Créé au milieu début des années 1970, Internet n’était au départ qu’un réseau de communication sophistiqué entre militaires, chercheurs d’entreprise et universitaires, lourdement équipés. À cette époque, le modem existait, ainsi que le courrier électronique, inventé en 1971 par Ray Tomlinson, qui a introduit l’usage de l’arobase (@). Pour qu’Internet devienne l’instrument universel et ubiquitaire qu’il est aujourd’hui, il fallut cependant attendre l’arrivée de l’ordinateur personnel et, surtout, la création du World Wide Web, basé sur les deux outils de la technologie de l’hypertexte : un protocole d’échange (Hypertext Transfer Protocol – HTTP) et un langage pour la création de pages (Hypertext Markup Langage – HTML).

Il est bien connu que le World Wide Web a été développé au centre de recherche européen CERN pour les besoins de la communication entre physiciens des particules à travers le monde. On sait moins que le physicien anglais qu’on crédite le plus souvent de son invention, Tim Berners-Lee, travaillait en collaboration si étroite avec un ingénieur belge nommé Robert Caillau que ce dernier peut être légitimement considéré comme le co-inventeur du système.

Ce que l’on sait encore moins, mais qu’Isaacson nous apprend, c’est qu’un autre procédé d’hypertexte que celui de Berners-Lee et Caillau avait été imaginé vingt-cinq ans auparavant par le chercheur visionnaire Ted Nelson dans le cadre d’un projet baptisé Xanadu, dont la particularité est qu’il permettait des échanges dans les deux sens.

En un des très rares passages de son livre pouvant être considérés comme critiques, s’appuyant notamment sur les propos de Jaron Lanier (Internet : qui possède le futur ?), partisan déclaré d’un système équitable et démocratique d’exploitation d’Internet, Isaacson fait à ce sujet l’observation suivante : « Le système à deux directions de Nelson se serait-il imposé, il aurait été possible de mesurer l’utilisation des liens et de faire en sorte que les producteurs de contenus soient gratifiés de micro-paiements. L’univers de la publication, du journalisme et des blogs aurait évolué très différemment. Les producteurs de contenu numérique auraient pu être rétribués d’une manière fluide et aisée autorisant une grande variété de modèles de financement, y compris certaines ne dépendant pas uniquement de la publicité ».

5.     Des hommes et des machines

Plusieurs autres thèmes récurrents que celui des vertus de la collaboration traversent Innovators. Isaacson souligne par exemple à juste titre l’impact bénéfique de la proximité physique entre personnes de formation et de profils différent et l’utilité, de ce point de vue, de les concentrer un même lieu en leur offrant des occasions de contact. Tous les bâtiments de Bell Labs à Murray Hill, dans le New Jersey, où la plupart des services du centre de recherche, initialement installés à Manhattan, avaient déménagé au début des années 1940, étaient reliés entre eux pour favoriser les contacts et les échanges entre départements, et dotés de couloirs très longs conçus pour favoriser les rencontres entre chercheurs de spécialités différentes (il n’était pas inhabituel d’y apercevoir Claude Shannon juché sur un monocycle et jonglant avec des balles pour se détendre). La même philosophie sous-tend l’organisation de l’espace de travail ouvert du siège d’Intel, a inspiré la création de l’« Atrium » au cœur  du siège de la société Pixar fondée par Steve Jobs, et commande la structure du futur nouveau quartier-général d’Apple à Cupertino, un large bâtiment circulaire à l’allure de station spatiale enserrant un grand parc.

Dans Innovators, Isaacson s’emploie aussi à sortir de l’ombre les quelques femmes qui ont joué un rôle important dans l’histoire de l’informatique, dont la contribution est souvent passée sous silence et qui sont tombées dans l’oubli : Grace Hopper, qui travailla à Harvard avec Howard Haiken sur les machines Mark I et Mark II et à qui l’on doit le langage de programmation COBOL, ainsi que les six femmes chargées d’assurer la programmation d’ENIAC, notamment Jean Jennings et Betty Snyder. Lors du dîner aux chandelles organisé à l’occasion de l’inauguration d’ENIAC, aucune d’entre elles n’était présente, parce qu’aucune n’avait été invitée. Si des femmes avaient été associées au projet, c’est parce que le travail de programmation nécessitait des connaissances en mathématiques, et que les femmes diplômées en mathématique étaient très nombreuses à l’époque. Mais ce travail était jugé moins fondamental  que le développement du « hardware ». « Si les responsables d’ENIAC avaient su à quel point la programmation allait se révéler cruciale […] et complexe » écrira plus tard ironiquement Jean Jennings, « ils auraient sans doute hésité à confier un rôle si important à des femmes ».

Deux idées servant de fil conducteur à l’ouvrage s’enracinent dans l’histoire et les écrits d’une autre femme, Ada Lovelace, sous le signe de laquelle Isaacson place son récit. Ada  Lovelace était la fille du poète anglais Byron. Soucieuse de la détourner de la poésie dont l’attrait, à son opinion, risquait de l’inciter à mener la vie fantasque et irresponsable de son père, sa mère, qui avait étudié les mathématiques, lui fit donner une formation poussée dans cette discipline. La jeune fille était douée et se fit rapidement connaître pour son talent dans ce domaine. Ada Lovelace, reconnaît Isaacson, ne fut jamais la mathématicienne de génie que ses admirateurs les plus fervents décrivent, mais son nom est justement associé à un des premiers développements de ce qu’on allait appeler plus tard l’informatique. Ayant fait la connaissance de Charles Babbage, elle s’engagea avec ce dernier dans une collaboration pas toujours aisée, parce qu’elle avait une très haute idée de sa valeur et de ses capacités intellectuelles, mais très fructueuse.

Ada Lovelace ne s’intéressait pas à l’aspect mécanique de la « Machine à différences » et de la « Machine analytique », mais à la logique mathématique sous-tendant leur fonctionnement. Mieux que Babbage lui-même, elle réussit à voir et exprimer le fait que la « Machine analytique » était bien plus qu’un calculateur automatique, une machine universelle capable de stocker, manipuler et traiter toutes les informations susceptibles d’être exprimées sous forme de symboles. Elle écrivit de surcroît la liste d’instructions nécessaires à la machine pour exécuter une tâche particulière, le calcul de « nombres de Bernouilli », qu’on peut considérer rétrospectivement comme le premier programme d’ordinateur. Aucune des deux machines de Babbage ne fut jamais achevée, faute de financement, et Babbage mourut dans la pauvreté. Ada Lovelace décéda à l’âge de trente-six ans seulement, d’un cancer, sans avoir jamais publié d’autre article que celui dans lequel elle exposait les résultats de son travail pionnier, après avoir dissipé sa fortune et gâché sa vie en raison de l’assuétude au jeu et à l’opium dans laquelle elle était tombée. Mais elle est devenue une figure emblématique du féminisme scientifique, et le Département de la Défense américain lui a rendu un hommage posthume en nommant Ada le langage orienté objet de haut niveau développé par la société Honeywell Bull pour ses besoins.

Dans ses écrits, Ada Lovelace avance une idée dont Walter Isaacson fait grand cas : les machines ne pensent pas et ne pourront jamais faire preuve d’intelligence authentique, parce que ceci requiert des capacités d’imagination que seul l’être humain possède. Au plan théorique, l’examen de cette question, comme on sait, a donné lieu à une abondante littérature. Alan Turing a imaginé un test pour la résoudre, basé sur l’idée que si les réponses données par une machine et par un être humain à une même série de questions sophistiquées ne peuvent pas être distinguées, alors, la machine peut être qualifiée d’intelligente.

À l’aide de l’expérience de pensée connue sous le nom de « chambre chinoise », le philosophe John Searle a tenté de démontrer que l’identité des réponses ne peut pas être interprétée comme le signe qu’on a affaire à un système intelligent, la véritable intelligence supposant non seulement la production des bonnes réponses (donc la manipulation correcte des symboles), mais la pleine conscience des opérations effectuées et de leur signification. En termes pratiques, la perspective de voir un jour fabriquées des machines surpassant les êtres humains en intelligence a suscité chez certains de grands espoirs, mais dans la plupart des cas de profondes inquiétudes. Comment garantir que des machines devenues capables d’apprendre, de se modifier (et peut-être de se reproduire), ne décident pas un jour de se débarrasser des humains, comme l’ordinateur HAL le fait dans 2001 Odyssée de l’espace de Stanley Kubrick ?

Considérant la question théorique insoluble dans l’état actuel des connaissances, Walter Isaacson fait  valoir qu’il n’y a pas de motif à s’inquiéter au plan pratique, pour deux raisons. La première est qu’en matière d’intelligence artificielle, l’horizon temporel auquel se situent les développements attendus est un horizon au sens littéral du mot, en ce sens qu’il recule à mesure que l’on avance vers lui : il y a vingt-cinq ans, l’arrivée des premiers systèmes informatiques authentiquement intelligents était prévue pour aujourd’hui ; aujourd’hui, elle est annoncée pour dans vingt-cinq ans. La deuxième raison est la profonde différence entre d’un côté les ordinateurs, même les plus puissants comme Deep Blue et Watson d’IBM, qui ont respectivement battu le champion du monde des échecs Gary Kasparaov et les meilleurs candidats au jeu télévision d’érudition Jeopardy, de l’autre côté le cerveau humain, qui n’est pas un système numérique et centralisé, mais analogique et distribué : une caractéristique, affirme Isaacson, qui le rend capable de performances dont les machines les plus sophistiquées sont aujourd’hui incapables, et repousse dans un avenir hypothétique très éloigné ce moment qu’il est de coutume d’appeler avec le futurologue transhumaniste Ray Kurzweill « la singularité », où l’être humain sera définitivement dépassé par ses propres créations.

De l’observation du passé de l’histoire de l’informatique et du rôle décisif qu’y ont joué tous ceux qui, d’Ada Lovelace à Steve Jobs en passant par Vannevar Bush, J.C.R. Licklider et Doug Engelbart, ont mis l’accent sur l’interface entre l’homme et l’ordinateur et leur interaction, Isaacson conclut que l’avenir, plutôt qu’à la création de superordinateurs plus intelligents que l’homme et totalement autonomes, est au développement d’une véritable symbiose homme-machine à même de produire des résultats auxquels ne pourrait prétendre aucun des partenaires de cette association opérant seul, parce qu’elle permet de combiner la créativité humaine et la puissance de traitement des données de la machine.

On pourra trouver cette vision de l’avenir de l’intelligence artificielle un peu angélique et exagérément optimiste. La combinaison de l’existence de systèmes de stockage et de traitement des données de plus en plus puissants et de progrès substantiels en matière d’intelligence artificielle, par exemple avec la mise au point de systèmes analogiques, pourrait conduire à des conséquences dont toutes ne semblent pas souhaitables. Le règne des machines n’est peut-être pas pour demain, mais les raisons de se préoccuper ne manquent pas, et de plus en plus de voix (Nick Bostrom dans Superintelligence, par exemple, ou James Barrat dans Our Final Invention) s’élèvent pour mettre en garde la communauté scientifique, les industriels et le monde politique, en les invitant à prendre rapidement les mesures nécessaires pour prévenir les dérapages et garantir que le contrôle complet des systèmes développés dans l’avenir ne sera jamais perdu. Walter Isaacson balaie bien trop rapidement de telles légitimes inquiétudes.

Une seconde conclusion, en partie liée à la précédente, que Walter Isaacson tire de l’histoire d’Ada Lovelace et de ses successeurs, est que la révolution numérique est le produit de la nécessaire association de la technique et de l’art. Ce que l’on peut reprocher à cette idée n’est pas à proprement son inexactitude mais son caractère très général et légèrement rhétorique. Certes, Ada Lovelace, en hommage à son père à qui elle vouait une dévotion d’autant plus forte qu’elle eut à peine le temps de le connaître, parce que sa mère l’avait éloignée de lui, aimait parler de « science poétique ». Steve Jobs, ostensiblement obsédé par les considérations esthétiques,  ne manquait pas une occasion de souligner la beauté des produits d’Apple, qu’il opposait à la laideur de ceux de Microsoft. Et beaucoup parmi les  protagonistes de l’histoire racontée par Isaacson étaient des individus lettrés, cultivés et amateurs d’art. Mais tous ne l’étaient pas, et parmi eux figuraient des ingénieurs sans intérêt particulier pour la littérature ou les beaux-arts. Cela ne les empêchait pas d’être extraordinairement créatifs.

Walter Isaacson a raison de plaider dans la conclusion de son livre pour le rapprochement des études littéraires et artistiques d’un côté, scientifiques et techniques de l’autre, ces deux domaines du savoir et de la sensibilité étant d’une égale richesse et chacun ayant tout à gagner à ne pas délaisser l’un au profit exclusif de l’autre. Mais considérer la combinaison, dans un même individu, des tempéraments correspondants et des deux types de culture, comme une recette mécanique et invariable et la voie royale du succès, est à l’évidence simplifier. En ces matières, il y a plus d’un cas de figure possible.

6.     Une histoire à compléter et à considérer de manière critique 

En dépit de ses remarquables qualités, Innovators ne mérite assurément pas le titre d’histoire « définitive » de l’ordinateur et d’Internet que certains critiques enthousiastes n’ont pas hésité à lui attribuer. Une telle qualification n’a d’ailleurs pas beaucoup de sens, s’agissant d’une histoire si riche et si complexe, de surcroît loin d’être achevée et qui donne continuellement lieu à de nouvelles péripéties. Au plan strictement factuel, Walter Isaacson a dû faire des choix. Si la plupart des épisodes-clés et une bonne partie des protagonistes essentiels de cette histoire sont évoqués, plusieurs développements importants et les personnes qui leur sont associées sont passés sous silence. On cherchera par exemple en vain dansInnovators les noms de James Gosling et de Patrick Naughton, les créateurs du langage de programmation Java, utilisable avec tous les grands systèmes d’exploitation et à la base de nombreuses applications ;   ceux de Bill Joy, co-fondateur de la firme Sun Microsystems qui a développé ce langage et de Larry Ellison, le mythologique multimilliardaire, patron durant près de quarante ans de la société Oracle, qui détient aujourd’hui Java après avoir fait l’acquisition de Sun Microsystems ; ou le nom de Nathan Myrvold, l’ancien directeur du département de recherche de Microsoft fameux pour sa politique agressive en matière de propriété intellectuelle (également connu pour un traité de cuisine « moderniste » en six volumes).

Parce que son intérêt se concentre sur l’ordinateur personnel, Internet et leur rencontre (une idée qui lui a été suggérée par Bill Gates), Isaacson passe d’autre part complètement sous silence des pans entiers de l’histoire de l’informatique, par exemple l’histoire du calcul à haute performance et des superordinateurs développés à la suite des travaux de Seymour Cray, qui a conçu les premiers d’entre eux, aujourd’hui largement utilisés pour la recherche, notamment la modélisation et la simulation en physique théorique, en aérodynamique, en climatologie et météorologie, etc. Son récit s’arrête de surcroît, avec quelques pages assez générales et superficielles sur Wikipédia et Google, vers la fin des années 1990, avant l’apparition des mémoires flash à grande capacité, de l’écran tactile, du smartphone et des tablettes, l’essor de l’exploitation des « Big Data » et le développement du « Cloud computing», pour ne pas parler de la technologie de la « réalité augmentée », de « l’Internet des objets » et des récents et spectaculaires développements de la robotique.

Les évolutions récentes sur d’autres plans que technique sont également ignorées, par exemple les profonds changements qui ont affecté la Silicon Valley et sa culture au cours des deux dernières décennies : disparition des amateurs (« hobbyists »), de l’esprit rebelle et de la vision égalitariste des pionniers, et concentration du pouvoir et de la technologie au sein de quelques sociétés géantes dans lesquelles les juristes pèsent d’un poids de plus en plus lourd, en un processus qui fait dire à Piero Scaruffi de la technologie numérique qu’après avoir été « kidnappée » par des indépendants exploitant à des fins inédites des inventions nées à l’initiative de grandes entreprises et du gouvernement, elle a été récupérée par les entreprises et le gouvernement, qui l’ont transformée en un vecteur de publicité et un instrument de surveillance. Parce que cette histoire est celle des pionniers de l’ère numérique, à quelques exceptions près comme les travaux réalisés à Benchley Park et l’invention du World Wilde Web au CERN, le domaine géographique qu’elle couvre se limite par ailleurs à la côte Est et la côte Ouest des États-Unis, sans que soit même simplement évoquée l’émergence des industries électroniques et informatiques asiatiques, au Japon, en Inde, en Corée et en Chine.

Sans qu’on puisse l’accuser de sombrer dans ce techno-prophétisme et ce messianisme technologique qui entachent de nombreux livres sur l’informatique et les technologies de l’avenir, le livre de Walter Isaacson manque enfin et surtout cruellement de perspective critique. S’il reconnaît que le mot «  innovation » est devenu aujourd’hui «  un slogan à la mode vidé de de tout sens clair », Isaacson, a justement relevé Jacob Silverman dans Booksforum, ne peut s’empêcher d’assaisonner son récit de ce genre de préceptes généraux et banals qu’on trouve dans les manuels sur le sujet, d’une manière qui l’affaiblit en interrompant son fil et désamorçant sa charge dramatique. « Pour innover, il faut posséder trois choses : une excellente idée, le talent d’ingénieur pour l’exécuter et le bon sens (et la trempe) nécessaires en affaires pour transformer cette idée en un produit réussi » : une déclaration de ce genre n’ajoute pas grand-chose à la force du livre.

Son éloge de la collaboration, qui frappera peut-être moins par sa nouveauté en Europe qu’aux États-Unis, pays où le rôle de l’individu est traditionnellement exalté, s’exprime de surcroît parfois sous une forme un peu naïve et presque dogmatique. « Collaboration » n’est d’ailleurs en réalité pas vraiment la meilleure étiquette sous laquelle placer le riche matériel historique qu’il nous livre, sauf si l’on entend ce mot dans un sens très large couvrant d’autres cas de figures comme  l’influence involontaire, voire l’emprunt et le vol d’idées. En vérité, l’histoire de l’ordinateur et d’Internet telle qu’Isaacson nous la raconte serait plus adéquatement définie comme celle d’un processus d’invention collective étalé dans le temps à travers plusieurs générations – une dimension qu’il souligne d’ailleurs souvent lui-même : « Steve Jobs a bâti sur le travail d’Alan Kay, qui a construit sur celui de Doug Engelbart, qui s’appuyait sur ceux de J.C.R. Licklider et de Vannevar Bush ».

Incurable optimiste, de cet optimisme démonstratif et déclamatoire dont font volontiers preuve les Américains, Isaacson ignore par ailleurs ostensiblement les aspects les moins plaisants et les plus préoccupants de la révolution numérique.  Comme le souligne justement Jacob Silverman, pas la moindre allusion, dans Innovators, à l’exploitation brutale des ouvriers dans les mines congolaises de coltan (le minerai d’où sont tirés le tantale et le niobium, utilisés dans de nombreux composants électroniques), ou les usines de fabrication des téléphones portables en Chine. Isaacon n’évoque pas davantage les obscures transactions,  moralement douteuses et parfois criminelles, passées sur le « Deep Web », cette énorme partie du World Wide Web qui n’est pas indexée par les moteurs de recherche, et les étranges et inquiétantes sous-cultures qui s’y développent, dont Jaimie Bartlett s’est récemment fait l’ethnographe dans son ouvrage Dark Net.

Surtout, il ne touche pas un mot du pouvoir économique exorbitant des grandes compagnies du domaine, de l’emprise des technologies qu’elles contrôlent sur la vie individuelle et sociale, et des menaces pour la liberté et la vie privée potentiellement liées à l’exploitation des données personnelles à des fins politiques ou commerciales. Au cours des dernières années, beaucoup de commentateurs se sont alarmés des  risques et dérives possibles des technologies de l’information. Sous le nom de « solutionisme », Evgeny Morozov (Pour tout résoudre cliquez ici) a dénoncé la croyance idéologique, prévalant dans la Silicon Valley, que tous les problèmes auxquels la société fait face possèdent une solution technologique ; Sherry Turkle (Life on Screen, Alone Together) s’est inquiétée de l’impact de « la vie sur écrans » sur la qualité des rapports sociaux ; Nicholas Carr (Internet rend-il bête ?) et Frank Frommer (La pensée PowerPoint) de ses conséquences sur la vie intellectuelle et notre manière de réfléchir. On cherchera en vain dans Innovators le plus petit écho de telles préoccupations.

Très bien documenté et extrêmement agréable à lire en dépit de certaines répétitions, Innovators met exceptionnellement bien en lumière, dans toute sa richesse et sa diversité, la longue histoire de la révolution numérique. Les observations judicieuses de Walter Isaacson sont éclairantes et ne choqueront nullement les historiens des techniques et les sociologues de l’innovation, qui retrouveront dans son récit des situations qui leur sont familières. Mais la foi candide d’Isaacson dans le progrès, sa vision résolument optimiste de l’avenir et le regard peu critique qu’il jette sur les technologies de l’information, leur impact sur le fonctionnement de la société et certains développements auxquelles elles pourraient donner lieu, affaiblissent son entreprise. On se prend à rêver d’une histoire de l’informatique qui serait à l’ordinateur, Internet et au téléphone portable ce que The Greatest Benefit to Mankind, l’extraordinaire histoire scientifique, technique, sociale et culturelle de la médecine de Roy Porter, qui est en même temps une histoire critique, est à l’art de guérir. Mais peut-être cette histoire-là est-elle trop vaste pour tenir dans un seul livre d’un seul auteur. Peut-être l’histoire de la révolution numérique, à l’image de son objet, ne peut-elle être, au bout du compte, que le produit d’un effort multiforme, prolongé et collectif.

Michel André

Une fausse affaire Primo Levi

Dans un livre publié en 2013 chez Mondadori (Partigia. Una storia della Resistenza), l’historien Sergio Luzzatto a interrogé le rapport de Primo Levi à la Resistance à partir d’une remarque contenue dans la deuxième édition (1958) de Se questo è un uomo de Levi. Celui-ci y fait allusion à « une arrestation conforme à justice » : expression bizarre, selon Luzzatto, si elle est lue à la lumière de l’éthique antifasciste. Partant de là, Luzzatto s’acharne à repérer d’autres traces de cette « attitude obscure » de Levi: par exemple dans un poème contenu dans le recueil Ad ora incerta, ou dans le texte Oro, une des nouvelles de Il sistema periodico, là où il fait mention d’un « segreto brutto » (mauvais secret) qui aurait jeté dans le désespoir le groupe des partisans dont Levi faisait partie (« il nous avait rendu désireux que tout se termine et que tout se termine par nous-mêmes »).

Le secret, argumente Luzzatto, concerne l’exécution de deux partisans décidée en interne, suppliciés selon « la méthode soviétique » (sans procès). Il se peut que la raison de l’exécution ait été que les deux hommes avaient violé une vieille femme juive (comme le suppose un autre historien, Alberto Cavaglion); il se peut aussi que le « segreto brutto » concerne uniquement le sentiment de culpabilité de Primo Levi face à cette brutale exécution. Quoi qu’il en soit, c’est à l’aide d’un bricolage opéré à l’aide de plusieurs textes de l’écrivain, ainsi qu’à travers des arguments parfois insidieux (comme celui que les juifs ne s’engageaient dans la Résistance que pour échapper aux lois raciales), que la « relecture » de Luzzatto vise à montrer un Primo Levi déchiré par les remords, mal à l’aise dans l’impasse d’une « zone grise » où s’effondreraient ses propres convictions morales.

Le but de l’opération semble être d’établir une vérité publique, capable de s’opposer à la version « officielle » d’un antifascisme pur et dur. Le chapitre controversé de l’histoire italienne qu’est la guerre civile menée entre 1943 et 1945 est utilisé ici de manière ambiguë, illustrant une historiographie à tendance bipartisane.

Dans le vide d’une profonde crise morale comme celle que traverse l’Italie depuis plusieurs années, rien n’est plus facile que de s’acharner à délégitimer des figures imposantes, mettant en doute leur intégrité et lucidité. Rien de plus nécessaire que de résister intellectuellement à ce genre de dérives destructrices.

Lisa Ginzburg

La fin du modèle allemand

Depuis 2005, l’Allemagne moribonde du tournant du millénaire affiche une santé économique insolente. La crise de 2008, loin de casser cette relance, l’a rendue plus spectaculaire encore : alors que les autres pays européens vacillaient, le chômage était divisé par deux outre-Rhin et les excédents commerciaux y atteignaient des niveaux stratosphériques. Aujourd’hui encore, le pays exporte pratiquement autant que la Chine (dix-sept fois plus peuplée) et plus que les États-Unis. Ces performances hors-norme pourraient bien pourtant n’être que le chant du cygne d’une nation condamnée au déclin. De nombreux indicateurs (un taux de natalité parmi les plus bas au monde, notamment) laissent supposer que cette situation d’apesanteur ne durera pas, que l’ancien « homme malade » de l’Europe est tout proche d’une rechute. Pire, l’embellie des dernières années, si on la replace sur la plus longue durée, cache mal la stagnation profonde du pays.

Dans l’article qui ouvre ce dossier, Philippe Legrain, l’ancien conseiller anglais de Manuel Barroso, démystifie ce que d’aucuns ont qualifié de « second miracle économique » allemand. Cet examen sans concession n’est du reste pas l’apanage d’étrangers jaloux d’un modèle qui n’est pas le leur. En Allemagne même, l’automne 2014 a vu paraître, coup sur coup, deux ouvrages aux titres sans équivoque : « L’illusion allemande » et « La bulle allemande ». Nous avons interviewé l’auteur du second, Olaf Gersemann, qui dirige les pages économiques du quotidien Die Welt. À l’unisson de Legrain, il souligne en outre d’autres faiblesses de son pays : par exemple le poids disproportionné du secteur automobile dans le PIB. L’autosatisfaction de ses compatriotes le laisse perplexe. Car enfin, à quoi bon tous ces excédents commerciaux ? Dans un autre entretien, l’anthropologue Emmanuel Todd propose une explication : ils permettent à l’Allemagne de dominer l’Europe. Pour lui, jauger la réussite allemande à l’aune de critères strictement libéraux comme le fait Legrain, c’est ne rien comprendre aux spécificités d’un pays qui obéit à d’autres impératifs que le monde « atlantique ». L’objectif premier de l’Allemagne n’est pas le « bien-être », mais la « puissance ».

 

Dans ce dossier:

Le colosse aux semelles de plomb

À la naissance de l’euro, en 1999, l’Allemagne était brocardée comme « l’homme malade de l’Europe ». Trop taxée, trop réglementée, son économie stagnait et quatre millions de personnes étaient sans emploi. En ce début de millénaire, le pays marchait au ralenti, éclipsé par la Grande-Bretagne et le sud de l’Europe à la croissance plus fringante. Mais après la crise financière de 2008, le paysage est apparu sous un nouveau jour. Alors que la plupart des nations occidentales étaient terrassées par une ingénierie financière tape-à-l’œil mais en fin de compte fragile, ce pays réputé pour sa base industrielle stable et solide semblait jouir d’une enviable sécurité. Pendant que les autres avaient bâti des châteaux de cartes fondés sur la dette, l’Allemagne avait épargné prudemment. Tandis que la plupart des pays d’Europe semblaient mal armés pour faire face à la concurrence chinoise, les exportations allemandes vers l’empire du Milieu explosaient. Alors que le chômage atteint aujourd’hui des niveaux records sur le continent, le taux allemand est plus bas qu’avant la crise. En ces temps d’intempérance fiscale, Berlin a même réussi à équilibrer son budget. Lorsque la panique s’est emparée de la zone euro en 2010, le pays a donc fait figure de refuge sûr : les investisseurs étaient même prêts à payer pour que l’état allemand prenne leur argent (1).  Le pays semble décidément avoir toutes les cartes en main : la première économie européenne est aussi le premier exportateur du continent et sa nation la plus créditrice, dotée qui plus est de la population la plus nombreuse. Beaucoup redoutent l’Allemagne, certains la haïssent, mais peu remettent en doute sa suprématie.

Des hommes politiques et des experts de tout bord, de Bill Clinton à Nicolas Sarkozy, ont rivalisé d’éloges à son égard. En Grande-Bretagne, où l’admiration pour le modèle rhénan était autrefois l’apanage de penseurs du centre gauche de peu d’influence sur le dernier gouvernement travailliste, même des conservateurs zélateurs du marché voient désormais en elle une source d’inspiration. Le Premier ministre David Cameron estime que le Royaume-Uni a besoin d’une « approche germanique des compétences ». George Osborne, le ministre des Finances, a chanté les louanges de l’Allemagne dans une récente tribune du Financial Times co­écrite avec son homologue Wolfgang Schäuble. Et la stratégie économique du leader travailliste Ed Miliband semble consister, pour l’essentiel, à suivre son modèle. Comme l’écrit Philip Collins, un éditorialiste du Times, « le projet d’Ed pour la Grande-Bretagne : ressembler davantage à l’Allemagne ».

Apparemment grisé par tant de flatteries, un homme politique de premier plan outre-Rhin [le conservateur Volker Kauder] a déclaré : « L’Europe, tout d’un coup, s’est mise à parler allemand. » La chancelière Angela Merkel affirmait, après sa réélection l’an dernier : « Ce que nous avons fait, tout le monde peut le faire. » Et les thuriféraires du modèle annoncent même des jours plus radieux encore. Dans leur bestseller de 2012, « Les années de vaches grasses », Bert Rürup, ancien membre du Conseil allemand des experts économiques, et Dirk Heilmann, journaliste à l’Handelsblatt, prédisent que l’Allemagne sera d’ici 2030 le grand pays le plus riche de la planète par habitant.

Pourtant, l’Allemagne n’est pas le leader mondial que l’on croit. Son économie n’est pas particulièrement prospère, encore moins un modèle à suivre. Ses banques sont mal en point, la croissance de sa productivité médiocre et ses investissements insuffisants. En tenant compte de l’inflation, l’Allemand moyen a moins gagné l’an dernier qu’en 1999 – soit plus de quatorze ans de stagnation. Le pays reste un peu plus prospère – si l’on prend pour critère le PIB par habitant à parité de pouvoir d’achat – que la Grande-Bretagne et la France, mais moins que douze autres économies développées, notamment l’Australie, l’Autriche, le Canada, les Pays-Bas, la Suède, la Suisse et les États-Unis.

 

Latins tire-au-flanc et Celtes désinvoltes

Depuis la crise, la performance du pays a été moins atroce que beaucoup – début 2014, la richesse nationale française était à peine plus élevée que début 2008 et le PIB britannique un peu plus faible, tandis que l’Europe du Sud était tombée d’une falaise – mais sans avoir rien d’époustouflant non plus. La taille de l’économie allemande a augmenté de 3,6 % seulement en six ans – mais s’est contractée de 0,2 % entre mars et juin dernier (2) –, quand la Suisse et la Suède voyaient leur richesse augmenter de plus de 7 %. Même les États-Unis, à l’épicentre de la crise financière, ont bénéficié d’une semblable expansion.

Si l’on observe cette fois la situation sur la longue durée, la perspective change du tout au tout. Depuis le début du nouveau millénaire, l’Allemagne n’est pas en tête, mais à la traîne. Entre 2000 et 2013, sa croissance n’a été que de 15 % – un maigre 1,1 % par an – au coude à coude avec la France. C’est plus lent que ces insouciants d’Anglo-Saxons, la Grande-Bretagne (+ 21 %) et les États-Unis (+ 25 %), sans même parler de ces Latins prétendument tire-au-flanc (la croissance espagnole a été de 19 % sur la période) et autres Celtes désinvoltes (le PIB irlandais a progressé de 30 %). Au total, le pays arrive treizième des dix-huit nations de la zone euro. Une croissance économique soutenue est le fruit combiné d’investissements productifs et de gains de productivité ; or la performance de l’Allemagne est médiocre dans ces deux domaines. L’investissement est tombé de 22,3 % du PIB en 2000 à 17 % en 2013. Certes, le taux d’investissement britannique est plus faible encore, mais l’Allemagne se retrouve derrière des pays comme la France, l’Espagne et même l’Italie. Les investissements publics sont particulièrement réduits – un maigre 1,6 % du PIB en 2013 –, en dessous des niveaux italien et britannique (2 %) et loin derrière des pays comme la France et la Suède (3,3 %) [lire ci-dessous « Une croix sur les investissements »]. Après des années de négligence, les infrastructures s’effondrent. Comme l’explique Sebastian Dullien, du Conseil européen des relations étrangères, un think tank : « Les ponts des autoroutes sont dans un si piètre état que les poids lourds sont souvent contraints de faire des détours et certaines infrastructures des voies navigables sont vieilles de plus d’un siècle. » En mars 2013, le canal de Kiel qui relie la mer du Nord et la Baltique, artère vitale pour le commerce mondial (3), a dû être provisoirement fermé parce que deux de ses écluses étaient complètement délabrées. Ce qui n’a pas empêché Angela Merkel, dans ses derniers projets de budget, de réduire encore l’investissement public.

De manière plus grave encore, l’Allemagne s’est laissé distancer sur le plan de la qualification de sa main-d’œuvre. Elle ne consacre que 5,7 % de son PIB à l’éducation et à la formation, moins que la France et bien d’autres pays, dont la Grande-Bretagne, où le chiffre est de 7,6 %. Et si de nombreux étrangers admirent son système d’apprentissage, il attire de moins en moins les jeunes Allemands : le nombre de nouveaux apprentis est tombé à son niveau le plus bas depuis la réunification, en 1990, et de nombreuses places sont désormais laissées vacantes. En outre, moins du quart de la population active possède un diplôme de l’université, moins que dans plusieurs autres pays européens, dont l’Espagne, la France et la Grande-Bretagne. Il y a moins de jeunes Allemands titulaires d’une licence (29 %) que de jeunes Grecs (34 %), sans même parler des jeunes Britanniques (45 %). « L’Allemagne n’a pas su investir dans l’enseignement supérieur public », observe Adam Posen, président du Peterson Institute for International Economics, un think tank américain. À l’échelle mondiale, l’université allemande la mieux placée est l’université technique de Munich, à la 49e place (4).

Le développement des start-up est entravé. Il est plus difficile de monter sa société en Allemagne qu’en Russie ou au Sénégal, d’après le rapport Doing Business de la Banque mondiale sur l’environnement réglementaire des entreprises. à la douzième place du classement, l’Irlande toise l’Allemagne (à la 111e place). L’ensemble des grandes entreprises du pays sont vieilles et installées de longue date : pas de Google ici. Comment s’étonner que 50 000 entrepreneurs allemands aient émigré dans la Silicon Valley ?

Faible niveau d’investissement, infra­structures décrépites, système éducatif délabré, manque d’esprit d’entreprise… Autant d’indicateurs inquiétants. Mais la preuve décisive de la sous-performance allemande, c’est la piètre croissance de sa productivité : 0,9 % par an au cours de la dernière décennie, soit moins que le Portugal. Pour réussir de façon durable, le pays a besoin que l’efficacité de sa main-d’œuvre progresse bien plus vite. L’Allemagne doit avant tout le peu de croissance qu’elle a connue à ses exportations de biens manufacturés – domaine où elle excelle. Au deuxième rang mondial derrière Pékin, elle est responsable d’à peu près la moitié des exportations européennes vers la Chine et ses ventes à l’étranger ont doublé depuis l’an 2000. Elle fait mieux, sur ce plan, que n’importe quelle autre économie européenne développée. En outre, alors que l’industrie s’étiole dans la plupart des pays riches, elle se développe en Allemagne (5).

Mais ce boom des exportations est moins impressionnant qu’il n’en a l’air, et le fait que le phénomène repose sur le secteur industriel pourrait se révéler à l’avenir une faiblesse. La réussite du pays à l’export est surévaluée, en raison de la sous-traitance des firmes germaniques en Europe centrale et orientale. Les voitures « fabriquées » en Allemagne contiennent de nombreuses pièces produites en Slovaquie, en Hongrie et ailleurs ; lorsqu’un véhicule est exporté, sa valeur totale est imputée au pays, alors qu’une partie seulement y a été manufacturée. L’Allemagne a aussi eu beaucoup de chance. Les biens qu’elle exporte traditionnellement – les biens d’équipement, les machines-outils et les produits chimiques – sont précisément ceux dont la Chine avait besoin dans sa phase d’essor industriel fulgurant.

L’euro a également constitué un stimulant majeur. La monnaie européenne a été bien plus faible que ne l’aurait sans aucun doute été le deutschemark, ce qui gonfle les ventes à l’étranger. Elle a empêché des concurrents comme l’Italie de dévaluer pour pouvoir offrir de meilleurs prix que les entreprises allemandes. Jusqu’à ce que la crise éclate, l’euro a aussi ouvert aux exportations du pays les marchés en pleine expansion du sud de l’Europe. Mais, depuis, la récession a privé Berlin d’un débouché. à présent que l’économie chinoise ralentit à son tour et s’éloigne du schéma de croissance fondé sur l’investissement, la machine commerciale allemande marque le pas. Sa part dans les exportations mondiales a chuté de 9,07 % en 2007 à 8,01 % en 2013 – retrouvant son niveau du début des années 2000.

Pire, dans les premiers temps, le boom des ventes à l’étranger s’est fait sur le dos des salariés allemands. En raison de la pression à la baisse sur les rémunérations – qui a commencé avec l’accord tripartite de 1999 entre l’État, les entreprises et les syndicats plutôt qu’avec la réforme du marché du travail conduite par l’ancien chancelier Gerhard Schröder entre 2003 et 2005 [lire «Les réformes Schröder, mode d’emploi » ci-dessous] – et de l’absence de salaire minimum légal, certains Allemands gagnent 4 euros de l’heure. Selon l’Institut allemand pour le marché du travail et la recherche d’emploi, un quart environ de la population active touche une rémunération inférieure aux deux tiers du salaire médian, proportion plus élevée que dans seize des dix-sept pays européens pour lesquels ce type de donnée est disponible.

Le problème, ce n’est pas seulement que certains sont très mal payés. C’est que l’Allemand moyen ne touche pas les dividendes des gains de productivité qu’il réalise. Le salarié type produit 17,8 % de plus par heure qu’en 1999, mais gagne un tout petit peu moins. Si certains responsables politiques déplorent cette stagnation, notamment les Verts et Die Linke (parti à la gauche de la gauche), la plupart des décideurs s’en félicitent. Après tout, maintenir de faibles coûts salariaux favorise la compétitivité des produits allemands. Mais une politique qui a du sens à l’échelle du dirigeant d’entreprise individuel n’est pas nécessairement pertinente à l’échelle de l’économie dans son ensemble : les rémunérations ne sont pas des coûts qu’il faut réduire, mais un bénéfice qu’il faut maximiser – à condition que la productivité le justifie. Si les bas salaires sont nécessaires quand l’efficacité de la main-d’œuvre est faible, il est pervers de ne pas répercuter les hausses de productivité sur les rémunérations. Si elles sont maintenues à un niveau artificiellement bas, les salariés sont moins incités à mettre à jour leurs compétences et les entreprises à investir dans le pays et monter en gamme. Et si l’Allemagne ne monte pas en gamme, la nouvelle production à haute valeur ajoutée exigeant des compétences et des salaires supérieurs sera de plus en plus faite ailleurs. « La rigueur salariale n’est pas une stratégie de croissance gagnante pour l’avenir de l’Allemagne et de l’Europe », affirme Posen.

 

Ligotés par la bureaucratie

Mais il y a du changement dans l’air. Après l’échec de ses précédents partenaires, les libéraux du FDP, qui ont perdu tous leurs sièges au Bundestag lors des dernières élections, la CDU d’Angela Merkel a dû former une grande coalition avec les sociaux-démocrates (le SPD). Lesquels ont exigé la création d’un salaire minimum de 8,50 € de l’heure (il sera progressivement mis en place d’ici 2017). Près d’un salarié sur quatre gagnait moins que cela en 2011 dans l’ancienne Allemagne de l’Est, et un sur sept dans l’ancienne Allemagne de l’Ouest. Tout comme, à l’échelle nationale, la moitié du personnel des hôtels et restaurants, et un quart des employés de la distribution. Mais si l’instauration du salaire minimum entraînera une augmentation bienvenue pour les plus bas revenus, rien ne dit que les autres recevront leur dû – en particulier dans l’industrie.

Vue de Grande-Bretagne, où l’industrie représente 10 % du PIB (6), la gigantesque industrie allemande peut sembler une force. Ce n’est pourtant pas un atout aussi fort qu’on le dit. D’abord, fabriquer des objets n’a rien d’exceptionnel. Produire des voitures a-t-il plus de valeur que soigner ? Faire des machines à laver est-il plus important que programmer des ordinateurs ? Le secteur industriel occupe une place encore plus importante en République tchèque, en Irlande et en Hongrie. Est-ce que cela en fait des économies plus prospères que l’Allemagne ?

L’essentiel, ce n’est pas ce que les gens font, mais la valeur ajoutée de ce qu’ils font – et même en Allemagne, plus des trois cinquièmes de la valeur ajoutée provient des services. Malheureusement, la productivité dans ces secteurs – qui vont des transports aux télécoms en passant par la distribution et la restauration – est souvent lamentable, notamment parce qu’ils sont ligotés par la bureaucratie. La réglementation des services est plus stricte en Allemagne que dans vingt-deux des vingt-sept pays figurant au classement de l’OCDE. Dans les professions libérales, qui représentent un dixième de l’économie allemande, des règles rigides dictent qui peut offrir quel type de service, les frais que les professionnels sont autorisés à percevoir et comment ils peuvent faire leur publicité. Par exemple, seuls les pharmaciens diplômés peuvent posséder des pharmacies, et pas plus de quatre. Les autres commerces ne peuvent pas les concurrencer, même pour les médicaments sans ordonnance (7). Dans de nombreuses professions, l’investissement par des tiers (extérieurs à la profession) est réglementé.

Cette faiblesse des services est préoccupante car l’industrie ne va probablement pas continuer à défier encore longtemps la gravité. À l’instar de l’agriculture avant lui, le secteur manufacturier tend, avec le temps, à peser de moins en moins lourd dans l’économie – c’est vrai même en Chine, l’atelier du monde. À mesure que la technologie s’améliore, nous sommes capables de fabriquer des produits de meilleure qualité moins chers. Et plus les gens s’enrichissent, plus ils préfèrent consacrer une part importante de leurs revenus aux services – vacances, santé, aide à domicile – plutôt que d’accumuler des objets. La dépendance excessive de l’Allemagne à l’industrie la rend donc vulnérable. Si son économie ne s’adapte pas, elle risque d’être durement touchée par une baisse de la demande pour ses biens manufacturés, notamment parce que la Chine monte dans la chaîne de valeur et que ses entreprises commencent à concurrencer directement les produits allemands haut de gamme. Dans les domaines où les firmes germaniques ont d’ores et déjà dû affronter de plein fouet leurs rivaux chinois, en particulier dans la fabrication de panneaux solaires, elles n’ont pas su améliorer leurs résultats et ont demandé à l’Union européenne de prendre des mesures protectionnistes. La position de l’Allemagne est d’autant plus précaire qu’elle repose pour plus de la moitié de ses exportations sur quatre secteurs – l’automobile, les machines, les appareils électroniques et les produits chimiques.

La hausse des prix de l’énergie constitue une menace immédiate pour les industries qui en sont grandes consommatrices, comme la chimie. Le coût de l’électricité a déjà plus que doublé depuis l’an 2000 [voir le graphique ci-dessous]. Et selon une étude du géant Siemens, les entreprises allemandes dépensent presque trois fois plus pour l’électricité que leurs concurrentes américaines, qui bénéficient de la révolution du gaz de schiste aux États-Unis. Cerise sur le gâteau, l’État prévoit de sortir progressivement du nucléaire pour lui substituer les coûteuses énergies renouvelables, tout en rejetant l’exploitation du gaz de schiste meilleur marché.

 

graph-electricité

 

Si l’Allemagne veut prospérer demain, son économie devra s’adapter. Malheureusement, elle est souvent arthritique. Les marchés de produits sont très réglementés, ce qui limite la concurrence et privilégie les entreprises en place au détriment des challengers potentiels, et les intérêts des producteurs plutôt que ceux des consommateurs. Les réformes Schröder ont certes contribué à créer des emplois bas de gamme et incité les chômeurs de longue durée à retrouver un emploi, mais elles n’ont pas rendu le marché du travail plus flexible [lire « Des réformes surestimées ? » ci-dessous]. En fait, il est plus difficile de licencier un travailleur en CDI en Allemagne que dans n’importe quel autre pays de l’OCDE. Et cela ne s’arrange pas : selon l’OCDE, Berlin a lancé depuis 2007 moins de réformes favorables à la croissance que n’importe quelle autre nation développée. Résultat, son économie est bien trop rigide et léthargique. Le pays sait réduire les coûts, mais pas changer de cap.

L’Allemagne fait aussi face à un défi démographique particulièrement sérieux, qui va freiner la croissance future. Sa population est la plus vieille de l’Union européenne, avec un âge moyen de 46 ans, contre 40 en Grande-Bretagne (8) et 36 en Irlande. En extrapolant à partir des tendances actuelles, l’Allemagne comptera moins d’habitants que la Grande-Bretagne et la France dans les années 2040. Sans un miracle en termes de productivité ou un afflux d’immigrés, cela signifie une réduction proportionnelle de la taille de son économie.

Un pays à la population vieillissante, où les rémunérations (et donc les dépenses) sont faibles, l’investissement anémique et où l’État n’emprunte pas produira toujours un énorme excédent d’épargne (9) – c’est-à-dire un excédent de la balance courante. On voit souvent là un symbole de la compétitivité allemande. Mais si le pays réussit à ce point, pourquoi les entreprises ne veulent-elles pas y investir ? [Lire l’entretien avec Olaf Gersemann]

 

Un créancier à l’égal de la Chine

Conséquence de ses excédents, Berlin est devenu le plus gros créancier d’Europe. En 2000, les actifs allemands à l’extérieur dépassaient de peu ses dettes. Fin 2013, sa position nette vis-à-vis de l’étranger atteignait la somme colossale de 1 300 milliards d’euros – presque autant que la Chine. En pleine crise de la dette, cette situation de créditeur net donne de l’influence à l’Allemagne. Mais ses prêts aux étrangers ont souvent été mal investis. Pendant les années de bulle financière, aussi bien ses colossales banques privées, comme la Deutsche Bank et la Commerzbank, que les banques publiques des Länder ont placé de l’argent dans les douteux crédits hypothécaires américains, financé les bulles immobilières espagnole et irlandaise, alimenté le boom de la consommation au Portugal et prêté imprudemment à l’État grec, devenu insolvable. Contrairement au mythe selon lequel les contribuables allemands auraient, depuis, renfloué l’Europe du Sud, leurs prêts aux États de l’Europe du Sud ont avant tout renfloué les banques et les investisseurs allemands qui avaient si mal investi leur épargne avant la crise.

Une étude de l’Institut de recherche économique de Berlin estime que l’Allemagne aurait perdu 600 milliards d’euros, l’équivalent de 22 % de son PIB, sur la valorisation de son portefeuille investi à l’extérieur entre 2006 et 2012. À présent que l’Allemagne redoute les pertes sur ses prêts aux étrangers, il est particulièrement pervers de continuer à accumuler des excédents, obligatoirement investis à l’extérieur. Quand il sera clair que les débiteurs ne peuvent ou ne veulent pas payer – ce que le refus allemand de contribuer à la croissance européenne rend plus probable –, son énorme exposition au risque étranger la conduira à de lourdes pertes.

Les excédents tant vantés de la balance courante allemande sont le symptôme d’une économie malade, pas d’une économie saine. La stagnation des salaires amplifie les excédents des entreprises, tandis que la faiblesse des dépenses, l’étouffement du secteur des services et l’atonie des start-up répriment l’investissement, avec pour effet de gaspiller l’épargne à l’étranger.

« Das Modell Deutschland » [le modèle allemand] doit être repensé de toute urgence. Les salariés doivent jouir des fruits de leur labeur à travers des salaires plus élevés. Pour élever le niveau de vie à long terme, les décideurs doivent se concentrer sur l’amélioration de la productivité, plutôt que de la compétitivité. Il faut investir davantage dans la croissance future, d’abord en modernisant les infrastructures délabrées du pays et son système éducatif en décomposition. Il faut aussi développer les opportunités d’investissement, en introduisant de la concurrence dans des marchés sclérosés et en facilitant la création d’entreprises. Il faut enfin être plus accueillant envers les immigrés, essentiels pour éviter à l’Allemagne un déclin démographique annoncé, et pour l’aider à créer des entreprises et des idées. Le pays sait à merveille réduire les coûts, et innover à petits pas, mais il doit devenir beaucoup plus dynamique et flexible pour s’adapter à un monde en plein bouleversement technologique. Sans ces réformes, son avenir n’apparaît pas particulièrement radieux. L’aigle germanique n’est jamais monté aussi haut que nous l’avions pensé. En fin de compte, il lui faudra aussi se poser.

 

Cet article est paru dans Prospect le 20 août 2014. Il a été traduit par Baptiste Touverey.
 

Le déclin démographique

carte déclin démographique

 

 

Emmanuel Todd : « Ne sous-estimons pas cette formidable puissance »

Historien, anthropologue et démographe, Emmanuel Todd a consacré une grande partie de ses recherches aux systèmes familiaux. Dès La Troisième Planète (paru en 1983), il a montré leur influence sur l’émergence des grandes idéologies religieuses et politiques. Récemment, il a publié le premier volume d’un livre somme sur Les Origines des systèmes familiaux (Gallimard, 2011).

 

 

Dans l’article que publie Books en ouverture de ce dossier, l’ancien conseiller anglais de Manuel Barroso, Philippe Legrain, souligne l’état inquiétant de l’économie allemande, dont la bonne santé ne serait qu’apparente. Partagez-vous son analyse ?

Je ne connais pas les toutes dernières évolutions de l’économie allemande. Mais je serais prudent parce que ce n’est pas la première fois qu’on annonce l’effondrement de ce pays. évidemment, quand on regarde sa structure d’âge, son indicateur de fécondité, il est impossible d’imaginer sur la longue durée une Allemagne dominante. Mais son déclin prendra sans doute plus de temps qu’on ne croit.
J’ajouterais que, lorsque j’entends un Anglais prescrire des remèdes à l’économie allemande, je hausse les épaules. Les critiques formulées par des libéraux vis-à-vis d’un type de capitalisme complètement différent du leur méconnaissent la dynamique profonde des sociétés.

 

En quoi la dynamique profonde de la société allemande éclaire-t-elle son modèle économique ?

Il faut être clair sur ce que sont les buts de l’économie pour la juger. Au début des années 1960, dans Les étapes de la croissance économique1, le penseur anticommuniste Rostow pose la question de savoir ce qui se passe pour les sociétés au-dessus d’un certain niveau de vie, d’un certain degré de développement technologique. Il parvient à la conclusion qu’elles ont le choix entre des objectifs de bien-être et des objectifs de puissance. Nous autres, bons petits Français, assez proches du tempérament individualiste atlantique, nous justifions le succès de l’économie en termes de bien-être des individus, de consommation. Ce n’est pas le cas de l’Allemagne : dans son système capitaliste intégré, l’objectif réel des entreprises n’est pas l’optimisation du profit, la satisfaction de l’actionnaire et du consommateur, mais la conquête de parts de marché. Le producteur est roi et la consommation, serait-on tenté de dire, un mal nécessaire. Si vous jugez l’économie allemande en termes d’objectifs de bien-être, il est indubitable qu’avec l’austérité, les bas salaires, la non-production d’enfants, c’est un échec. Mais si l’on se dit que l’objectif de l’économie et des classes dirigeantes allemandes, accepté par la population qui vote, est avant tout un objectif de puissance, alors sa réussite est spectaculaire puisque l’Allemagne contrôle l’Europe.

 

Comment expliquez-vous ce capitalisme atypique ?

Il existe ailleurs qu’en Allemagne : c’est à peu près le même au Japon. Ses traits significatifs pourraient être ramenés aux valeurs fondamentales de la famille « souche », qu’on retrouve dans les deux pays. Ces valeurs, ce sont l’autorité et l’inégalité. Autorité des parents sur les enfants, inégalité entre les enfants (dont un seul est destiné à hériter). Elles s’opposent point par point aux valeurs de la famille « nucléaire » du Bassin parisien (caractère libéral du rapport entre parents et enfants, égalité entre les enfants).

 

Mais ce sont des structures qui remontent à la famille paysanne, à l’époque préindustrielle…

Elles ne sont plus là, elles ne devraient plus exister, mais les mœurs ont survécu. Quelque chose perdure. Dans le cas de la famille souche, cela se manifeste par la discipline, la rigidité même, le besoin de cohésion et de continuité, l’acceptation des hiérarchies sociales, et bien sûr une vision inégalitaire du monde, un certain ethnocentrisme. Dans le domaine économique, c’est ce qui permet d’expliquer la légère résistance initiale à l’industrialisation au Japon comme en Allemagne, puis l’essor des deux pays – et aujourd’hui leur plus grande robustesse – dans ce secteur. C’est ce qui explique aussi l’excédent commercial qui, fondamentalement, est une asymétrie2.  Nous avons affaire ici à une accumulation de puissance, la ressource monétaire servant à dominer les autres. Je suis absolument convaincu que la capacité de l’Allemagne actuelle à tenir l’Union européenne est un effet de ses excédents commerciaux. Ils ne servent pas à satisfaire les consommateurs, mais à asservir l’Europe. Historiquement, on n’a de toute façon jamais vraiment vu l’Allemagne placer l’objectif de bien-être avant l’objectif de puissance.

 

Dans l’après-guerre, l’Allemagne est pourtant devenue une société de consommation ?

La vérité, c’est que l’Allemagne de l’après-guerre n’était que partiellement l’Allemagne. C’était un pays vaincu, sous occupation américaine d’un côté et russe de l’autre. La partie qui a réussi, l’Ouest, s’est en effet remarquablement adaptée à la société de consommation. Mais ce n’était qu’une soumission formelle à l’idéologie dominante du monde anglo-saxon. Ensuite a eu lieu la réunification et je crois vraiment que ni les Français ni les Américains n’ont voulu voir ce qu’elle a signifié pour l’Allemagne. Ce double déni est un sujet sur lequel je travaille actuellement.

 

Mais qu’avons-nous refusé de voir ?

Les Français n’ont pas voulu comprendre que l’Allemagne avait changé d’échelle. La République d’Adenauer était à parité de puissance avec celle de de Gaulle. L’Allemagne réunifiée, ayant récupéré sa zone d’expansion économique en Europe orientale (en fait, l’espace de domination russe est devenu l’espace de domination allemand), n’est plus à l’échelle de la France. Et la France n’arrive pas à l’admettre.
Quant aux Américains, après avoir laissé l’Armée rouge abattre la Wehrmacht entre 1943 et 1945, ils ont eu la satisfaction de vaincre (économiquement) l’adversaire communiste et ont voulu achever l’ours russe, sans voir que l’Allemagne avait retrouvé son unité, sa masse, sa position centrale en Europe et qu’elle allait redevenir elle-même, s’émanciper de leur tutelle, recouvrer sa puissance, sa capacité à dominer seule l’ensemble de l’Europe continentale hors Russie. Cette Allemagne, ce n’est plus la République fédérale sympathique, paisible d’Adenauer, c’est un pays autonome qui est énorme.

 

Vous ne craignez pas qu’on vous taxe de germanophobie ?

Cette accusation me fait rire. Moi, j’ai simplement l’impression de respecter l’Allemagne, de la voir telle qu’elle est. Comme je ne suis pas dans le déni, comme j’admets la puissance terrible de l’Allemagne, tout au long de l’histoire, pour le meilleur comme pour le pire, on me colle cette étiquette de germanophobe. Mais je n’ai jamais reçu de lettre d’insulte d’Allemagne.

 

Mais de quelle puissance parle-t-on, dans la mesure où la population va diminuer dans les prochaines décennies. Dès 2040, elle devrait être dépassée par celle de la France et du Royaume-Uni…

Il ne faut pas faire de démographisme simple. Cela fait vingt ans que la population de l’Allemagne devrait diminuer, et qu’elle ne diminue pas. Elle reste à 82 millions d’habitants. Pourquoi ? Parce que c’est un immense pays d’immigration. Une immigration moins visible, mais bien plus massive qu’en France. Nous, nous pensons aux Turcs, mais les Turcs sont un leurre. L’essentiel de l’immigration vient d’Europe de l’Est3.  Il s’agit d’un modèle différent du nôtre, d’une immigration silencieuse, qui fonctionne sur le mode amnésique. On attire des Européens au teint clair, dont on va pouvoir oublier qu’ils sont d’origine étrangère et dont les enfants, de leur côté, vont pouvoir se raconter qu’ils sont des Allemands de souche comme les autres. Cela peut aller jusqu’au recrutement en masse de Russes soi-disant d’origine allemande (comme on l’a vu après la chute du Mur) ou de Polonais. Et regardez l’Ukraine : ce pays est en cours de désintégration. Il compte 45 millions d’habitants à peu près, c’est un vivier de population active bien formée par la tradition soviétique. On se dirige vers le partage de ce vivier entre la Russie et l’Allemagne. Or, ces ressources de main-d’œuvre, c’est vingt ans de vie pour l’Allemagne. Non, vraiment, je ne la donnerais pas finie trop vite.

 

Uniquement parce qu’elle sait attirer des travailleurs étrangers ?

Elle ne fait pas que les attirer sur son territoire ; elle les fait aussi travailler chez eux à son profit. On ne comprend pas l’Allemagne si on la limite à ses frontières et à sa population. Le succès récent de l’économie allemande ne saurait s’analyser sur la base des 82 millions d’habitants confinés entre le Rhin et l’Oder, pas même sur la base d’une Allemagne élargie à l’Autriche, à la Suisse alémanique et aux Pays-Bas. La grande réussite du pays, c’est la mise en ordre de toute l’Europe de l’Est, c’est l’annexion, la mise au travail, la réorganisation de l’activité de la Tchéquie, de la Pologne et de tout cet espace anciennement soviétique. Cela représente une masse beaucoup plus considérable que l’Allemagne stricto sensu. Je crois qu’on sous-estime énormément l’Allemagne en tant que principe organisateur la dépassant. Sur la très longue durée, évidemment tout cela va s’effondrer, évidemment l’Europe est foutue. Mais ce sera plus long qu’on ne pense.

 

Qu’est-ce qui vous fait croire à une catastrophe finale ?

Les régularités de l’histoire allemande. Au XXe siècle, ce pays a, de manière récurrente, accompli des choses extraordinaires pendant une certaine période, ces choses extraordinaires menant à un désastre final. Durkheim a écrit des pages lumineuses sur le sujet dans un petit livre paru en 1915, en pleine Première Guerre mondiale donc, et intitulé L’Allemagne au-dessus de tout. Il y évoque une Allemagne capable de s’élever au-dessus de ses forces. Mais, poursuit-il, ce surcroît de tension ne pourra pas durer. Et, en effet, l’Allemagne a fini par s’effondrer. Souvenons-nous aussi, sur un mode pacifique et apaisé, des rapports de force pendant la Seconde Guerre mondiale. L’idée qu’il a fallu les Américains, plus les Anglais, plus les Russes, pour venir à bout de la Wehrmacht, quand on regarde les effectifs en présence, le poids démographique des uns et des autres, défie l’entendement. Cela a pourtant eu lieu. Nous avons connu ce moment de surpuissance complètement incompréhensible pour ceux qui ne font pas d’anthropologie et n’ont pas travaillé sur ces populations capables de se montrer supérieurement efficaces pendant une période limitée.
Il faut se dire qu’en temps de guerre économique, et la globalisation est une guerre économique, l’Allemagne est capable de faire aussi bien qu’en temps de guerre tout court. Ce n’est plus la Wehrmacht, c’est sa machine de guerre économique, qui a aplati l’Europe occidentale et en particulier la France, et qui, dans la mesure où ses buts ne sont pas rationnels – puisque accumuler des excédents commerciaux énormes avec une population vieillissante, c’est une pseudo-rationalité, une sorte de rationalité des moyens plus que des fins –, va tous nous mener à une catastrophe économique. Ce sera le troisième suicide de l’Europe, toujours sous leadership allemand.

 

A quoi attribuez-vous cette irrationalité ?

La famille souche a un caractère simultanément dynamique et pathogène. Mais je ne veux pas tout ramener à l’anthropologie, cependant. L’histoire compte aussi. Japonais et Allemands, qui présentent le même type de structure familiale, divergent aussi sur bien des points et en particulier sur un point historique crucial. Au XXe siècle, l’Allemagne s’est amputée elle-même d’une partie de ses élites. Jamais le Japon ne l’a fait. Les Japonais ont eu un régime que l’on peut décrire comme militaro-fasciste, mais ils n’ont pas fait l’expérience d’un système comparable au nazisme, qui a exterminé une bonne partie de l’intelligentsia, et pas seulement juive.

 

Quel rapport avec l’irrationalité actuelle de l’Allemagne ?

L’une des déviances les plus spectaculaires de l’Allemagne actuelle, c’est le sous-développement de l’enseignement supérieur. Dans l’ensemble des grandes nations industrialisées, à peu près 40 % des jeunes font des études supérieures. Au Japon, c’est même 50 %. En Allemagne, c’est un peu moins de 30 %. Autrement dit, elle manifeste une forme de résistance au monde postindustriel. Cette résistance, qui se traduit aussi par l’incapacité de l’Allemagne à sortir de ses prouesses technologiques sur ses « bagnoles » – des prouesses technologiques de second ordre à tout prendre –, est liée, selon moi, au fait que l’Allemagne n’a jamais vraiment surmonté le traumatisme provoqué par le régime nazi, sur le plan intellectuel et culturel.
Il faut se rappeler qu’avant 1933 la culture allemande était l’une des plus dynamiques – la culture universitaire était même tout simplement la plus dynamique – du continent européen. Mais cela a été détruit et je pense que le vide n’a jamais été comblé. C’est vraiment terrible : le pays qui domine l’Europe par sa masse démographique et industrielle ne possède pas, en un certain sens, une classe dirigeante complète. Le comportement actuel de l’Allemagne (ses excédents, l’austérité qu’elle veut imposer à tout le monde, etc.) ne s’explique pas par le fait que ce pays aurait une pensée spécifique. C’est, je crois, plutôt l’effet d’une non-pensée. Les Allemands, du reste, ne sont pas seuls coupables : la responsabilité des classes dirigeantes européennes et en particulier des élites françaises est énorme. Elles n’ont pas été capables de se rendre compte que leur leader n’a pas de cerveau.

 

Propos recueillis par Baptiste Touverey.

18 faits & idées à glaner dans le numéro 60

 

• L’Allemagne est la seconde destination pour les candidats à l’émigration après les États-Unis.

• Sur les sites de rencontres, on envoie le même baratin à des dizaines de partenaires potentiels.

• Les données Web renseignent mieux sur ce que pensent les gens que les questionnaires et les sondages.

• La politique compte autant que l’économie.

• Il faut marcher longtemps pour réapprendre à s’aimer.

• Les Indiennes qui pratiquent la gestation pour autrui sont totalement instrumentalisées.

• L’Allemagne consacre moins d’argent à l’éducation et à la formation que la France ou la Grande-Bretagne.

• 50 000 entrepreneurs allemands ont émigré dans la Silicon Valley.

• Les chômeurs allemands de longue durée sont tenus d’accepter n’importe quel type de poste.

• À long terme, l’Europe est foutue.

• Appliquer la morale individuelle aux affaires de l’État est une erreur philosophique aux conséquences catastrophiques.

Los Angeles compte 250 000 locuteurs du farsi.

• La CIA a très peu d’agents de terrain.

• Pour saint François, le savoir tiré des livres exhalait un parfum de richesse et d’arrogance.

• La beauté est dans l’œil du buveur de bière.

Marcel Duchamp n’a jamais réussi à exposer son urinoir.

• Quand les Français parlent d’amour, il est difficile de les arrêter.

• Seuls 3 % des livres publiés aux États-Unis sont des traductions.