Cholestérol : De sérieux doutes

Le taux de cholestérol de Martin Winn avait grimpé. En montant des côtes à vélo, il sentit une douleur au thorax qui pouvait révéler une angine de poitrine. Il décida donc avec son médecin de prendre un médicament appelé une statine, destiné à faire baisser son cholestérol. Il entrait en bonne compagnie. Les statines sont les médicaments les plus vendus de l’histoire de la médecine. Pris par plus de 13 millions d’Américains, auxquels s’ajoutent une douzaine de millions de patients dans le reste du monde (1), ils ont représenté un chiffre d’affaires de 27,8 milliards de dollars en 2006. Dont la moitié pour Pfizer, pour sa statine phare, l’atorvastatine, vendue sous le nom de Lipitor (Tahor en France).

Les statines ont bien joué leur rôle chez Martin Winn. Son taux de cholestérol a baissé de 20 %. « Je me suis dit que je vivrais plus longtemps », raconte ce mécanicien en retraite de Vancouver, au Canada. Mais l’histoire a pris un tour inattendu. Le docteur de Winn, James M. Wright, n’est pas un médecin de famille ordinaire. Professeur à l’université de Colombie britannique à Vancouver, il est aussi le directeur de Therapeutics Initiative, un organisme indépendant issu de cette université publique, dont l’objet est de se pencher sur les données concernant les médicaments et de voir comment ceux-ci fonctionnent réellement. Au moment précis où Winn commençait son traitement, l’équipe de Wright était en train d’analyser les résultats d’années d’essais cliniques sur les statines. Et n’aimait guère ce qu’il y trouvait.

Marché : de beaux restes

La statine de Pfizer, le Lipitor, est restée le médicament le plus vendu au monde (et en France) en 2011, avec un chiffre d’affaires total de 9,5 milliards de dollars. Mais, l’exclusivité du brevet étant tombée en novembre 2011, la marque d’origine est désormais concurrencée par une série de génériques. Le Crestor d’AstraZeneca (lire l’entretien avec Michel de Lorgeril p. 39) a généré en 2011 un chiffre d’affaires de 7,3 milliards de dollars et bénéficie de l’exclusivité du brevet jusqu’en 2016. Le passage progressif aux génériques et les inquiétudes sur les effets secondaires tendent à faire baisser la valeur du marché.

Oui, conclut Wright, les statines peuvent bien sauver la vie de patients qui ont déjà eu une crise cardiaque, en réduisant quelque peu les risques d’une récidive pouvant conduire à une mort prématurée. Mais il en va autrement pour la majorité des patients, comme Winn, qui n’ont pas de maladie de cœur avérée. À sa surprise, il ne trouva pas de bénéfice pour les plus de 65 ans, quelle que soit la baisse obtenue du taux de cholestérol, et aucun bénéfice pour les femmes quel que soit leur âge.

Il constata bien une petite réduction du nombre de crises cardiaques chez les hommes d’âge moyen mis sous statines dans les essais cliniques. Mais, même pour ceux-ci, il ne trouva pas de réduction globale du nombre total de décès (toutes causes confondues) ni de troubles nécessitant une hospitalisation – en dépit d’une forte réduction de leur taux de « mauvais » cholestérol.

Le « mauvais » cholestérol

Il n’y a pas à proprement parler de « bon » et de « mauvais » cholestérol. L’appellation vient de ce que cette molécule, qui a de multiples fonctions essentielles, est transportée dans le sang par deux types principaux de « lipoprotéines ». C’est l’un de ces transporteurs qui serait la source du mal. Selon la théorie en vigueur depuis le début des années 1980, si le taux de cholestérol véhiculé par ce transporteur est trop élevé, la molécule s’accumule anormalement dans la paroi des artères, créant l’athérosclérose. On appelle ce « mauvais » cholestérol LDL (pour « low-density lipoprotein »). Le cholestérol transporté par l’autre grande catégorie de lipoprotéines est considéré comme le « bon ». Il se nomme HDL (pour « high-density lipoprotein »).

« La plupart des gens mis sous statines n’ont aucune chance d’en bénéficier et un risque sérieux d’effets secondaires », dit Wright. Du coup, comme son patient n’avait pas d’angine de poitrine, Wright changea d’avis et cessa de lui prescrire des statines. Winn se laissa persuader. « Comme il n’y avait pas de bénéfice apparent, je n’en prends plus », dit-il.

Mais qu’est-ce que c’est que cette histoire ? Les Américains sont bombardés de messages émanant des médecins, de l’industrie et des médias, disant qu’un haut niveau de mauvais cholestérol vous rapproche du cimetière et qu’il faut le faire baisser. Les statines, ajoute-t-on, sont l’arme la plus efficace à notre disposition dans ce combat. Ces médicaments sont si efficaces que, selon les recommandations officielles de l’État fédéral publiées en 2004 par le Programme national d’éducation sur le cholestérol (NCEP), 40 millions d’Américains auraient intérêt à les prendre. Certains chercheurs ont même suggéré, en plaisantant à moitié, que l’on mette des statines dans l’eau du robinet, comme le fluor pour les dents.

Publicité

Outre Pfizer, les statines sont vendues par Merck (lovastatine, sous le nom de Mevacor ; simvastatine, sous le nom de Zocor), Bristol-Myers Squibb (pravastatine, sous le nom de Pravachol) et AstraZeneca (rosuvastatine, sous le nom de Crestor) (2). Il est presque impossible d’éviter de tomber sur une publicité rappelant que ces médicaments sont vitaux. Ainsi une campagne de Pfizer à la télévision et dans la presse écrite présente en vedette Robert Jarvik, l’inventeur du cœur artificiel, comme prenant du Lipitor (Tahor). La pub imprimée proclame que « le Lipitor réduit le risque de crise cardiaque de 36 %… chez les patients qui ont de multiples facteurs de risque de maladie cardiaque ». Comment irait-on mettre en question les bénéfices d’une telle classe de médicaments ?

Pour commencer, nombre de chercheurs mettent en doute le besoin de faire baisser le taux de cholestérol. Ces doutes ont été renforcés le 14 janvier 2008, quand Merck et Schering-Plough ont révélé les résultats d’un essai clinique d’un médicament, le Vytorin (Inegy en France), dans lequel la simvastatine de Merck est associée à un anticholestérol de Schering-Plough, l’ézétimibe (Zetia, Ezetrol en France) (3). Ce médicament double faisait baisser le cholestérol plus que la statine seule. Mais même après deux années de traitement, le bénéfice thérapeutique était nul.

Il y a un second point, crucial, que la publicité de Pfizer pour le Lipitor illustre parfaitement. Le chiffre impressionnant de 36 % est accompagné d’un astérisque qui renvoie à une note. Il faut la lire. Elle dit : « Cela signifie que dans une grande étude clinique 3 % des patients prenant une pilule sucrée ou un placebo ont eu une crise cardiaque, contre 2 % des patients prenant du Lipitor. » Faisons un peu d’arithmétique. Les chiffres présentés dans cette phrase signifient que dans cet essai qui a duré trois ans et demi, pour cent personnes impliquées, trois sous placebo et deux sous Lipitor ont eu une attaque cardiaque. Quel bienfait apporte le médicament ? Une attaque cardiaque de moins pour une personne sur cent. Donc, pour épargner une attaque à un patient, cent personnes ont dû prendre le Lipitor plus de trois ans. Les 99 autres n’ont pas eu de bénéfice mesurable.

Pour exprimer cela, les statisticiens disent que le « nombre de sujets à traiter » (NST) pour qu’une personne en tire un bénéfice est de 100. On peut comparer avec le traitement antibiotique standard contre la bactérie H. pylori, agent de l’ulcère de l’estomac. Dans ce cas le NST est de 1,1. Pour onze malades qui reçoivent l’antibiotique, dix sont guéris. Un bas NST, voilà l’efficacité attendue des patients pour leur médicament. Quand Wright et d’autres expliquent à des patients sans antécédent cardiaque qu’ils ont seulement une chance sur cent de bénéficier de la prise quotidienne d’une statine pendant plusieurs années, la plupart sont stupéfaits. Nombre d’entre eux choisissent de ne pas le faire ou, comme Winn, de cesser le traitement.

« Pire qu’un ticket de loterie »

De surcroît, il y a de bonnes raisons de penser que le bénéfice réel pour de nombreux patients est même inférieur à ce que suggère un NST de 100. Ledit NST a en effet été déterminé dans le cadre d’un essai clinique payé par l’industrie, dans lequel les patients recrutés ont été soigneusement sélectionnés ; ils ont des facteurs de risque multiples, y compris l’hypertension ou le tabagisme. Dans le seul grand essai clinique financé sur fonds publics et non par l’industrie, aucun bénéfice statistiquement significatif n’a été trouvé (4).

Douteux essais cliniques

Les principaux essais cliniques qui ont servi à justifier la prescription des statines ont fait l’objet de différentes formes de truquages et de manipulations par les industriels qui les ont commandités (lire les entretiens avec Michel de Lorgeril p. 39 et Philippe Even p. 41). La question est bien exposée dans un ouvrage récent d’une cardiologue américaine, Barbara H. Roberts, professeure associée à Brown University*. Son témoignage est d’autant plus intéressant qu’elle a elle-même participé à certains de ces essais. Elle est particulièrement critique à l’égard de l’essai Jupiter (2008), qui a servi à valider l’usage du Crestor en prévention primaire.

* The Truth About Statins, Gallery Books, 2012.

Et, parce que tout essai clinique souffre de biais potentiels, un résultat annonçant un faible bénéfice est toujours entaché d’incertitude, observe le Dr Nortin M. Hadler. Professeur de médecine à l’université de Chapel Hill en Caroline du Nord, critique de l’industrie pharmaceutique, il a publié le livre Worried Sick, consacré à la surmédicalisation des Américains. « Un NST de plus de 50 est pire qu’un billet de loterie. Il peut n’y avoir aucun gagnant », écrit-il. Plusieurs articles scientifiques récents donnent un NST de 250 et plus pour la prise d’une statine par des patients ayant un risque modéré de maladie cardiaque, même si le traitement est suivi pendant plus de cinq ans. « Que va-t-il se passer si vous mettez 250 personnes dans une salle et si vous leur expliquez qu’ils vont payer 1 000 dollars par an pour un médicament qu’ils auront à prendre chaque jour, que beaucoup d’entre eux vont souffrir de diarrhées et de douleurs musculaires et que, sur les 250, 240 n’en tireront aucun bénéfice ? Et qu’ils obtiendraient un bénéfice équivalent en se contentant de faire un peu d’exercice ? Combien d’entre eux choisiront le médicament ? » demande Jerome R. Hoffman, autre critique de l’industrie, professeur de médecine clinique à l’université de Californie à Los Angeles.

Effets secondaires

Les spécialistes sont nombreux à l’affirmer : l’industrie et les autorités de santé minimisent les effets secondaires des statines. Il est difficile d’y voir clair, car les essais cliniques renseignent mal le sujet. Dans son livre The Truth About Statins, la cardiologue Barbara Roberts énumère divers effets plus ou moins bien étudiés. Elle met au premier rang le risque de douleurs musculaires (pouvant entraver toute activité sportive) et le risque de problèmes neurologiques (amnésie parfois profonde, notamment). Plusieurs études récentes pointent un risque de diabète et un risque rénal. Les risques secondaires sont fonction de la statine considérée, de la dose, mais aussi du sexe : ils sont plus fréquents et plus sévères chez les femmes (Barbara Roberts).

Les compagnies pharmaceutiques et les autres promoteurs des statines admettent que le NST est élevé. « Comme vous l’avez calculé, le NST est en effet d’environ 100 dans cet essai », écrivent des officiels de Pfizer dans une réponse écrite à mes questions. Ils objectent qu’un NST élevé ne veut pas toujours dire qu’un médicament ne mérite pas d’être largement utilisé. Après tout, si des millions de gens prennent des statines, même le petit avantage procuré par un NST supérieur à 100 signifierait que l’on évite ainsi des milliers d’attaques cardiaques.

Objection légitime, qui pose une question difficile aux responsables des politiques de santé. Combien faut-il dépenser en prévention, comme la prescription de statines ou de tests pour le cancer de la prostate, si cela ne bénéficie qu’à un petit pourcentage de gens ? « Tout dépend de si nous pensons en termes de population, auquel cas nous devrions tous être sous statines, ou si nous pensons d’abord à l’individu, auquel cas il ne faut pas le faire », dit le Dr Peter Trewby, consultant au Darlington Memorial Hospital en Angleterre (5) : « Ce qui est de grande valeur pour la population peut se révéler de faible valeur pour l’individu. » C’est comme acheter un ticket de loterie pour le bénéfice d’une œuvre de bienfaisance. C’est pour une bonne cause, mais vous avez peu de chances de remporter le gros lot.

Les promoteurs des statines font aussi valoir que si le NST a été calculé après seulement trois ou cinq ans d’essai clinique, il est plus élevé que sa valeur réelle. Selon les responsables de Pfizer, même si l’essai n’a permis de prévenir qu’une seule attaque cardiaque pour cent personnes, « il reste possible que plusieurs, voire les cent » bénéficient de la statine, en raison d’une réduction du risque d’attaque cardiaque au cours des années à venir. Et le bénéfice augmente avec le nombre d’années de prise du médicament, croient ses promoteurs. « Cela n’a aucun sens de prendre une statine pendant cinq ans », dit le Dr Scott Grundy, directeur du Centre de nutrition humaine à l’université du Texas à Dallas et président du comité du Programme national d’éducation sur le cholestérol (NCEP) qui a appelé, on l’a vu, à développer plus énergiquement le traitement par les statines. Pour lui, « prendre un médicament pour faire baisser le cholestérol est un engagement lourd. Il faut le faire pour la vie ». Selon Grundy le risque d’avoir une attaque cardiaque au cours de la vie est de 30 % à 50 % et est plus élevé pour les hommes que pour les femmes. Les statines, estime-t-il, réduisent ce risque de 30 % environ. Par conséquent, en prendre pendant trente ans apporterait un bénéfice de neuf à quinze attaques en moins pour cent personnes. Cela signifie qu’il suffirait que sept à onze personnes prennent une statine à vie pour que l’une d’elles voie ce risque éliminé.

Grundy & Co

Les principaux scientifiques universitaires américains qui défendent la cause des statines sont rémunérés par l’industrie. C’est le cas de Scott Grundy, premier auteur des recommandations nationales officielles de 2004. Il a dû admettre avoir été rémunéré par Merck, Pfizer, Bayer, Bristol-Myers Squibb, AstraZeneca (lire p. 24)…
C’est aussi le cas de Paul Ridker, principale caution académique de l’essai « Jupiter » qui a conduit la FDA à approuver l’extension de la prescription de statines aux adultes en bonne santé en cas de réponse positive à un test. Il a admis avoir été rémunéré par AstraZeneca, Novartis, Merck, Abbott, Roche et Sanofi-Aventis. Et perçoit des royalties sur le test en question.

Un tableau enjolivé, rétorquent les critiques, et reposant sur une série d’actes de foi. Un risque d’attaque cardiaque diminué de 30 % est « le scénario le plus favorable et ne se retrouve pas dans beaucoup d’études », dit Wright. De plus, les statines sont maintenant en usage depuis vingt ans et on ne voit guère de signe de réduction du NST à mesure que la durée du traitement s’allonge. Plus important, les essais réalisés sur des personnes n’ayant pas de maladie cardiaque n’ont montré aucune réduction du nombre de décès ou d’accidents de santé sérieux, en dépit d’une petite diminution du nombre d’attaques cardiaques. « Il nous faut dire aux patients que la réduction du risque cardiovasculaire sera compensée par une augmentation d’autres maladies sérieuses », dit John Abramson, enseignant à la Harvard Medical School et auteur du livre « L’Amérique sous overdose (6) ».

Dans sa réponse écrite, Pfizer ne remet pas en cause cette affirmation clé : que les statines ne réduisent pas la mortalité ni l’occurrence d’états graves chez les sujets non affectés par la maladie cardiaque. La compagnie se contente de répéter que les statines réduisent le « risque d’événements coronariens » et ajoute que l’analyse de Wright n’a pas été publiée dans un journal scientifique à comité de lecture (7) [Au sujet des journaux scientifiques à comité de lecture, lire notre entretien avec Philippe Even].

Milliards de dollars par an

Si nous savions de manière certaine qu’un médicament est complètement sûr et bon marché, son usage massif ne serait pas un souci, même avec un NST de 100. Mais on évalue à 10 % ou 15 % la proportion des usagers de statines souffrant d’effets secondaires, notamment des douleurs musculaires, des troubles cognitifs et des dysfonctionnements sexuels. Et le coût de l’usage massif des statines se chiffre en milliards de dollars par an, si l’on compte, en plus du prix du médicament, les visites chez le médecin, les tests du niveau de cholestérol et d’autres examens (8). Une part des ressources consacrées aux dépenses de santé « ne va donc pas à des interventions qui pourraient être bénéfiques », explique le Dr Beatrice A. Golomb, professeure à la San Diego School of Medicine de l’université de Californie (9).

Que vaudrait-il mieux ? Peut-être encourager les gens à passer au « régime méditerranéen » ou simplement à manger plus de poisson. Selon plusieurs études, ces deux types de modification du régime alimentaire ont apporté une plus forte réduction des attaques cardiaques que les statines – même si les essais étaient trop petits pour être complètement convaincants. Il importe aussi d’être en bonne forme physique. « Ce qui marche vraiment c’est le mode de vie, l’exercice, une alimentation saine et la réduction du poids », dit Jerome Hoffman à l’université de Los Angeles. « Ces remèdes ont aussi un NST élevé, mais leur coût est beaucoup moins élevé que celui des médicaments et ils améliorent la qualité de vie. »

Régime méditerranéen

Depuis l’étude dite « de Lyon » menée par le Français Michel de Lorgeril dans les années 1990, la « diète méditerranéenne » est présentée par beaucoup, y compris aux États-Unis, comme une solution élégante et économique au problème de la prévention des maladies cardiaques. Plusieurs études ont en effet montré qu’un régime fondé sur les céréales, les légumes, les fruits et les graisses non saturées (poisson, huile d’olive) réduit le risque de maladie. Le paradoxe, c’est que la consommation de viande a beaucoup augmenté dans les pays méditerranéens à partir des années 1960 et que la maladie cardiaque a continué de régresser, note l’épidémiologiste de Cambridge John Powles*.

* Gary Taubes, « The soft science of dietary fat », Science, 30 mars 2001.

La difficile question du rapport coûts-bénéfices se pose pour la plupart des médicaments, pas seulement les statines. Un vilain petit secret de la médecine moderne est que beaucoup de médicaments ne sont efficaces que chez une minorité de patients. « On a tendance à considérer que les médicaments marchent bien, mais les gens seraient surpris d’apprendre l’ampleur des bénéfices réels », dit Steven Woloshin, professeur à la Dartmouth Medical School (New Hampshire).

Un bon exemple : les bêtabloquants sont considérés comme essentiels dans le traitement de l’insuffisance cardiaque. Pourtant, les études le montrent, il faut en moyenne que 24 personnes prennent le traitement pendant sept mois pour prévenir une hospitalisation pour insuffisance cardiaque (un NST de 24). Et le nombre monte à 40 pour prévenir un décès (un NST de 40). « Même pour des médicaments que nous considérons comme efficaces, on trouve des NST de 20 et au-dessus », dit le Dr Henry C. Barry, professeur associé au College of Human Medicine de l’université du Michigan.

On trouve un NST élevé pour bien d’autres médicaments. Prenons le cas de l’Avandia, le médicament de GlaxoSmith-Kline utilisé pour prévenir la mortalité due au diabète. Le blockbuster, avec ses 2,6 milliards de dollars de chiffre d’affaires aux seuls États-Unis en 2006, a fait les gros titres quand l’analyse des essais cliniques a montré qu’il accroissait le risque d’attaques cardiaques (10). Ce qu’on ne dit pas, c’est qu’il n’y a guère de preuves que ce médicament bénéficie effectivement aux patients. Pour sûr, l’Avandia est très bon pour réduire le taux de sucre dans le sang, exactement comme les statines font baisser le taux de cholestérol. Mais cela n’empêche pas les conséquences désastreuses du diabète, y compris la maladie cardiaque, les attaques cérébrales et l’insuffisance rénale. Les essais cliniques « n’ont pas permis de montrer une réduction significative des accidents cardiaques, même avec un excellent contrôle du glucose », écrit dans le New England Journal of Medicine le Dr Clifford Rosen, qui présidait le comité de la Food and Drug Administration (FDA) chargé d’évaluer ce médicament. Pour Jerome Hoffman, « l’Avandia est quasiment l’emblème de tout ce qui ne fonctionne pas dans notre système de santé. Son NST est proche de l’infini ». Le Dr Murray Stewart, vice-président pour la recherche clinique, admet que la preuve de son efficacité contre la maladie cardiaque et d’autres complications majeures du diabète « est encore fragile ». Mais le médicament a d’autres avantages, souligne-t-il, comme le fait de retarder le besoin de prendre de l’insuline.

Condamnations en chaîne

En juillet 2012 le Britannique GlaxoSmithKline a été contraint par la justice américaine de payer 3 milliards de dollars pour n’avoir pas communiqué à la FDA des données sur les effets secondaires de l’Avandia et avoir commis diverses autres fraudes sur des médicaments. C’est la plus grosse condamnation jamais prononcée contre un industriel de la pharmacie. Elle vient s’ajouter à d’autres lourdes condamnations. Des fabricants de statines sont concernés : Pfizer (3 milliards de dollars au total depuis 2002), Merck (1,6 milliard), Bristol-Myers Squibb et AstraZeneca (plus de 500 millions chacun). Toutes ces condamnations portent sur le refus de communiquer des données sur les effets secondaires et le marketing de médicaments au-delà des indications approuvées.

La vérité sur l’efficacité des médicaments serait moins préoccupante si les patients et les médecins avaient une vision claire de l’état du savoir et étaient en mesure de prendre des décisions rationnelles. Mais les études du genre de celles menées par le Dr Peter Trewby en Grande-Bretagne ou James Wright au Canada montrent que les patients attendent beaucoup plus des médicaments que ce qu’ils peuvent réellement escompter.

Effets secondaires

Pourquoi un tel décalage ? La faute revient en partie à la façon dont les résultats sont présentés. Une réduction de 36 % du nombre d’attaques cardiaques paraît plus impressionnante qu’un NST de 100. « Cela fait un choc de voir le NST », dit le Dr Barnett S. Kramer, directeur du bureau des applications médicales de la recherche à l’Institut national de la santé américain (NIH). Les compagnies pharmaceutiques en tirent le plein avantage. Elles font leur publicité avec les grosses réductions de pourcentage (les attaques cardiaques ne sont qu’un exemple) et laissent le NST dans l’ombre. À l’inverse, quand il s’agit d’évoquer les effets secondaires, elles mettent en avant le même type de rapport chiffré que le NST, affirmant par exemple qu’une personne sur cent seulement souffre d’effets secondaires, même si cela représente une augmentation de 50 % par rapport aux patients non traités par le médicament. « Beaucoup de médecins ignorent le NST d’un médicament », dit le Dr Darshak Sanghavi, pédiatre cardiologue, professeur assistant de pédiatrie à l’université du Massachusetts et chaud partisan de l’usage du NST.

Les ruses de la publicité

La publicité directe pour les médicaments est autorisée aux États-Unis, y compris à la télévision*. La publicité est souvent mensongère ou biaisée. Le biais le plus souvent utilisé est la mise en avant du risque relatif, pas du risque absolu. Si, par exemple, un essai clinique portant sur 20 000 patients montre 10 morts chez ceux qui ont pris la statine contre 20 morts chez ceux qui ont pris le placebo, l’industriel dira que le risque a été diminué de 50 % (risque relatif). Mais 10 représentent 0,1 % de 10 000. Donc le risque n’a réellement été réduit que de 0,1 % (risque absolu). En France les sociétés de cardiologie font des campagnes de publicité anticholestérol ; elles sont financées par l’industrie.

* En 2011, Pfizer a dépensé 156 millions de dollars en publicité à la télévision pour le Lipitor.

Pour le Dr Howard Brody, professeur de médecine familiale à l’université du Texas à Galverston, toute l’histoire des statines est un cas classique d’un bon médicament poussé trop loin. Après tout, le business du médicament est un business. Les compagnies sont supposées augmenter fortement les ventes et la rétribution des actionnaires. Le problème qu’elles affrontent est que bon nombre de médicaments ne sont efficaces qu’auprès d’une petite population de patients. Avec les statines, la population concernée est celle des patients ayant déjà une maladie cardiaque. Or ce n’est pas un marché blockbuster. Aussi les compagnies recherchent-elles les moyens de présenter leurs médicaments comme essentiels pour une population plus vaste, pour laquelle les bénéfices sont par définition plus faibles (11). « Ce que les rusés responsables du marketing de Pfizer et des autres compagnies fabriquant des statines ont fait a été de tirer le fil, pour faire en sorte que toute personne ayant un taux élevé de cholestérol se mette à croire qu’elle a un besoin réel de le réduire », dit le Dr Bryan A. Liang, directeur des études de droit médical à la California Western School of Law. « C’était de la pseudoscience, on ne vous disait jamais la vérité de base, à savoir que ces médicaments ne vous rendent aucun service à moins que vous ne soyez déjà atteint par la maladie cardiovasculaire. » « Le marketing a fonctionné, dit Liang, en dépit de toutes les études et des gens comme moi qui protestaient et criaient haut et fort que cette extension n’était pas étayée par des preuves. »

Conflits d’intérêt

Pfizer répond que l’industrie est « strictement réglementée » et que chaque message véhiculé par la publicité et le marketing « reflète fidèlement les indications du Lipitor et les données des essais cliniques ».

Des statines dans les big mac ?

Des chercheurs de l’Imperial College de Londres ont sérieusement proposé dans l’American Journal of Cardiology que l’on mette des statines dans les hamburgers*. Dans son livre The Truth About Statins, Barbara Roberts signale une annonce de Pfizer parue en 2010 sur News-Medical.net, selon laquelle la Commission européenne a approuvé du Lipitor à mâcher pour les enfants de plus de dix ans. On trouve aussi des articles écrits par des scientifiques assurant que les statines sont efficaces contre la maladie d’Alzheimer, le cancer, l’hypertrophie de la prostate…

* 15 août 2010.

Les industriels veillent cependant à ce que les scientifiques et les médecins qui vantent les vertus des médicaments soient généreusement rétribués. « Il est presque impossible de trouver un professionnel convaincu de l’efficacité des statines qui ne reçoive beaucoup d’argent de l’industrie », dit le Dr Rodney A. Hayward, professeur de médecine interne à l’université du Michigan (12). « En abaissant le niveau optimal recherché du mauvais cholestérol lors de l’actualisation de ses recommandations en 2004, le Programme national d’éducation sur le cholestérol (NCEP) américain a attiré l’attention des médias parce que le résultat était d’élargir la population à placer sous statines. Mais une controverse animée agita aussi la communauté médicale, parce que huit des neuf experts du comité du NCEP avaient des liens financiers avec l’industrie. La procédure de recommandation a dérapé », dit Henry Barry à l’université du Michigan. Avec trente-quatre autres experts, il a envoyé une pétition de protestation à l’Institut national de la santé (NIH), disant que les données sur lesquelles s’appuyait le NCEP étaient faibles et que le point de vue des membres du comité était biaisé en raison de leurs liens avec les firmes pharmaceutiques. L’apparition d’un conflit d’intérêts est « quelque chose de très important pour des institutions comme les nôtres et nous le prenons tous très au sérieux », répond le Dr James I. Cleeman, un officiel du NIH, coordinateur du NCEP. « Mais en l’occurrence les données scientifiques étaient parfaitement exactes. »

Corruption ordinaire

L’industrie pharmaceutique a fait de la corruption un moyen d’action ordinaire. Un important article paru récemment dans Scientific American* montre que la corruption s’étend non seulement aux scientifiques de premier plan mais aux institutions scientifiques et sanitaires censées garantir la qualité des recherches et la sécurité des médicaments. Le célèbre NIH américain, principal pourvoyeur de crédits pour la recherche, est touché en profondeur (Sanofi Pasteur est cité). Il en va de même de la FDA. Les principales revues scientifiques biomédicales sont soumises à l’industrie, de même que les sociétés de cardiologie.

* Charles Seife, « How drug company money is underminig science », 21 novembre 2012.

La confiance de James Cleeman n’est pas universellement partagée. Pour les critiques de statines, les Américains se sont laissé entraîner à se fier exagérément à des marqueurs de santé faciles à repérer. Les gens aiment avoir des repères chiffrés, comme le taux de cholestérol, qui peuvent être contrôlés et modifiés. « Une fois que vous leur donnez un chiffre, ils fixent leur attention sur le chiffre et cherchent à l’améliorer », dit Howard Brody à l’université du Texas. « La norme culturelle américaine est qu’agir nous fait nous sentir mieux que si nous ne faisions rien qu’attendre », ajoute Henry Barry. Cela s’applique aussi bien aux médecins eux-mêmes. Ils sont entraînés par les recommandations nationales, par la demande des patients et par les règles de rémunération à la réussite qui récompensent les médecins qui contrôlent et réduisent le taux de cholestérol (13). « Je m’y suis laissé prendre, dit Brody. Ne pas le faire est presque impossible. » « Si un médecin suggère à son patient de ne pas vérifier son taux de cholestérol, il risque de le voir quitter brusquement son bureau en l’accusant d’être un charlatan. » Le point de vue de Brody a changé. « Je vois maintenant comme un mythe le fait que chacun devrait faire tester son taux de cholestérol, dit-il. Avec le recul du temps cela me paraît évident. Ah, pourquoi ne l’ai-je pas compris plus tôt ? »

L’essai ENHANCE

Le cholestérol n’est qu’un des facteurs de risque de la maladie coronarienne (14). Le Dr Ronald M. Krauss, directeur de la recherche sur l’athérosclérose à l’hôpital pour enfants de l’Oakland Research Institute, explique qu’un haut niveau de cholestérol LDL favorise la maladie cardiaque en stimulant la formation de plaques dans les artères. Mais quelque chose d’autre doit se produire pour que la maladie cardiaque s’installe. « Quand vous considérez les malades du cœur, leur niveau de cholestérol n’est nettement plus élevé que chez les non-malades », dit-il. Comparez entre les pays, par exemple. Les Espagnols ont un niveau de cholestérol LDL comparable à celui des Américains mais leur taux de maladie cardiaque est plus de deux fois inférieur. Les Aborigènes australiens ont un bas taux de cholestérol mais un taux élevé de maladie cardiaque [sur la fragilité du lien entre cholestérol et athérosclérose, lire notre entretien avec Uffe Ravnskov].

En outre, dit Henry Barry, les médicaments autres que les statines qui font aussi baisser le taux de cholestérol « ne préviennent ni les attaques cardiaques ni les attaques cérébrales ». Prenez le Zetia (Ezétrol en France), évoqué plus haut, qui bloque l’absorption de cholestérol par l’intestin. Commercialisé par Merck et Schering-Plough, ce médicament a apporté un chiffre d’affaires de 1,6 milliard de dollars en 2006, en hausse de 25 % au premier semestre 2007. Les deux compagnies l’ont associé avec une statine pour créer un médicament appelé Vytorin, dont le chiffre d’affaires a été de 2 milliards de dollars en 2007. Dans l’essai clinique ENHANCE achevé en 2006 et dont le résultat était attendu avec impatience, les compagnies comparèrent le Vytorin à une statine seule chez des patients affectés d’un haut taux de cholestérol pour des raisons génétiques (hypercholestérolémie). Mais les industriels ont traîné à en annoncer les conclusions, provoquant l’indignation de scientifiques et la menace d’une enquête du Congrès. Finalement dévoilés en janvier 2008, les résultats ont montré que la combinaison du Zetia et de la statine réduisait davantage le LDL que la statine seule. Mais sans bénéfice clinique supplémentaire. En fait, les artères des patients ont davantage épaissi en prenant la combinaison qu’avec la statine seule (15). Skip Irvine, un porte-parole de la joint-venture, dit que l’essai était de faible ampleur et répète qu’« il existe une relation forte entre la réduction du taux de cholestérol LDL et celle des décès cardiovasculaires ».

L’affaire ENHANCE

Si les industriels ont retardé la publication des résultats de l’essai ENHANCE, c’est pour deux raisons. D’une part, le médicament testé, le Vytorin, rapportait beaucoup d’argent (il en rapporte toujours beaucoup aujourd’hui). Il était donc malvenu d’annoncer son inefficacité. D’autre part, l’essai invalidait une fois de plus la théorie du cholestérol. De fait, les patients qui ont reçu le médicament faisant le plus baisser le taux de cholestérol ont vu leur degré d’athérosclérose progresser davantage. Voyant cela, Prediman K. Shah, professeur de cardiologie au centre de recherche Cedars-Sinai à Los Angeles, a écrit : on peut se demander « si la théorie du mauvais cholestérol LDL est encore acceptable ».

Si baisser le cholestérol n’est pas une panacée, comment se fait-il que les statines soient efficaces pour les malades du cœur ? Dans son laboratoire au Brigham and Women’s Hospital à Cambridge (Massachusetts), le Dr James K. Liao se penche sur la question depuis plus d’une décennie. La réponse, soupçonne-t-il depuis le début, est que les statines ont d’autres effets biologiques (16).

Depuis lors, Liao et son équipe en ont apporté la preuve. Faisons un peu de biochimie. Les statines inhibent la production d’une enzyme qui joue un rôle clé dans la production de cholestérol, réduisant ainsi son niveau dans le sang. Mais ladite enzyme sert aussi à synthétiser d’autres molécules clés. Imaginez une usine de jouets dans laquelle le même plastique sert à fabriquer des petites voitures, des camions et des trains. Réduire la production de plastique ne réduit pas seulement la production de voitures (le cholestérol), mais aussi de camions et de trains. Dans le corps, ces autres produits sont des molécules-signal qui déclenchent ou stoppent l’activité de tel ou tel gène, ce qui entraîne à la fois des effets secondaires et des bénéfices.

Liao a identifié certains de ces cheminements biochimiques. Ses travaux récents montrent que l’un des camions, si on file la métaphore, une molécule appelée ROCK, joue un rôle essentiel. En réduisant la quantité de cette enzyme, les statines contrecarrent l’inflammation qui abîme les artères. Quand Liao diminue beaucoup le niveau de ROCK chez les rats, ils ne deviennent pas malades du cœur. « La baisse du cholestérol n’est pas la raison de l’efficacité des statines », dit-il. Ce travail offre aussi une explication possible des raisons pour lesquelles cette efficacité se voit principalement chez les malades du cœur et pas chez ceux qui ont simplement un taux élevé de cholestérol. Étant relativement en bonne santé, leur taux de ROCK est normal et le niveau d’inflammation est faible. Mais chez les fumeurs et les hypertendus le niveau de ROCK s’élève. Les statines le font redescendre à un niveau normal, compensant en partie les effets négatifs.

Si l’on met tout cela bout à bout, « les données actuelles invitent à ne pas se préoccuper du tout de son taux de “mauvais ” cholestérol », dit Rodney Hayward à l’université du Michigan. Dans un pays où baisser son niveau de cholestérol est habituellement perçu comme une affaire de vie ou de mort, voilà des mots qui fâchent. Furieux, un éminent cardiologue promoteur des statines a déclaré, lors d’un récent congrès, que « Hayward devrait être traduit en justice pour faire des choses qui tuent des gens », raconte l’intéressé. Cleeman, l’officiel du NCEP, ajoute qu’à ses yeux la position de Hayward est scientifiquement indéfendable.

Mais si les nouvelles analyses ont de quoi irriter ceux qui ont bâti leur carrière sur le besoin de réduire le « mauvais » cholestérol, elles indiquent aussi le moyen d’utiliser les statines de manière plus efficace. De façon surprenante, les deux camps sont d’accord sur l’approche générale. Pour toute personne ayant des inquiétudes sur son cœur, le premier pas doit toujours être un régime plus équilibré et davantage d’exercice physique. Si déjà chacun faisait cela, « le nombre de personnes à risque diminuerait de manière drastique », dit Ronald Krauss à l’Oakland Research Institute. Et une analyse récente de Hayward montre que les statines seraient prescrites à meilleur escient en fonction du risque de maladie cardiaque de chaque individu plutôt que de son niveau de cholestérol LDL. Plus le risque est élevé, plus le médicament semble opérer. « Pour deux patients ayant le même risque, les données montrent qu’ils tirent le même bénéfice d’être sous statines, quel que soit leur niveau de cholestérol », dit Hayward.

Variation génétique

Les moyens d’affiner cette approche sont peut-être pour bientôt. Le groupe Celera, la compagnie qui a réalisé le premier séquençage du génome humain, a découvert une variation génétique qui prédit qui tirera le meilleur bénéfice des statines. Il est possible que 60 % de la population ait cette caractéristique génétique, dit le Dr John Sninsky, vice-président de Celera pour la recherche. Pour les autres, le NST est trop élevé. « Cela n’a rien à voir avec votre niveau de cholestérol », dit Sninsky.

Si les statines étaient utilisées de façon plus rationnelle, les fabricants prendraient un coup. Mais la santé et les comptes de la nation s’en porteraient sans doute mieux. Cela peut-il se produire ? Les données sur le NST, la faiblesse du lien avec le cholestérol et les nouvelles connaissances sur la variabilité génétique vont-elles modifier le comportement des médecins et les croyances des patients ? Pas tant que le pays ne changera pas sa politique de santé, dit Jerome Hoffman à l’université de Los Angeles : « Notre système de santé n’est pas fondé sur les faits, mais sur ce qui rapporte de l’argent. »

Cet article est paru dans Business Week, le 16 janvier 2008. 

Uffe Ravnskov : « Il n’y a aucun lien entre cholestérol et athérosclérose »

Dans votre livre « Les matières grasses et le cholestérol sont bons pour votre santé », vous rappelez une étude vieille de 75 ans montrant l’absence de lien entre le taux de cholestérol et l’athérosclérose. Ce résultat était-il une anomalie, une exception ?

C’était en 1936, à New York. Un anatomopathologiste et un biochimiste avaient analysé les artères de gens morts subitement d’un accident, d’un suicide ou d’un meurtre. Et trouvé aucune association entre le taux de cholestérol dans le sang et le degré d’athérosclérose. Ces résultats ont été confirmés par plusieurs équipes dans les années 1960 puis dans les années 1970 par angiographie (et en 2001 par tomographie à faisceau d’électrons).

En 1959 des chercheurs américains et japonais ont montré que l’aorte des Japonais avait autant d’athérosclérose que celles des Américains. Or les Japonais avaient un bas taux de cholestérol…

Cela a été confirmé par une étude de 1969 portant sur les artères cérébrales de 7 000 Américains et Japonais. Les artères de ces derniers étaient même les plus abîmées. C’est un autre indice illustrant le fait que l’athérosclérose n’a rien à voir avec la concentration de cholestérol dans le sang.

Une étude de 1962 montre que manger des aliments riches en cholestérol, comme les œufs, n’augmente pas le taux de cholestérol dans le sang…

Publiée dans le bulletin de l’OMS, cette étude a été amplement confirmée depuis. Je l’ai expérimenté sur moi-même, en mangeant huit œufs par jour pendant une semaine et en mesurant mon taux de cholestérol : il n’a pas augmenté, il a même plutôt baissé. C’est parfaitement normal : notre corps produit chaque jour trois à cinq fois plus de cholestérol que ce que nous en absorbons. Si nous n’en prenons pas assez, notre corps en produit davantage ; si nous nous gobergeons de graisses d’origine animale, notre corps en produit moins.

En 1962 et 1963 plusieurs chercheurs ont montré qu’en Afrique de l’Est les Masaï, les Samburu et les bergers somaliens, qui mangent principalement des graisses animales, ont un très bas taux de cholestérol…

Etudiés par le Pr George Mann de l’université Vanderbilt, qui avait établi un laboratoire sur place, les Masaï sont un cas particulièrement intéressant. Le taux de cholestérol de ces guerriers nomades est le plus bas jamais mesuré, alors que 60 % des calories qu’ils absorbent sont dérivées de graisses saturées. En 1975 un chercheur anglais s’est demandé ce qu’il en était de Masaï urbanisés de Nairobi. Réponse : alors que leur alimentation comportait beaucoup moins de graisses animales, leur taux de cholestérol avait grimpé de 25 %.

Vous évoquez une grande étude indienne de 1967 montrant une corrélation inverse entre la mortalité cardiaque et l’ingestion de graisses alimentaires…

Ce travail a porté sur plus d’un million d’employés des chemins de fer indiens pendant cinq ans. La mortalité cardiaque était près de sept fois plus élevée à Madras qu’au Pendjab, alors que les habitants du Pendjab absorbent presque dix-huit fois plus de graisses, principalement d’origine animale. Bien que dûment publiée dans le British Heart Journal, cette étude n’est curieusement jamais citée. Plus de trente autres études ont montré que les malades cardiaques ne se sont pas plus nourris que les autres de graisses animales. Huit études ont même montré que les victimes d’attaque cérébrale ont moins pris de graisses saturées que les autres. Et aucune étude n’a montré que la maladie cardiaque serait plus fréquente dans les pays où l’on mange plus de graisses saturées.

En 1983 fut apportée, dites-vous, la première démonstration que le « mauvais » cholestérol pourrait nous protéger des infections bactériennes…

C’est un travail de laboratoire, mené par une équipe de Geissen en Allemagne. Les chercheurs ont montré que le cholestérol LDL neutralise la toxine des staphylocoques. J’en suis pour ma part convaincu : le cholestérol LDL fait partie d’un système immunitaire méconnu. Les lipoprotéines LDL qui transportent le cholestérol captent aussi les toxines bactériennes et virales et les inactivent. De fait, des études portant sur des dizaines de milliers de sujets ont montré qu’un bas taux de cholestérol est un facteur de risque pour les maladies infectieuses. Et plus de vingt études montrent que les personnes âgées ayant un taux de cholestérol élevé ont une plus grande espérance de vie que la moyenne (1).

Comment se fait-il qu’à cette époque, c’est-à-dire avant l’invention des statines, et alors qu’existaient toutes ces études contraires, les graisses animales et le cholestérol étaient déjà considérés comme l’ennemi à abattre ?

En réalité le dogme s’est installé dès les années 1960, en raison de l’énorme succès de deux études qui ont été prises pour argent comptant : l’étude dite des « six pays » publiée par l’Américain Ancel Keys en 1953 et la grande enquête américaine dite de Framingham, dont l’article scientifique phare a été publié en 1961. Tronquée et fallacieuse, l’étude des « six pays » prétendait montrer que la maladie cardiaque était directement corrélée au taux de graisses animales dans l’alimentation. Les responsables de l’étude de Framingham, eux, prétendaient apporter la preuve que le risque d’infarctus est lié à un taux de cholestérol élevé, alors même que les données qu’ils avaient compilées démontraient le contraire. Mais bien peu de scientifiques sont allés regarder ces données [lire ci-dessus « L’illusion de Framingham »], pas plus qu’ils n’ont été vérifié la qualité de l’étude des six pays [lire « Études bancales » p. 38].

Vous citez une étude de 1988 montrant que chez les patients souffrant d’hypercholestérolémie familiale, le taux de cholestérol n’est pas lié au risque cardiaque…

C’est une étude finlandaise, publiée dans la revue Atherosclerosis. Ceux chez qui le taux de cholestérol est juste un peu au-dessus de la moyenne courent le même risque de maladie cardiaque que ceux dont le taux est deux fois supérieur ou davantage. Cette étude portait sur un grand nombre de patients. Elle montre avec d’autres que contrairement à ce que l’on croit souvent l’hypercholestérolémie familiale en tant que telle n’est pas un facteur de risque cardiaque. Si les hypercholestérolémiques ont un risque cardiaque plus élevé et qui apparaît plus tôt que la moyenne, c’est sans doute dû à d’autres facteurs génétiques. Plusieurs études montrent d’ailleurs qu’ils vivent en moyenne plus vieux que la population générale.

En 1992 des chercheurs américains ont trouvé qu’un bas taux de cholestérol prédit un risque accru de mourir de maladies de l’estomac, des intestins et des poumons…

C’est un travail de l’équipe de David Jacobs, de l’université du Minnesota. Je ne sache pas que cette étude ait été reproduite, mais elle portait sur plus de 100 000 personnes de huit pays différents, elle est donc assez convaincante. Elle contribue à étayer l’idée que le cholestérol protège contre les maladies infectieuses.

En 1994 une étude américaine a montré que les personnes âgées ayant un bas taux de cholestérol ont deux fois plus de risques de mourir d’un infarctus que les personnes âgées ayant un taux élevé…

C’est un travail de l’équipe de Harlam Krumholz, à Yale. Plus de vingt études ont confirmé ce fait. En 2009 une étude de chercheurs de l’université de Californie à Los Angeles, portant sur 137 000 patients ayant subi un infarctus majeur, a montré que le taux de cholestérol total et celui du « mauvais » cholestérol étaient anormalement bas. L’étude a été publiée dans l’American Heart Journal.

Comment expliquez-vous qu’après plus d’un demi-siècle de preuves accumulées la théorie de la responsabilité du cholestérol et des graisses animales continuent à régner ?

L’argent, le prestige et la bêtise.

Un cardiologue français réputé a écrit récemment : « La non-prescription d’une statine après un accident vasculaire est actuellement une quasi-faute professionnelle (2). » À quels patients doit-on selon vous prescrire des statines ?

À aucun. Le bénéfice est négligeable et le risque d’effets secondaires est beaucoup, beaucoup plus élevé que ce qu’on nous raconte.

Quel régime alimentaire recommandez-vous ?

Les diabétiques et les obèses devraient suivre un régime « low-carb », pauvre en sucres et en féculents et riche en graisses, surtout en graisses saturées (d’origine animale). Les gens en bonne santé peuvent manger ce qu’ils veulent.

Vous avez été un chercheur indépendant pendant trente-trois ans. Comment avez-vous pu financer vos recherches ?

Je les ai entièrement financées de ma poche.

Propos recueillis par Books.

Michel de Lorgeril : « La plus énorme arnaque de la médecine scientifique »

Vous avez présenté récemment au congrès de l’American Heart Association (1) votre analyse pour le moins critique d’un grand essai clinique supposé démontrer l’utilité de faire prendre des statines à la population en bonne santé. Quel était l’enjeu de cet essai ?

Cet essai, nommé Jupiter, portait sur la dernière-née des statines, le Crestor d’AstraZeneca. Les résultats ont été publiés en 2008. Le Crestor était alors en grande difficulté parce que trois essais réalisés selon la procédure de rigueur pour vérifier l’efficacité d’un nouveau médicament, contre un placebo et en double aveugle, avaient été totalement négatifs – il n’y a aucune contestation à cet égard. AstraZeneca était donc confronté à un sérieux problème, d’autant que, depuis janvier 2008 et l’affaire dite ENHACE (lire p. 35), la FDA exigeait de cette classe de médicaments qu’ils ne se contentent pas de faire baisser le taux de cholestérol mais soient actifs cliniquement et se traduisent par une diminution de la mortalité cardiovasculaire. En 2007 le marché mondial du Crestor avait représenté 2,8 milliards de dollars et les ventes continuaient à augmenter. Il était donc impératif que Jupiter démontre que le Crestor était efficace cliniquement. Il fallait sauver le soldat Crestor !

Et qu’avez-vous conclu de votre analyse ?

Quand le premier rapport sur Jupiter a été publié en mars 2008, il y avait un problème évident : l’essai avait été stoppé après moins de deux ans, soit deux ans avant le terme prévu, ce qui était, en l’occurrence, contraire aux bonnes pratiques cliniques. Le motif de l’arrêt était que l’essai avait déjà si bien montré ses effets positifs qu’il était inutile de continuer – une façon de procéder qui témoignait soit d’une volonté délibérée de biaiser l’essai, soit d’une profonde incompréhension des principes de la recherche clinique. De plus, l’effet sur la mortalité cardiovasculaire était présenté comme indiscutable. Or, surprise : dans le rapport, les chiffres de la mortalité cardiovasculaire étaient masqués ! Dans une seconde version, publiée en novembre 2008 dans The New England Journal of Medicine, toutes sortes d’incidents cardiaques étaient recensés, mais toujours pas la mortalité cardiovasculaire. Après quoi furent publiées encore plusieurs versions, toutes différentes. Et puis nous nous sommes rendu compte que, quelle que soit la version, les chiffres présentés étaient cliniquement impossibles. Contradictoires. Finalement, quand nous avons refait les calculs en partant des données brutes, nous avons vu qu’en réalité la mortalité cardiovasculaire était similaire dans les deux groupes, celui avec la statine et celui avec le placebo. Quant aux données brutes elles-mêmes, j’ai pu constater qu’aucune autorité indépendante du sponsor ne les avait vérifiées. Cerise sur le gâteau : les courbes de mortalité avaient été grossièrement falsifiées.

Publiée avec d’autres signataires en 2010 dans un journal médical américain (2), votre analyse critique a-t-elle fait l’objet d’une réponse argumentée des investigateurs de Jupiter ?

Les investigateurs se sont vu offrir des dizaines de pages dans divers journaux médicaux ayant des liens financiers avec l’industrie pour répondre à nos critiques et aussi à celles d’autres scientifiques – car nous n’avons pas été les seuls à sursauter devant de telles malfaçons. Nous n’avons jamais pu obtenir de réponse argumentée. Des justifications a posteriori ont fait apparaître des nouveaux chiffres et des analyses non rapportés antérieurement, ce qui est inacceptable. Les questions les plus chaudes (comme la falsification des courbes) ont été évidemment éludées.

Quand la théorie du cholestérol (dangereux pour le cœur) est-elle devenue un dogme ?

Il y avait déjà dans les années 1970 une asymétrie extraordinaire entre la réalité des données scientifiques disponibles et la propagande anticholestérol. Cela dit, les cardiologues sont longtemps restés sceptiques. Je l’ai vécu quand je travaillais à l’hôpital universitaire de Genève au début des années 1980. La théorie n’est vraiment devenue un dogme qu’après la publication du premier grand essai sur une statine, la simvastatine (le Zocor) : c’était l’essai 4S conduit par Merck. Publié en 1994, il donnait des résultats quasi miraculeux : réduction de la mortalité totale de 30 % et de la mortalité cardiaque de 42 %, pour une baisse de 25 % du cholestérol. C’était stupéfiant puisque les essais antérieurs ne montraient aucune réduction de la mortalité avec des baisses du cholestérol qui avoisinaient les 20 %. De plus, aucun essai ultérieur, même truqué, n’osera donner une telle réduction de la mortalité. De sérieux soupçons de manipulation pèsent donc sur cet essai 4S, qui a servi de rampe de lancement pour le marketing sur les statines. Il semble en particulier qu’au lieu d’attendre les résultats de l’essai au terme fixé et de respecter la procédure du « double aveugle », les investigateurs aient suivi les résultats au fur et à mesure et l’aient arrêté au moment jugé le plus favorable. D’autre part, comme dans l’essai Jupiter, toutes les données brutes (sur le terrain) étaient recueillies par des employés du sponsor sans qu’aucune instance indépendante ne les ait jamais contrôlées. Le seul statisticien de l’étude était lui-même un salarié du sponsor. C’est vraiment trop et serait inacceptable aujourd’hui.

On appelle souvent « paradoxe français » le fait que les habitants de l’Hexagone fassent deux à trois fois moins d’infarctus que les Américains ou les Anglais alors que leur niveau de cholestérol est identique et qu’ils mangent plutôt plus de graisses animales. Ce paradoxe est-il clairement explicable ?

En matière de santé, les théories scientifiques ne sont jamais définitives et comportent donc toujours une part de mystère. Cela dit, la théorie que nous avons proposée en 1992 pour expliquer le French paradox a remarquablement résisté aux nombreuses tentatives de démontrer qu’elle était fausse. La principale explication reste donc que la consommation de vin par les Français les protège un peu de l’infarctus (3).

Plusieurs essais modifiant le régime alimentaire en privilégiant des graisses (oméga-3) contenues dans le poisson et certaines huiles (colza et noix) ont rapporté de meilleurs résultats sur le risque cardiaque qu’aucun essai impliquant les statines. Pourtant l’un de vos contradicteurs écrit récemment : « Il n’a toujours pas été démontré, y compris par des études de grande puissance, que l’apport des oméga-3 améliore le pronostic cardiovasculaire (4). » Que répondez-vous ?

Si l’on prend ce que dit ce contradicteur au pied de la lettre, il a raison. Les très récents essais testant les oméga-3 sous forme de compléments alimentaires, c’est-à-dire pris comme des médicaments, se sont révélés négatifs. Mais une chose est de fournir des oméga-3 sous forme de médicaments, une tout autre est de suivre un régime riche en aliments comprenant entre autres des oméga-3. Ce qu’il faut examiner, ce sont les études évaluant un modèle nutritionnel global. On peut citer l’étude d’Oslo, dont les résultats furent publiés en 1982 et 1986, et surtout l’étude de Lyon, dont je fus le principal investigateur, et dont les résultats furent publiés en 1994 et 1999 (5). Ce sont des essais dans lesquels le groupe expérimental se voit préconiser un régime alimentaire de type méditerranéen et qui comporte un apport substantiel en oméga-3. En effet, ces acides gras sont présents dans les poissons gras et les végétaux compris dans ce régime. Mais ces régimes comprennent bien autre chose que des oméga-3, même si une partie des bénéfices peut probablement être attribuée aux oméga-3.

Dans un article de synthèse que nous venons de publier, nous démontrons qu’en fait les statines inhibent les oméga-3 (6). Finalement, un point crucial pour les physiologistes concerne les interactions entre les différents nutriments de ce modèle alimentaire, et pas seulement les oméga-3. Nous poursuivons des recherches en ce sens depuis quinze ans. Presque tous nos travaux sont sous contrat avec la Commission européenne, sans aucun conflit d’intérêts.

Vous êtes un partisan de la « diète méditerranéenne ». Or une fameuse étude dite « des sept pays » montrait qu’en dépit d’un régime alimentaire voisin les habitants de Corfou avaient un risque de mortalité seize fois plus élevé que ceux de Crète. Un tel résultat est-il explicable ?

Vous faites allusion à l’étude d’Ancel Keys, dont les résultats furent publiés entre 1970 et 1985 (lire aussi à ce sujet l’entretien avec Uffe Ravnskov, p. 36). C’est une étude dite d’observation, donc de portée plus limitée que les essais cliniques. Vous avez raison de mettre en cause certains résultats de cette étude, qui est critiquable. Mais la question est désormais secondaire car c’est sur des données épidémiologiques modernes et des essais cliniques récents que l’on peut s’appuyer aujourd’hui pour défendre ce concept majeur qu’est la diète méditerranéenne. Il n’y a pas une seule étude négative ! Curieusement, beaucoup d’experts semblent ignorer ce concept. Peut-être parce qu’il ne sert pas les intérêts de l’industrie pharmaceutique et de l’agrobusiness !

Les principaux fabricants de statines ont été condamnés récemment par la justice américaine pour pratiques frauduleuses à des amendes allant de 500 millions à 3 milliards de dollars. Ces condamnations concernent d’autres médicaments. Vous paraissent-elles cependant illustrer ce que vous savez des pratiques de ces industriels concernant les statines ?

Un ex-fabricant de statines (Bayer) a eu lui aussi affaire à la justice : c’est la sombre affaire de la cérivastatine (7). Je l’ai dit et écrit : la question du cholestérol et l’affaire des statines forment la plus énorme arnaque de l’histoire de la médecine scientifique. Si on veut bien ouvrir les yeux, les biais de l’essai Jupiter (et déjà de l’essai 4S) en disent assez pour faire perdre toute illusion quant à la bonne foi des défenseurs des statines. Mais les complicités sont telles qu’il faudra sans doute encore du temps, ou un événement remarquable, pour faire comprendre la réalité au plus grand nombre. Ne désespérons pas, même le cycliste Armstrong a fini par tomber !

 

Propos recueillis par Books.

Philippe Even : « Chaque essai est un truquage de l’industrie »

Pour votre prochain livre, destiné aux médecins, mais aussi aux patients, vous avez passé au crible 45 essais cliniques sur les statines, ces médicaments destinés à faire baisser le taux de cholestérol. Quelles conclusions en tirez-vous ?

Que d’une manière ou d’une autre, et souvent de plusieurs manières, chaque essai multiplie les pièges, les illusions, les non-dits, les chausse-trapes et pour tout dire les truquages ou les falsifications de la part de l’industrie.

Pouvez-vous détailler les formes de truquage que vous avez identifiées ? Commençons par le commencement : le choix de la molécule à tester. Y a-t-il déjà truquage à ce stade ?

Pas au sens strict du terme mais, d’une certaine façon, oui quand même. Le but des industriels, c’est bien naturel, est de faire du profit. Ils sont cotés en Bourse, ils savent que Wall Street a les yeux rivés sur leurs résultats. L’objectif est donc de s’assurer un marché le plus large possible. Pour ce faire ils vont au plus simple. Comme la théorie du cholestérol n’est pas mise en cause par le milieu médical, ils vont tester des molécules dont l’unique objet est de faire baisser le taux de cholestérol. C’est ce que font très bien les statines. Le fait que le taux de cholestérol soit sans rapport étroit avec la maladie cardiovasculaire, ce que quantité d’études démontrent depuis des décennies, ne les embarrasse pas.

Mais il leur faut bien apporter la preuve que les statines réduisent le risque cardiovasculaire ?

Oui, et c’est là que le truquage commence.

Le truquage commence à quel stade exactement ?

Au tout premier stade : les critères d’inclusion des sujets sélectionnés pour les essais. Si l’on veut tester sérieusement l’efficacité d’un médicament, il faut que les malades recrutés soient aussi représentatifs que possible de la population malade. L’industriel peut être au contraire tenté d’écarter des sujets dont il juge qu’ils risquent de contrarier les résultats – ou d’accroître les coûts de l’essai. Les malades recrutés sont donc de fait, bien souvent, des malades idéaux, sans grand rapport avec le monde des malades réels (1).

Comment les malades sont-ils recrutés, concrètement ?

Depuis les années 1990, les industriels confient le plus souvent le recrutement non plus aux grands hôpitaux universitaires mais à des entreprises privées, les Contract research organizations (CROs). En 2001, il en existait un millier dans le monde. Elles rémunèrent des médecins de pratique privée pour recruter des patients et faire les observations. Ces médecins ne sont pas entraînés à la recherche scientifique. Ce sont des exécutants. Ils cochent les cases de la fiche préparée par l’industriel (2).

Combien de temps doit durer un essai pour être significatif ?

C’est une question essentielle. Avec les accidents cardiaques ou les AVC qui se produisent très tard, 75 % après 75 ans, il faudrait des essais de quinze ans, de 65 à 80 ans, et c’est impossible. L’industriel n’a pas intérêt à ce que l’essai soit long : cela coûte cher et c’est autant de perdu sur la durée du brevet. Et puis plus un essai est long et plus les effets secondaires risquent de se manifester. Les essais sont donc conçus pour durer de deux à cinq ans. Le meilleur critère objectif et vérifiable reste la mesure du taux de survie. Or, dans un essai portant même sur un grand nombre de patients, on peut n’avoir qu’une quinzaine de morts au bout de quatre ou cinq ans. D’où la tentation d’élargir les critères d’évaluation : on va capitaliser tous les incidents cardiaques, même ceux qui ne sont pas significatifs, même des décisions médicales (un pontage, par exemple). On invente de nouvelles catégories, plus ou moins fantaisistes, comme « l’infarctus silencieux », « le soupçon d’infarctus », « l’angor instable », et on additionne le tout. Et puis, si malgré un recrutement tendancieux des patients et la prise en compte de toutes ces catégories, l’industriel voit que l’essai ne donne rien, un résultat catastrophique ou au contraire un résultat positif alors que pointe un risque d’inversion des résultats à plus long terme, il peut être tenté de l’arrêter en chemin sans le dire ou sans dire pourquoi. Quatre essais sur les statines ont ainsi été arrêtés avant terme. C’est le cas de l’essai Jupiter d’AstraZeneca [lire l’entretien avec Michel de Lorgeril, p. 39]. Une autre méthode consiste à réduire le nombre des années mais à augmenter le nombre de malades, en faisant croire que cela revient au même. AstraZeneca l’a aussi pratiquée dans l’essai Jupiter. C’est une filouterie mais ça passe. Trois essais sur les statines ont été conçus de la sorte.

Comment les résultats d’un essai sont-ils évalués ?

Concernant les statines, le problème de fond est l’exploitation d’un marqueur sans signification clinique pour la grande majorité des patients : le taux de cholestérol. On voit qu’une statine fait baisser le taux de cholestérol et on est content. C’est un déni de réalité, puisque la répartition des taux de cholestérol chez les malades cardiaques est la même que dans la population générale. Mais quand l’essai entend mesurer l’effet réel des statines sur la maladie cardiaque elle-même, c’est là qu’interviennent les truquages les plus grossiers. Les données recueillies sont « affinées ». Les essais sur les statines ne font d’ailleurs à cet égard que refléter ce qui se passe en règle générale : depuis l’affaire du Baycol de Bayer, tous les procès intentés aux compagnies pharmaceutiques depuis vingt ans ont révélé que les données brutes des essais ont été falsifiées.

Vous évoquez une cascade de manipulations. Pouvez-vous décrire la cascade ?

Ça va de la manipulation pure et simple des données, l’élimination de celles qui gênent ou l’« amélioration » des autres, puis leur interprétation statistique, jusqu’à la façon dont sont rédigées les publications dans les grandes revues scientifiques. La manipulation des données est tentante quand les critères d’évaluation sont multipliés à l’envi. En statistique, une méthode classique consiste à changer le mode de calcul d’une courbe quand le résultat n’est pas probant : on passe par exemple tranquillement des coordonnées linéaires, usuelles, à des coordonnées logarithmiques qui modifient la pente ou la variance de la courbe. Une autre méthode consiste à présenter la réduction du risque censée avoir été obtenue par le médicament en termes relatifs et non en termes absolus ; cela change tout ! [Lire « Les ruses de la publicité », p. 32.] Il existe aussi une forme courante de mensonge par omission : la plupart des articles publiés mettent en avant des résultats positifs. La grande majorité des résultats négatifs ne sont pas publiés.

Et qu’en est-il de la rédaction des articles scientifiques ?

Les auteurs sont des universitaires le plus souvent liés par contrat à l’industriel qui a fait l’essai. Ils ont donc des intérêts financiers considérables. La chose est maintenant bien établie. Elle apparaît d’ailleurs au grand jour depuis que l’association internationale des éditeurs des plus grands journaux oblige les auteurs à lister leurs liens financiers avec les firmes en fin d’article en petits caractères (leurs liens, mais pas le montant) (3). Dans bien des cas l’article n’est pas même écrit par les signataires, mais par des employés de la firme. Les signataires ne font que prêter, louer leur signature, leur réputation. Et ce n’est pas tout. Les cardiologues ne lisent souvent que le résumé de l’article, le sommaire placé sous le titre, plus souvent encore les conclusions de trois lignes des sommaires, presque jamais l’article entier, rédigé dans une langue habituellement très obscure. Or il y a des différences considérables de contenu entre ces trois niveaux de lecture. Il est fréquent que le sommaire contredise frontalement le contenu de l’article, et que les conclusions aillent plus loin encore dans le déni des résultats réels de l’article. Les contradictions sont parfois stupéfiantes (4). Et puis il y a le titre, souvent plus optimisé encore que les conclusions. Et enfin l’éditorial, quand il y a en a un, placé au début de la revue, dit ce que l’industrie et les médecins veulent entendre, il s’inscrit dans le dogme et dissuade de lire l’article. En fait, c’est surtout l’éditorial que lisent les cardiologues. Il est souvent écrit par un médecin lié à l’industrie. Voyez la cascade : il y a les faits, il y a l’article, puis le sommaire, puis ses conclusions, puis le titre, enfin l’éditorial. Six étapes pour améliorer les résultats.

Et les autorités de santé se laissent prendre ?

Jusqu’à présent à peu près complètement. Que ce soit en Amérique ou en Europe, elles tombent dans les pièges que leur tendent les industriels. Administrations lourdes et lentes, experts internes peu compétents, experts invités avec des liens multiples avec les firmes. Ça ne peut pas marcher. C’est peut-être en train de changer, cependant. L’industrie pharmaceutique va mal : tarissement des découvertes, expansion des génériques, amendes gigantesques pour ses falsifications.  Et la FDA américaine, qui mène le jeu réglementaire, se fait de plus en plus exigeante. Elle impose désormais aux industriels de déposer à l’avance tous les détails de l’organisation de l’essai projeté, y compris les modalités d’arrêt. On dit qu’elle va leur imposer de permettre l’accès libre à l’ensemble des données réelles de chaque essai. Glaxo, qui vient d’être condamné à une amende de 3 milliards de dollars [lire p. 32], a annoncé sa décision de mettre toutes les données sur la table… mais les autres renâclent.

Propos recueillis par Books.

Consensus

Bien avant que le scandale du Mediator permette à une partie du « grand public » de prendre la mesure du pouvoir d’influence de l’industrie pharmaceutique, Books a attiré l’attention de ses lecteurs sur ce sujet. Nous avons ouvert le feu en avril 2009 avec un dossier intitulé de manière volontairement sommaire « Le scandale de l’industrie pharmaceutique », avec en sous-titre : « Notre santé otage de la corruption ». Ce dossier s’ouvrait par un article de Marcia Angell, ancienne membre de la rédaction en chef du célèbre New England Journal of Medicine, qui montrait en particulier comment de grands noms de la psychiatrie universitaire américaine se sont laissé corrompre par l’industrie pour faire la promotion de psychotropes à tort et à travers, y compris dans les grandes revues scientifiques. Pour ne donner qu’un exemple, des enfants de deux ans se voyaient atteints de « trouble bipolaire » et prescrire un médicament. Nous évoquions les livres d’autres « sonneurs d’alerte » américains, anglais et français, en particulier celui du Dr Kassirer, qui fut aussi rédacteur en chef du New England, et David Healy, qui se vit écarté de l’université de Toronto pour avoir contesté la publicité « scientifique » faite par la firme Eli Lilly sur son médicament phare, le Prozac.

Nous avons approfondi la controverse sur les psychotropes avec, en février 2012, un dossier sur les « médicaments de l’esprit », qui prenait appui sur le livre d’un psychiatre américain, Daniel Carlat. Entre-temps nous avions publié (mars 2011) un article fondé sur les travaux de John Ioannidis, dont l’équipe passe au crible de l’esprit critique les publications dans le secteur médical. Conclusion : on peut considérer à bon droit comme non fiables la majorité des études médicales publiées dans les revues scientifiques. Ce point de vue surprenant est aujourd’hui adopté par des critiques du « consensus » établi de longue date sur le cholestérol, molécule dont l’un des avatars est considéré comme le grand responsable de la maladie cardiaque.

 

16 faits & idées à glaner dans le numéro 40

• Sous Mao, des paysans ont tué leurs enfants pour les manger.

• Les hommes parlent de leur droit au bonheur. En fait, c’est leur seul devoir.

• Ce qui a une grande valeur pour la population peut être de faible valeur pour l’individu.

• Beaucoup de médicaments ne sont efficaces que chez une minorité de patients.

• La corruption s’étend aux scientifiques de premier plan et aux institutions scientifiques et sanitaires.

• Les gens en bonne santé peuvent manger ce qu’ils veulent.

• Il y a autant d’innovations dans un casse-noix que dans une balle de fusil.

650 000 sans-abri errent dans les rues aux états-Unis.

• Galbraith voyait dans la TVA la meilleure manière de développer les services publics.

• Freud avait posé une statue de Vishnou sur son bureau.

• Avoir des disciples, c’est dangereux, parce que l’école est toujours inférieure au maître.

• Notre époque est la première à éprouver l’absurdité de masse.

• Les livres de Wells ont été brûlés par les nazis.

• La rhinocérite est ancrée profondément dans la psychologie humaine.

• 5 000 femmes et filles sont chaque année victimes des crimes d’honneur perpétrés par leur propre famille.

• La ville de Detroit est passée de 2 millions à 700 000 habitants.

François Hartog : « La lumière du futur s’en est allée »

 

François Hartog occupe la chaire d’historiographie antique et moderne à l’École des hautes en sciences sociales (EHESS). Il a notamment publié Régimes d’historicité. Présentisme et expériences du temps, Points Histoire, 2012 (Seuil, 2002).  

 

Pourquoi la manière dont nous percevons le temps est-elle un sujet important ?

Pour plusieurs raisons. On peut partir de ce qu’on observe chez les jeunes aujourd’hui. Nous avons été élevés avec des montres à cadran : une aiguille marquait les minutes, une autre marquait les heures, donc le temps, le temps qui passe. Ce temps-là, on le perçoit, on peut le mesurer. On s’y localise. A partir du moment où l’on n’a plus de montre de ce type, mais seulement un téléphone portable qui certes donne l’heure, mais l’heure instantanée, tout ce qui est durée disparaît. On est toujours au présent. Il est 9h22, il sera 9h24. Cette marche du temps que traduisaient, transposaient les aiguilles, ce temps linéaire… qui est un temps totalement fabriqué…

 

La mécanique de l’horloge…

Oui, vous ne l’avez plus.

 

Est-ce à dire que le temps numérique n’est plus le temps mécanique ?

Je crois. Surtout dans l’expérience qu’on en a. Les jeunes gens qui n’ont connu que ça ont une appréhension du temps totalement différente. L’idée de convenir d’une chose la veille, un rendez-vous pour faire quelque chose avec des copains, des copines, ne leur traverse même plus la tête, parce qu’on se téléphone au fur et à mesure jusqu’à ce qu’on se retrouve. Même un quart d’heure avant, on ne sait si on se retrouvera,  si on fera ceci, où on se rencontrera… ainsi, je pense que l’expérience du temps est profondément différente.

 

Une disparition du rendez-vous ?

Oui, l’idée de prévoir ce qu’on doit faire demain, comment on s’organise : on prend son téléphone, on regarde, il est 24, on peut être là à 25… Je pense que ça joue un rôle important.

 

Certes, mais il y toujours des emplois du temps dans les structures organisées, des plannings, les cours ont des horaires, même dans les écoles, les lycées…

Oui, ce sont là les cadres d’une socialisation de l’individu, de l’apprentissage du rythme, lesquels demeurent, bien sûr. Mais ils sont contrebalancés ou questionnés par l’irruption de ce temps différent. En classe, justement, ils ont tous leur téléphone portable, envoient des sms… donc vivent aussi dans une temporalité qui n’est pas celle de la classe. Evidemment, on ne remplace pas brutalement le cadre chronométrique, chronologique, de la temporalité d’une société par autre chose.

 

Le  temps des jeunes n’est donc plus celui que leurs parents ont connu. Peut-on parler d’une accélération ?

L’accélération n’est pas une nouveauté. Prenez, par exemple les travaux de ce sociologue allemand dont on parle beaucoup, Hartmut Rosa, qui a centré tout son travail sur l’accélération. Il montre que l’accélération n’est pas nouvelle, mais que l’accélération de l’accélération est telle qu’elle entraîne des transformations que l’on ne sait pas vraiment maîtriser.

Ces transformations n’opèrent pas d’une génération à l’autre, mais à l’intérieur de votre propre vie. C’est-à-dire qu’en l’espace de 10 ans, tout ce que vous pouviez faire devient caduc, il faut changer d’emploi, de métier, etc.  C’est un  aspect de ce que j’appelle le  présentisme. Un autre aspect, très puissant, est qu’à côté de l’accélération, il y a la décélération. Le fait que de plus en plus de gens se trouvent, comme on dit, « laissés pour compte », « au bord du chemin », « n’arrivent pas à suivre ». Toutes ces images renvoient à cette situation, que Robert Castel appelle le précariat, c’est-à-dire au fait que les gens entrent dans un état de précarité durable. Ce sont des gens qui vivent dans la décélération, mais aussi dans un présent dont ils ne peuvent pas sortir puisqu’il n’y a pas de projection vers l’avenir. C’est le cas de tous les chômeurs, les exilés, les immigrés, etc.

Le présentisme, ce n’est pas seulement le côté dynamique, les mouvements, la flexibilité, la mobilité… L’envers et le revers du présentisme, c’est cette décélération et ces présents qui forment une espèce de présent qui pèse, qui empêche tout projet.

 

Suggérez-vous qu’il y a une sorte de dialectique entre le précariat d’un côté, et la synchronisation de l’autre, qui tend finalement les non-précaires vers un rapport au temps, à l’imminence, à l’urgence, particulièrement puissant ?

Je ne sais s’il faut dire dialectique ou plutôt, concomitance. C’est ce qui rend ce présent plus compliqué, mais aussi plus puissant, plus pesant… Puisqu’il y a différentes façons de se trouver… Si vous voulez, il y a un présentisme glorieux, et un présentisme misérable.

 

Une accélération de la « has-beenitude » ?

Il y a ceux qui ne seront jamais des has-been, puisque ils ne seront jamais partie prenante. Pour être un has-been, il faut au moins avoir eu un pied dedans.

 

Du point de vue de l’historien, que peut signifier ce « présentisme » que vous évoquez ?

Un infléchissement, un bouleversement, un renversement – on peut discuter du mot le plus approprié – pour nos sociétés européennes, s’opère dans les années 1970. Ça ne se produit pas du jour au lendemain. Ces transformations ne deviennent perceptibles qu’à un certain moment, repérables par des dates symboliques. Je pense que 1989 en Europe est une date symbolique, celle de la chute du mur de Berlin. Qui est aussi un évènement effectif.

 

Du point de vue du temps, qu’est-ce que ça change ?

A ce moment-là se produit… mais c’était en marche depuis pas mal d’années… l’effondrement de ce que j’appelle le régime moderne d’historicité. Je veux parler de ce temps moderne, porté par le progrès, ce temps ouvert sur l’infini du progrès, sur l’indéfini du progrès… infini et indéfini, mais ouvert… Et qui faisait que l’avenir, la catégorie du futur, était la catégorie rectrice. Il n’y avait pas plus futuriste, en ce sens, que le marxisme et l’URSS qui se voulaient l’incarnation de cette avancée futuriste, porteuse d’un avenir radieux pour l’humanité.

Le monde soviétique n’était pas le seul à vivre sur ce rythme-là, les américains aussi se calaient dessus. Ils ont toujours été le pays du futur, mais l’idéologie qui l’a incarné de la manière la plus extrême, et aussi la plus meurtrière, c’est le marxisme, suivi par le maoïsme. En ce sens, 1989 est une date symbolique.

On a eu une révolution qu’on peut mettre en regard de la Révolution de 1789, autre date symbolique. 1789 est justement la mise en marche de ce temps futuriste, le progrès théorisé par Condorcet. En 1989, il n’y a plus de place pour Condorcet. Et tous les ex-pays de l’Est sont depuis longtemps vaccinés contre l’idée d’un avenir radieux.

 

Et qu’est-ce qui se passe après ?

Il me semble que nos expériences du temps sont modifiées, ont été transformées. Il faut partir de ce futur qui se ferme… On a beaucoup parlé dans les années 80, de la fin du futur, du futur qui disparaît, du futur bouché, etc. … Cette disparition, cet évanouissement du futur est fondamental car il avait été le moteur des deux siècles précédent, mais aussi leur moteur intellectuel… On réfléchissait à partir de cette perspective-là. C’était bien le futur qui éclairait le présent et le passé. Et maintenant, la lumière s’en est allée, on est dans un présent qui n’a cessé de s’étendre et est devenu – si je reprends cette image du futur éclairant le passé et le présent – sa propre lumière. Et qui produit chaque matin, chaque instant, le passé et le futur dont il a besoin. Nous sommes entrés dans une espèce de présentisme, pour le distinguer, au fond, d’autres présents du passé, dans un présent qui est son propre horizon à lui-même.

 

Comment le présent se fabrique-t-il ? Comment la société se synchronise-t-elle dans la fabrication du temps ?

Ce présent présentiste, si on admet cette appellation, ne surgit pas comme ça, il ne tombe pas du ciel, pas plus que le futur avant… il est à mettre en rapport avec tout un ensemble d’éléments. Au temps du temps futuriste, porté par le progrès, le temps devient lui-même un acteur. Les choses n’arrivent pas seulement dans le temps, mais elles arrivent par le temps. L’image qu’on peut en donner, c’est celle de la locomotive, du train. Dans toute la littérature du XIXe et d’une grande partie du XXe siècle, c’est le train qui traduit cette image. Eventuellement sans qu’on sache où ça va. C’est une locomotive qui file à toute vapeur… Mais ça ne marche plus. Notre présent est en rapport avec l’invention de l’instan­tanéité. De la simultanéité. De ce que l’on a appelé le temps réel, la nanoseconde des marchés… On est dans un présent caractérisé par le fait qu’il est toujours là et jamais saisissable, puisqu’on descend à des durées qui sont absolument impossibles à appréhender par un humain, que seules les machines gèrent. C’est un élément fort, technique, économique, financier de l’organisation.

Cela dit, on fabrique du temps, mais on est aussi contraints par le temps. Il y a une expression que j’emploie volontiers, c’est de dire « on fait du temps, mais il faut faire avec le temps ». C’est toute cette négociation qui fait le quotidien des individus, qui fait la vie, même politique : on voit très bien comment les gens, les politiques font du temps, ou font avec le temps, c’est-à-dire avec les contraintes qu’ils rencontrent. Avec des positions différentes, toute la politique s’explique par le rapport au temps. On peut très bien traduire la politique en termes de rapport différent au temps entretenu par les partis, les hommes politiques.

 

Ces transformations du rapport au temps  remettent-elles en cause notre conception de l’histoire ?

La socialisation de l’individu, quelles que soient les époques, quelles que soient les sociétés, passe par l’apprentissage d’un certain ordre du temps. Il va de soi que cet ordre du temps n’est pas le même, selon qu’on est à Athènes au Ve siècle avant notre ère, en Indonésie au XIXe siècle, ou en Europe au début du XXIe.

Et l’interrogation sur le temps surgit à partir du moment où l’historien (du point de vue de l’historien, car tout le monde est confronté à cette question) prend conscience que le temps est non seulement son objet quotidien, mais que cet objet quotidien ne va pas de soi. L’histoire moderne, l’histoire du XIXe siècle, a considéré que le temps était cet élément qui était porté par ce mouvement, par le progrès, par une certaine accélération, mais au fond, que c’était ce que dira un peu plus tard Walter Benjamin : un ensemble vide.

Du même coup, l’historien s’est contenté d’instrumentaliser ce temps, en disant : il y a de l’avant, il y a de l’après, mais il y a aussi de l’anachronique, c’est-à-dire de la confusion des temps.

Je crois que si on fait un pas de côté en disant que ce temps avec lequel nous travaillons quotidiennement, que nous considérons comme allant de soi, eh bien, justement, ne va pas de soi, alors, on commence à examiner la façon dont les sociétés autres… ou même les sociétés européennes… ont fabriqué du temps à différents moments. Et c’est à ce moment-là qu’on peut commencer à examiner comment on a articulé les catégories universelles du passé, du présent et du futur.

 

Le « présentisme » remet donc en cause la conception naturaliste de l’histoire ?

Au XIXe siècle, et encore dans une bonne partie du XXe, on est ou bien dans les temps, ou bien pas dans les temps, ou en avance, ou en retard, on est une avant-garde, on est une arrière-garde, on est dans le mouvement, on est réactionnaire. Toutes ces images, toutes ces notions renvoient au fait que le temps n’est pas seulement le milieu dans lequel les choses se passent, mais qu’il est aussi presque le producteur de ce qui a des liens dans le temps. Il devient un personnage central de la pièce sociale. Ce qui traduit cette conception du temps et cet usage que l’on fait du temps, c’est souvent le concept moderne d’histoire. L’histoire est précisément ce mot, ce nom, au moyen duquel on désigne, non pas comme on croit souvent, une étude du passé, mais une étude du passé à la lumière du futur.

 

Et donc aujourd’hui, il n’y a plus d’histoire ?

Il y a une grande interrogation sur l’histoire. Ce concept moderne d’histoire, on se rend bien compte qu’il n’est plus tout à fait opératoire. Une des manifestations de cela est qu’on a vu surgir dans les années 80 le terme de « mémoire ». Il y a eu la mémoire, le patrimoine, la commémoration, l’identité… pour moi, ce sont autant de notions qui ont leur propre logique et leur propre histoire, mais qui sont une sorte de configuration venant questionner le concept d’histoire. Il y avait un concept un peu unique, qui ramassait tout un tas de choses: on disait « histoire ». Mais on a l’impression que ce sont des déchets, des morceaux qui sont sortis, que tout ça s’est répandu, et qu’on n’arrive plus à faire rentrer tout cet ensemble à nouveau dans cette enveloppe qui était celle de l’histoire.

 

Mémoire, patrimoine, commémoration, identité… ça fabrique le passé ?

En Europe, il y a un élément dont on ne peut faire l’économie, je veux parler des crimes du XXe siècle. Et en particulier l’extermination des Juifs. Si on reprend mon image du train : comment se fait-il que ce train qui progresse ait conduit à la rampe d’Auschwitz ? C’est une chose qu’on a tardé à pouvoir affronter. Et c’est tout le problème de la mémoire, de ce qu’on a glissé sous ce mot. Cette notion, ce concept de mémoire, c’est, en réalité, plus compliqué que cela : « mémoire » décrit imparfaitement ce phénomène très profond qui est que le temps du progrès ne peut plus être encore opératoire à partir du moment où ce temps a conduit de la locomotive filant à toute vapeur vers la révolution, au goulag et à la rampe d’Auschwitz.

Pour nos sociétés, particulièrement en Europe, avec un décalage suivant les pays, notamment du côté de l’Est où les choses étaient congelées, cela a très profondément mis en question le temps moderne, le temps futuriste, puisque la mémoire concerne le passé et le présent. C’est une manière pour le présent de convoquer des éléments du passé, sans aucune ouverture sur un futur. Alors que le concept moderne d’histoire était une manière de convoquer du passé, des événements du passé, à partir d’une perspective éclairée par le futur.

 

Et alors, comment selon vous, la fabrique présentiste du temps dans lequel on vit peut-elle fabriquer du futur ?

C’est la même question. Je n’en sais rien. Ou bien ce présent présentiste est un moment. Une sorte de moment d’arrêt. Et on va en sortir, d’une manière ou d’une autre pour retrouver un investissement sur le futur, on saura comment alors… On ne remettra pas en marche l’ancien temps, disons de Condorcet, mais on pourra peut-être quand même articuler futur, présent, passé… peut-être.

Ou on peut considérer, évidemment tout cela est extrêmement schématique, que ce présent présentiste (c’est ce que j’appelle le nouveau régime d’historicité) peut durer deux siècles. Ça implique de savoir comment se débrouiller dans ce présent présentiste sans être aspiré par lui. C’est à dire, savoir l’habiter. Et savoir du même coup, pour la question qui nous concerne, qu’est-ce que pourrait être une histoire, qu’est-ce que pourrait être faire de l’histoire dans un présent présentiste, c’est à dire une histoire qui s’inscrive dans ce présent-là, mais qui ne soit pas une histoire présentiste. Si tant est que ce ne soit pas contradictoire.

Mais ça n’est pas à moi d’en décider. On constate bien des interrogations, des insatisfactions à l’égard de ce présent, ce seul présent, ou ce qu’on appelle, quand on emploie un langage plus financier, ce court-termisme… C’est devenu une dénonciation, une dénonciation assez commune. On entend ça à la radio. Même les hommes politiques commencent à se dire : « il faut des agendas, il faut le futur, il faut marquer un cap ». Ils sentent bien qu’il y a quelque chose qui ne va pas, et pourtant, ils n’y arrivent pas.

Je trouve que l’attitude de Sarkozy était tout à fait symptomatique, puisqu’il avait, en 2007, dans sa campagne, réintroduit des thèmes de l’histoire. Il essayait de réactiver ce concept d’histoire type IIIe république. Evidemment, ce n’était pas élaboré, mais on sentait qu’il y avait quelque chose. Ça ne marchait pas. Ça n’a pas été plus loin. Et on en est toujours un peu là. On commémore toujours à tour de bras. Prenons un exemple : la Maison de l’Histoire de France. Ça allait un peu dans ce sens que j’évoquais de 2007, l’histoire… S’est glissée là-dedans l’identité nationale qui est venue à la fois préciser et plomber complètement le projet. Ce que je trouve intéressant dans cette affaire de rapport au temps, c’est que, face aux adversaires du projet, on a d’abord parlé de musée, puis de maison, puis on a décidé qu’il n’y aurait ni musée ni maison, que c’était un peu la même chose, archaïque et idéologiquement orienté. Ça ne fait pas disparaître la question qui est au fond : que fait-on de l’histoire ? Comment peut-on, en 2012, écrire présenter, raconter, montrer une  histoire de la France. Est-ce que ça a un sens, qu’est-ce que c’est ? Qu’est-ce que ça pourrait être. Et personne n’en sait rien. C’est ça que je trouve intéressant. Mais en ayant focalisé cette polémique sur l’identité, le projet sarkozyste, etc., on évacue soigneusement la question et on imagine qu’on a réglé le problème. A mon avis, non.

 

Revenons sur l’hypothèse que le présentisme dure longtemps. Et peut-être même toujours ! Peut-être est-ce le stade ultime, mais dans cette hypothèse, pensez-vous imaginable de construire des catégories du futur qui soient symétriques des catégories du passé, c’est-à-dire de la mémoire, du patrimoine, etc. ? En percevez-vous aujourd’hui ?

Non, je n’en perçois pas. Ce que je perçois, du point de vue de l’histoire encore, c’est le fait qu’on essaie de se débarrasser de ce qu’est devenu l’ancien concept de l’histoire. Le concept moderne est aujourd’hui devenu l’ancien, et porte toutes les critiques adressées à l’Europe, l’histoire coloniale, l’histoire des vainqueurs, tous ces thèmes-là, sans oublier l’histoire globale. Cet intérêt est utile à certains moments, mais ce qui manque, à mon avis, pour l’heure, c’est une interrogation sur le concept même d’histoire. Ces critiques font ce qu’on a toujours fait quand on emploie ce vieux mot d’histoire : on y ajoute des couches. On ajoute une nouvelle couche, disons d’histoire globale, qui ambitionne de se donner comme l’Histoire. Ceux qui la pratiquent se disent: nous sommes désormais les authentiques historiens, les maîtres de l’histoire, mais ne s’interrogent pas sur ce qu’ils gardent et ce qu’ils rejettent de l’ancien concept d’histoire. Ils ont toujours tendance à superposer des couches, mais est-ce vraiment compatible avec ce qui précède ? On ne sait pas, et au fond ça n’a pas beaucoup d’importance. Je crois, pour revenir à votre question, et là je ne parle que des historiens, que ça les empêche de voir ce que pourrait être l’histoire dans un monde présentiste, si elle-même n’était pas présentiste.

Cela dit, on peut aussi penser, qui sait, que dans 50 ans, l’histoire et toutes ses innombrables biblio­thèques, voilà, c’est fini.

 

Que pensez-vous de la formule ressassée de Fukuyama : nous sommes entrés dans la fin de l’histoire ?

Elle a connu un succès foudroyant tout juste après 1989 : son article a fait le tour du monde. Et, ce qui est plus intéressant encore, cela s’est fait sur un quiproquo. Fukuyama n’a rien d’un millénariste ou d’un apocalypticien. Quand il parlait de fin, il ne voulait nullement dire que l’histoire était finie, terminée. Mais de l’effondrement de l’URSS, il tirait la conclusion que, désormais, il n’y avait plus d’alternative politique à la démocratie libérale. En ce sens, l’histoire avait atteint sa fin, sa finalité. Mais il s’écoulerait beaucoup de temps et se passerait bien des choses avant l’instauration effective de cette fin.

 

Ne pensez-vous pas que l’écologie, les discours environ­nementalistes, sont des tentatives de structuration futuriste désastreuse ?

Oui, mais sécuriste. Il y a vingt-cinq mille écologies, donc je ne suis pas compétent sur qui peut se laisser guider ou emporter par une perspective futuriste catastrophique.

Là on est dans un futur encore plus fermé…

 

Le futur du no-futur…

Oui. Cela dit, si on revient à l’expérience du temps, si vous regardez en arrière, dans le passé, celui des premiers hominidés, on n’a cessé de reculer vers des distances absolument irreprésentables. Ça ne signifie rien, des millions d’années. Qu’est-ce que c’était ? On ne sait pas… Il n’y a pas si longtemps, à la fin du XVIIIe, on pouvait encore être dans la chronologie biblique. En gros, six mille ans… Là tout d’un coup, XIXe, XXe, on remonte à des millions d’années en arrière. Et puis : nouveauté, c’est l’avenir, le futur, qui est lui-même contraint par ce que nous faisons aujourd’hui ou ce que nous avons déjà fait, c’est toute la problématique de l’irréversibilité. Voyez Fukushima où on vous dit « Ah, ça va être radioactif pendant cent mille ans » : c’est irreprésentable à l’échelle d’une vie humaine. Et néanmoins, ce futur est aussi déjà fait de cela. Ce qui bouleverse quand même très profondément nos manières de faire du temps. Et de faire avec. Qu’il faut justement faire avec le passé, mais aussi avec ce futur que nous avons d’ores et déjà mis en place, fabriqué.

 

Propos recueillis par Olivier Bomsel.

L’ordinateur est né de la bombe H

L’univers numérique a vu le jour, physiquement parlant, fin 1950 à Princeton, dans le New Jersey, au bout de Olden Lane. C’est en effet à cet endroit et à cette date qu’a commencé de ronronner le tout premier ordinateur véritable – c’est-à-dire un appareil de calcul digital multi-usage, de grande puissance, à programme intégré. Les circuits de l’engin avaient été assemblés à partir de matériel militaire de récupération, dans un bâtiment de ciment à un étage que l’IAS (Institut de recherches avancées) avait bâti à cet effet. La nouvelle machine avait été baptisée MANIAC, l’acronyme de « Mathematical & Numerical Integrator & Computer » (« Calculateur et intégrateur mathématique et numérique »).

Et à quoi devait donc servir MANIAC ? Son premier travail fut d’effectuer les calculs nécessaires à la fabrication du prototype de la bombe H. Mission accomplie : l’exactitude de ses résultats a permis la réalisation d’« Ivy Mike », secrètement testée au matin du 1er novembre 1952 sur une île du Pacifique sud, Elugelab, intégralement pulvérisée en même temps que quatre-vingts millions de tonnes de corail. L’un des avions de l’US Air Force envoyés pour prélever des échantillons à l’intérieur du champignon atomique s’est écrasé en mer après avoir perdu le contrôle ; le corps du pilote n’a jamais été retrouvé. Un biologiste marin a raconté qu’il récupérait encore, une semaine après, des sternes aux plumes noircies et roussies et des poissons « sans peau d’un côté, comme s’ils avaient été jetés dans une poêle brûlante ».

On pourrait en conclure que l’ordinateur a été conçu dans le péché. Sa naissance a permis de démultiplier la capacité de destruction dont disposaient les grandes puissances. Et John von Neumann, l’homme à qui l’on doit principalement cette naissance, était un ardent va-t-en-guerre (froide), partisan d’une attaque préventive contre l’Union soviétique et l’un des modèles du docteur Folamour. Pour reprendre les termes utilisés par George Dyson dans sa remarquable histoire de l’ordinateur, Turing’s Cathedral, « l’univers numérique et la bombe H sont apparus de concert ». Von Neumann semblait avoir conclu un pacte avec le diable : « Les scientifiques auraient leur ordinateur et les militaires auraient leur bombe. »

On a déjà raconté l’histoire du premier ordinateur et de son rôle dans l’avènement de l’univers digital, mais personne ne l’a fait avec autant de minutie et de brio que Dyson. L’auteur, un historien des sciences reconnu, bénéficie de deux atouts décisifs. D’abord, comme chercheur invité à l’IAS en 2002 et 2003, il a eu accès aux documents concernant ce projet, dont certains n’avaient pas été exhumés depuis la fin des années 1940. Un luxe de détails presque dignes d’un roman nourrit ainsi le livre – du menu de la cafétéria de l’Institut un soir de 1946 (« Flétan à la crème avec œufs au plat sur pommes de terre – 25 cents ») aux effets de la moiteur de l’été à Princeton sur l’ordinateur en gestation (« La machine IBM dépose une substance semblable au goudron sur les cartes perforées », lit-on dans le carnet de bord ; mais le compte rendu suivant corrige : « C’est le goudron du toit »). Le second atout de l’auteur, c’est que ses parents, le physicien Freeman Dyson et la logicienne Verena Huber-Dyson, avaient tous deux rejoint l’Institut en 1948, cinq ans avant la naissance de leur fils, qui a donc grandi en même temps que le projet. Et de nombreux témoins survivants ont été heureux de lui parler – notamment l’un d’eux qui se souvient d’avoir écrit « Stop à la bombe » sur la poussière de la voiture de von Neumann.

La réticence de l’Institut envers l’opération n’était pas imputable seulement à son caractère militaire. Bien des chercheurs de l’IAS jugeaient en effet que cette machine à calculer éléphantesque n’avait pas sa place dans ce qui avait été conçu comme une sorte d’empyrée platonique voué à la recherche fondamentale. L’IAS avait été créé en 1930 par les deux frères Abraham et Simon Flexner, des philanthropes soucieux du progrès de l’enseignement. L’argent venait de Louis Bamberger et de sa sœur Caroline Bamberger Fuld, qui avaient vendu à Macy’s leurs parts dans le grand magasin Bamberger en 1929, quelques semaines avant le krach boursier. Sur les onze millions de dollars récoltés, ils en avaient dédié cinq (l’équivalent de soixante millions d’aujourd’hui) à la création de ce qu’Abraham Flexner concevait comme « un paradis pour les chercheurs, qui, au même titre que les poètes et les musiciens, ont gagné le droit de faire ce qu’ils veulent ». L’IAS serait installé à Olden Farm, lieu d’une escarmouche pendant la guerre d’Indépendance.

Les fondateurs ont décidé de se consacrer d’abord aux mathématiques – à la fois en raison de leur portée universelle et de leur frugalité matérielle : « Quelques salles, des livres, un tableau noir, du papier et des crayons », comme l’a confié l’un des pionniers. Oswald Veblen (le neveu de Thorstein Veblen (1)) en fut le tout premier membre, en 1932 ; et Albert Einstein, en 1933, le deuxième (qui a décrit l’endroit comme « un petit village pittoresque et cérémonieux peuplé de dérisoires demi-dieux juchés sur des échasses »). La même année, l’Institut recruta John von Neumann, un mathématicien hongrois âgé d’à peine 29 ans.

Parmi les génies du XXe siècle, von Neumann n’est pas loin d’égaler Einstein, mais le style des deux savants était aux antipodes. Tandis que la suprématie d’Einstein résidait dans sa capacité à concevoir une nouvelle idée et à l’organiser en une théorie à la fois très élégante et exacte, von Neumann était davantage un homme de synthèse. Il récupérait les intuitions inabouties des autres et, grâce à ses stupéfiantes capacités intellectuelles, les projetait très avant. « On pouvait lui dire quelque chose qui n’avait ni queue ni tête, et il vous répondait : “Ah, c’est ça que tu veux dire !” », se souvient le mathématicien de Harvard Raoul Bott, un temps son protégé.

Dans la provinciale Princeton, von Neumann avait peut-être la nostalgie des discussions de café de Budapest, mais il se sentait parfaitement à l’aise dans son pays d’adoption. De son enfance de petit Juif hongrois au crépuscule de l’empire des Habsbourg, il gardait le souvenir de la brève expérience révolutionnaire du régime de Bela Kun après la Première Guerre mondiale, qui l’avait rendu, de son propre aveu, « violemment anticommuniste ». Rentré en Europe à la fin des années 1930 pour courtiser sa seconde épouse, Klari, il quitta finalement le continent pour de bon avec, écrit Dyson, « une haine inexpiable des nazis, une méfiance croissante envers les Russes, et bien résolu à ne plus jamais laisser le monde libre tomber dans un état d’infériorité militaire qui le contraigne aux types de compromis faits avec Hitler ». Son amour passionné de l’Amérique-terre de liberté s’étendait aux grosses voitures rapides ; il s’achetait une nouvelle Cadillac tous les ans (« qu’il ait détruit la précédente ou non ») et adorait traverser le pays à toute allure par la route 66. Il s’habillait comme un banquier, donnait de somptueux cocktails, et ne dormait que trois ou quatre heures par nuit. Selon Klari, son prodigieux intellect se doublait d’« une incapacité presque primaire à contrôler ses émotions ».

 

Un engin monstrueux

C’est vers la fin de la Seconde Guerre mondiale que von Neumann conçut le projet de construire un ordinateur. Il avait passé la dernière partie du conflit à travailler sur la bombe atomique à Los Alamos, où il avait été recruté pour son expérience dans la (diabolique) modélisation mathématique des ondes de choc. Ses calculs ont conduit au développement des « conformateurs d’ondes (2) » qui permettent de déclencher la réaction en chaîne. Pour les réaliser, il s’était servi d’une calculatrice tabulaire réquisitionnée chez IBM. Tout en se familiarisant avec les secrets des cartes perforées et des connexions de tabulateurs, cet ancien tenant des mathématiques pures s’était pris de fascination pour leur potentiel. « On disposait déjà de machines automatisées rapides à usage spécifique, mais elles ne pouvaient jouer qu’un seul air, comme une boîte à musique », raconte son épouse Klari qui l’avait rejoint à Los Alamos pour l’assister dans son travail ; « mais la machine “multi-usage”, elle, est comme un instrument de musique ».

Or un projet de « machine multi-usage » avait déjà été secrètement lancé pendant la guerre, à l’initiative de l’armée, qui avait désespérément besoin de pouvoir calculer rapidement les tables de tir pour l’artillerie (celles-ci servent à déterminer les coordonnées de visée pour propulser les obus au bon endroit). Le résultat fut une machine baptisée ENIAC (« Calculateur intégrateur électronique numérique »), fabriquée à l’université de Pennsylvanie. Ses inventeurs, John Presper Eckert et John Mauchly, avaient bricolé un engin monstrueux qui, malgré la vulnérabilité de ses dizaines de milliers de tubes cathodiques, parvenait à exécuter, avec quelques à-coups, les calculs qu’on lui demandait. ENIAC était un prodige technologique. Mais la logique de son système de contrôle était complètement ingérable, comme von Neumann le comprit dès qu’on lui eut donné la possibilité de l’examiner en détail. La « programmation » exigeait des techniciens des journées entières de labeur manuel fastidieux pour reconnecter les câbles ou reconfigurer les interrupteurs. ENIAC n’avait donc rien à voir avec un ordinateur moderne dont les instructions sont enregistrées sous forme de code numérique, le software.

Von Neumann voulait fabriquer une machine authentiquement universelle, capable, comme l’écrit pertinemment Dyson, d’« abolir la différence entre les chiffres qui codent une information et ceux qui codent une action ». Un rapport esquissant l’architecture d’un tel outil, toujours connue sous le nom d’« architecture von Neumann », a été rédigé et diffusé vers la fin de la guerre. Von Neumann apparaissait comme le seul auteur de cette note, qui contenait pourtant des idées empruntées aux concepteurs de l’ENIAC, ce qui provoqua quelques grognements. Autre omission curieuse, le rapport ne faisait aucunement mention de celui qui, von Neumann le savait parfaitement, avait le premier établi la faisabilité théorique d’un ordinateur universel : Alan Turing.

Cet Anglais de dix ans plus jeune que le Hongrois était venu à Princeton en 1936 pour faire son doctorat en mathématiques (traversant l’Atlantique dans l’entrepont et se faisant escroquer par un taxi new-yorkais au passage). Il avait la même année, à 23 ans, résolu un très épineux problème de logique, le « problème de la décision », dont l’origine remonte au philosophe du XVIIe siècle Leibniz, qui avait rêvé d’« une symbolique universelle permettant de ramener toutes les vérités de la raison à une forme de calcul mathématique ». Le fonctionnement de la raison est-il réductible à un calcul, comme Leibniz l’avait envisagé ? Plus précisément, existe-t-il une procédure automatique qui puisse décider qu’une conclusion donnée dérive logiquement d’une série donnée de prédicats ? Voilà, dans son essence, le « problème de la décision ». Turing y a répondu par la négative, en faisant la démonstration mathématique de l’impossibilité d’une telle procédure. Pour ce faire, il a imaginé une machine idéale définissant les limites de la calculabilité – ce que l’on nomme aujourd’hui une « machine de Turing ».

Le caractère génial de cette machine imaginaire tient à son incroyable simplicité. Elle consistait en une tête de lecture passant en revue d’avant en arrière un ruban infini pour lire et mémoriser une série de 0 et de 1, conformément à des instructions préalables (les 0 et les 1 pouvant servir à désigner toutes les lettres et tous les chiffres). Une machine de Turing conçue dans un but spécifique – par exemple l’addition de deux nombres – pouvait être à son tour décrite à partir du nombre codant cette action. Et le code numérique propre à une machine de Turing à vocation spécifique pouvait même être inscrit sur le ruban d’une autre.

L’idée du Britannique, dans toute sa hardiesse, était donc celle d’un outil universel qui, programmé avec le code de n’importe quelle machine à usage spécifique, pourrait ensuite en répliquer le fonctionnement. Par exemple, injecter dans une machine universelle la codification d’un appareil effectuant des additions la transformerait temporairement en machine à additionner. Cela revenait à traduire le « hardware » d’un appareil spécifique en « software » (le codage de cet engin), lequel pourrait ensuite être transféré sous forme de données dans une machine universelle pour y jouer le rôle de programme. C’est exactement ce qui se passe dans un ordinateur portable, l’incarnation physique de l’invention de Turing, quand on fait tourner un logiciel de traitement de texte, ou dans un Smartphone qui utilise une application.

La conception par Turing d’un ordinateur à programme intégré n’était ainsi que le sous-produit d’une réflexion de logique pure. Quand le jeune Anglais arriva après cela à Princeton pour terminer ses études, il fit la connaissance de von Neumann. « Celui-ci était parfaitement au courant des travaux de Turing », explique l’un des codirecteurs du projet : « La paternité complète de l’ordinateur sériel, le ruban et tout ça, c’est très clair – c’est Turing. » Les deux hommes étaient aussi différents qu’on peut l’être, sur le plan de la personnalité comme de l’allure : l’aîné était un sybarite rondouillard et mondain, vêtu avec soin, qui aimait le pouvoir et l’influence ; le cadet était un ascète rêveur, timide, débraillé (et homosexuel) qui ne s’intéressait qu’aux casse-tête, au bricolage mécanique, et à la course à pied. Mais tous deux avaient en commun le talent de saisir d’emblée l’essence logique des choses. En 1938, son doctorat en poche, Turing fut invité par von Neumann à devenir son assistant. Mais devant l’imminence de la guerre, le jeune homme préféra rentrer en Angleterre.

« On peut diviser l’histoire de l’informatique entre un Ancien Testament dont les prophètes, Leibniz en tête, ont défini le cadre logique, et un Nouveau Testament, dont les prophètes, von Neumann en tête, ont construit les machines », écrit Dyson. « La place d’Alan Turing est entre les deux. » C’est lui qui a inspiré à von Neumann sa vision de l’ordinateur comme une machine logique par essence, vision qui a permis à ce dernier de surmonter les limites de l’ENIAC pour réaliser l’outil universel idéal. La guerre finie, von Neumann a retrouvé le loisir de la construire. Et la direction de l’Institut, qui craignait qu’il ne parte à Harvard ou chez IBM, s’est empressée de le laisser faire, en lui procurant le financement initial.

Les chercheurs de l’Institut étaient scandalisés à l’idée de voir une chose de ce genre prendre forme en leur sein. Les purs mathématiciens regardaient avec suspicion tout instrument autre que le tableau noir et la craie, tandis que les humanistes voyaient dans le projet une forme d’impérialisme mathématique dont ils feraient les frais. « Des mathématiciens dans notre département ? Il faudra me passer sur le corps ! Et toi ? » demande un paléographe au directeur de l’Institut. L’afflux des ingénieurs a suscité leur fureur conjointe. « Nous travaillions de nos mains et fabriquions de sales machines. Ce n’était pas ça, l’Institut », se souvient un ingénieur du projet d’ordinateur. Le récit que fait Dyson de cette longue bagarre pour la naissance de MANIAC regorge d’anecdotes fascinantes et souvent drôles – du vol de sucre pour le thé à l’explosion de tubes cathodiques en passant par la ridicule propension du système de refroidissement de l’engin à givrer dans l’humidité de Princeton. Mais Dyson explique aussi avec une limpidité jamais démentie comment on a transposé sous forme électronique la fonction primordiale de l’ordinateur – la conversion d’éléments structurels d’information (la mémoire) en une série d’instructions (le code). Von Neumann, quant à lui, ne prêtait guère attention aux détails pratiques – « Il aurait fait un très mauvais ingénieur », selon l’un de ses collaborateurs. Mais il a su recruter une équipe remarquable, avec à sa tête Julian Bigelow, et il s’est révélé très habile leader. « Les directives de von Neumann se résumaient à : “Ne réinventez pas la roue !” » En confinant ses ingénieurs à la stricte réalisation de l’architecture logique qu’il avait conçue, il a réussi à rendre MANIAC disponible à temps pour exécuter les calculs requis pour la bombe H.

 

« Quelque chose de maléfique »

La possibilité théorique de cette « super bombe » – un mini soleil, mais un soleil privé de la gravité qui l’empêche d’exploser – avait été envisagée dès 1942. Si on pouvait la fabriquer, la bombe à hydrogène serait mille fois plus puissante que celles qui avaient détruit Hiroshima et Nagasaki. Robert Oppenheimer, qui avait dirigé le projet de Los Alamos à l’origine desdites bombes, a commencé par s’opposer au développement de cette nouvelle version au motif que ses « effets psychologiques » iraient « à l’encontre de nos intérêts ». D’autres physiciens, comme Enrico Fermi ou Isidore Rabi, étaient encore plus catégoriques : ils décrivaient la bombe H « comme quelque chose de résolument maléfique, de quelque point du vue que l’on se place ». Mais von Neumann, qui craignait l’imminence d’une nouvelle guerre mondiale, était sous le charme. Quand le président Truman a décidé en 1950 d’aller de l’avant, le savant écrivit : « Je crois qu’il n’aurait jamais dû y avoir la moindre hésitation. »

Le plus acharné de tous les partisans de la bombe H était peut-être le physicien d’origine hongroise Edward Teller, qui, avec le soutien de von Neumann et de l’armée, en a conçu le premier canevas. Mais ses calculs étaient faux et son prototype n’aurait rien donné. C’est Stanislaw Ulam, un brillant mathématicien d’origine polonaise, qui s’en est le premier rendu compte. Après avoir démontré que le projet de Teller ne tenait pas la route, Ulam en a proposé un autre, parfaitement opérationnel. Sa femme se souvient : « Je l’ai trouvé à la maison un jour à midi, regardant intensément par la fenêtre, une très curieuse expression sur le visage. Je n’ai jamais oublié son regard perdu dans le lointain quand il a dit, les yeux tournés sans le voir vers le jardin, d’une petite voix que je peux encore entendre : “Je crois que j’ai trouvé un moyen pour que ça marche.” »

Et Oppenheimer, qui avait pris la direction de l’Institut après avoir quitté Los Alamos, était désormais tout acquis au projet. Ce que l’on désigne depuis comme le modèle Teller-Ulam était à ses yeux « techniquement si chouette, qu’il fallait au minimum le fabriquer ». Et c’est ainsi que, malgré la vive opposition de nombreux membres de l’Institut pour des raisons humanitaires (ils se doutaient de ce qui se passait à cause des soldats qui gardaient un coffre-fort à côté du bureau d’Oppenheimer), le nouvel ordinateur désormais opérationnel a été instantanément mis à contribution pour faire tourner les calculs thermonucléaires, fonctionnant soixante jours d’affilée, 24 heures sur 24, pendant l’été 1951. MANIAC a rempli son rôle à la perfection. À la fin de l’année suivante, « Ivy Mike » a explosé dans le Pacifique sud, rayant de la carte l’île d’Elugelab.

 

La revanche des snobs

Quelque temps après, von Neumann est allé retrouver Ulam sur un banc de Central Park, et il l’a probablement informé en personne de l’événement. Mais, dans la foulée (si l’on en croit leur correspondance ultérieure), leur discussion est passée de la destruction de la vie à sa création, sous la forme d’organismes autoreproducteurs conçus numériquement. Cinq mois plus tard, Francis Crick et James Watson annonçaient leur découverte de la structure de l’ADN, révélant la base elle aussi numérique de l’hérédité. MANIAC a été aussitôt reconverti, et dédié à la résolution de problèmes de biologie mathématique ou à l’évolution des étoiles. La machine était devenue un instrument d’acquisition de connaissances scientifiques, conformément à la mission de l’Institut qui avait présidé à sa naissance.

Mais, en 1954, le président Eisenhower a nommé von Neumann à la tête de la Commission pour l’énergie atomique, et la culture informatique de l’IAS a disparu avec lui. Deux ans plus tard, le chercheur se mourait à 52 ans d’un cancer des os à l’hôpital militaire Walter Reed, déconcertant sa famille par une conversion in extremis au catholicisme (selon sa fille, cet homme qui était l’un des inventeurs de la théorie des jeux devait avoir le pari pascalien à l’esprit). « Après la mort tragique de von Neumann, les snobs ont pris leur revanche », a raconté plus tard Freeman Dyson, le père de l’auteur, « et ils ont mis le projet d’ordinateur tout entier au rebut » – « une grande perte non seulement pour Princeton mais aussi pour la science ». À minuit précis, le 15 juillet 1958, on a définitivement débranché MANIAC. Ses restes reposent désormais à la Smithsonian Institution à Washington.

L’ordinateur a-t-il effectivement été conçu dans le péché ? Le pacte entre le diable et von Neumann s’est avéré moins diabolique que prévu, comme le remarque Dyson : « Ce qui a explosé, c’est l’informatique, pas la bombe. » Le récit qu’il fait de l’évolution ultérieure de l’univers numérique est enlevé, à l’occasion saisissant – comme lors de cette visite au siège social de Google où un ingénieur lui confie que le propos du projet de numérisation des livres est d’en permettre la lecture par des machines intelligentes, et non par les humains.

Mais le plus intéressant, c’est que la vision du futur numérique proposée par von Neumann a cédé le pas devant celle de Turing. Plutôt qu’une poignée d’énormes machines devant satisfaire toute la demande mondiale de calcul à grande vitesse, comme von Neumann l’avait envisagé, nous avons vu s’unir une infinité d’appareils beaucoup plus petits, y compris les milliards de microprocesseurs des téléphones portables, pour former ce que l’auteur appelle « un organisme collectif multicellulaire dont la manifestation physique change d’un instant à l’autre ». Et l’ancêtre de cet organisme numérique virtuel, c’est la machine de Turing.

Le titre choisi par l’auteur, « La cathédrale de Turing », se justifie donc parfaitement. Il faut dater l’avènement véritable de l’univers numérique non pas de 1950, avec le début des calculs thermonucléaires par von Neumann, mais plutôt de 1936, avec le jeune Anglais, allongé dans un pré lors d’un de ses long joggings, concevant l’idée d’une machine abstraite pour résoudre un problème de logique pure. Tout comme von Neumann, Turing devait jouer un rôle caché d’importance pendant la Seconde Guerre mondiale. Au service de son pays comme cryptographe à Bletchley Park (3), il a mis à profit ses connaissances mathématiques pour briser le code nazi « Enigma », ce qui a contribué à éviter la défaite anglaise en 1941 et à renverser le cours de la guerre.

Mais l’héroïsme de Turing demeurera secret d’État longtemps encore après son suicide en 1954, deux ans après avoir été déclaré coupable d’« indécence aggravée » pour liaison homosexuelle, et condamné à la castration chimique. En 2009, le Premier ministre Gordon Brown a présenté, au nom de tous ceux qui ont pu vivre libres grâce à ses travaux, des excuses officielles pour la façon inhumaine dont on l’avait traité. « Nous sommes désolés, vous méritiez tellement mieux », a-t-il déclaré. Et c’est bien vrai que la machine imaginaire de Turing a davantage fait contre la tyrannie que la machine réelle de von Neumann.

 

Cet article est paru dans la New York Review of Books le 7 juin 2012. Traduction Jean-Louis de Montesquiou.

Du génie dans l’ouvre-boîte

Il y a autant d’innovations dans un casse-noix que dans une balle de fusil », lit-on dans cette brillante histoire des ustensiles de cuisine. Et l’on peut en dire autant de la minuterie du four, de l’ouvre-boîte, du réfrigérateur, de la fourchette et de tous ces modestes instruments dont nous nous soucions rarement – sauf peut-être au moment où, touchés par la grâce, nous envisageons de remplacer notre casserole verseuse par une cafetière italienne. Pourtant, les outils qui peuplent nos cuisines ont tous été façonnés par l’inventivité humaine. À leur tour, ils ont transformé notre vie (et même, on le verra, notre corps).

Pour commencer, nous ne risquons plus d’être brûlés vifs en laissant traîner nos manches dans le feu, comme cela arrivait autrefois à un nombre effrayant de femmes. Benjamin Thompson sauva bien des vies lorsqu’il inventa la cuisinière, à la fin du XVIIIe siècle. L’arrivée du four fut aussi une révolution. Fini les jeunes servants à moitié nus, employés à faire tourner les rôtis sur la broche, et condamnés à suer sang et eau près du feu. Fini les pauvres chiens qu’on chargeait, dans le même but, de faire tourner une roue reliée aux broches par un mécanisme. (Des oies subissaient aussi ce triste sort ; dans une plaisante digression, Bee Wilson note qu’une bonne « oie rôtisseuse » pouvait faire tourner une pièce de viande jusqu’à douze heures d’affilée.) Mais fini aussi, hélas, le goût authentique du rôti cuit à la broche. Nos ancêtres ne verraient dans notre roast-beef qu’une viande tout à la fois cuite au four, grillée, et bouillie dans sa propre graisse. Quand on a goûté au véritable rôti (ce qu’a fait Bee Wilson, en bonne journaliste gastronomique), on se rend compte que le plat national anglais tel qu’il est aujourd’hui préparé n’est qu’une pâle imitation.

Au moins pouvons-nous mesurer précisément son temps de cuisson. Galilée utilisait déjà un thermomètre, mais, surprise, il fallut attendre 1915 pour pouvoir acheter le premier four à gaz équipé d’un thermostat. Avant, les cuisiniers devaient faire preuve d’imagination. Wilson exhume quelques exemples réjouissants. Une recette médiévale conseille ainsi de chanter un Miserere pour mesurer le temps nécessaire à la cuisson des noisettes ; au XIXe siècle, des chefs français déposaient un bout de papier ou de la farine au fond du four et surveillaient leur coloration en cours de cuisson. Un marron sombre, écrivait Jules Gouffé, chef au Jokey Club de Paris dans les années 1860, convenait au vol-au-vent ; mais seulement un jaune clair pour les meringues.

Après le four, l’autre innovation vraiment révolutionnaire fut la réfrigération. L’utilisation de la glace est étonnamment ancienne (on vendait de la neige dans l’Athènes du Ve siècle av. J.-C.), mais les premiers réfrigérateurs fonctionnels n’arrivèrent sur le marché qu’après la Première Guerre mondiale. Leur impact fut profond ; impossible de faire des courses pour la semaine si on ne peut pas conserver les produits frais à basse température. Pas de frigo, pas de supermarché.

Les boîtes de conserve avaient leurs inconvénients et connurent des débuts difficiles. La meilleure des nombreuses anecdotes dont Wilson nous gratifie est sans doute celle-ci : c’est en 1855 que l’ouvre-boîte fut inventé, soit près de quarante ans après l’invention de la conserve. Pour ouvrir une boîte de corned-beef ou de pêches au jus dans les années 1840, on devait, selon les instructions inscrites sur l’emballage, « couper tout autour de l’extrémité supérieure, près du bord, à l’aide d’un ciseau et d’un marteau ».

Pour ce qui concerne la fourchette, qui donne son titre au livre, elle se révèle en effet tout à fait digne de considération. Adoptée d’abord par les Italiens de la Renaissance, amateurs de pâtes, elle se répandit dans toute l’Europe au cours du XVIIe siècle, époque où l’on commença à juger impoli le fait de manger avec ses doigts. Wilson ne nous explique pas, hélas, les raisons d’une telle modification des usages, mais elle expose à plusieurs reprises une théorie amusante au sujet de la fourchette. Selon elle, les dents de nos ancêtres s’ajustaient parfaitement, ce qui permettait à leurs incisives de se refermer sur la viande et de la sectionner. Mais la fourchette, et son compagnon guindé, le couteau de table, en nous incitant à cuisiner des aliments faciles à couper, ont amené notre mâchoire à reculer faute d’exercice. Les orthodontistes considèrent aujourd’hui comme normal le chevauchement des incisives supérieures sur les inférieures.

Il est une autre modification corporelle (moins controversée) : nous ne souffrons plus de l’arthrite qui affectait jadis ceux qui étaient chargés de moudre et de broyer le grain. Nous imaginons volontiers les femmes de pays lointains chantant joyeusement en moulant les grains, mais « chanter est pour elles le seul moyen de ne pas crier d’ennui » – et de douleur, explique Wilson.

Elle admire l’innovation et ne cache pas son goût pour les gadgets utiles (elle possède même un cuiseur sous vide – ce qui n’étonne pas, de la part d’une demi-finaliste de Masterchef). Mais elle conclut en faisant également l’éloge de la tradition. Nos cuisines sont remplies de « fantômes », explique-t-elle : fantômes des pionniers et des inventeurs de nouveaux ustensiles, mais aussi de tous ceux qui les ont utilisés (ou auraient aimé les posséder). Dans ce livre passionnant et divertissant, elle nous aide à mieux connaître ces objets. Considérer la fourchette, une autre manière de se redécouvrir soi-même.

 

Cet article est paru dans le Sunday Times, le 21 octobre 2012. Il a été traduit par Arnaud Gancel.

Qui sont les pauvres ?

Les pauvres ont toujours existé et, comme le suggère la Bible, existeront toujours (Deut., 15 :11)(1) Ce n’est qu’à la fin du XIXe siècle que Charles Booth a le premier entrepris de les compter scientifiquement. Depuis son enquête pionnière des années 1880 sur les classes laborieuses de Londres, et jusqu’au milieu du XXe siècle, la misère a désigné un niveau de subsistance permettant à peine de se nourrir, de se loger et de s’habiller. L’estimation initiale de Booth situait le seuil de pauvreté à environ 1 000 shillings par an. À peu près à la même époque, aux États-Unis, Robert Hunter l’évaluait à 460 dollars par an pour une famille moyenne de cinq personnes. On peut ergoter sur les définitions et les calculs qui sous-tendent ces premiers chiffres, mais les conditions de vie des pauvres étaient telles, à cette époque, qu’on reconnaissait l’indigence quand on la rencontrait. Elle était, par exemple, visuellement attestée par les photos des taudis new-yorkais prises par Jacob Riis (2) et par les actualités montrant les soupes populaires et les bidonvilles pendant la crise de 1929. Dans les années 1930, les réformateurs progressistes pressèrent le gouvernement de prendre en charge l’éradication de la pauvreté, projet auquel la Grande Dépression donna son élan politique. Avec le New Deal, l’État fédéral assuma l’essentiel de la responsabilité des programmes sociaux en vertu de la loi sur la sécurité sociale de 1935, socle politique de l’État-providence américain. Dès les années 1940, cependant, les exigences de la guerre firent refluer cette préoccupation. La pauvreté comme problème public resta dans l’ombre jusqu’aux années 1960, quand le récit évocateur fait par Michael Harrington de la vie dans « l’autre Amérique » (3), attira l’attention de l’opinion sur la situation des indigents.

Cette « autre Amérique » était un endroit lugubre où au moins la moitié des personnes âgées ne pouvaient s’offrir un logement décent, une alimentation et des soins de santé corrects, et où les familles de petits paysans souffraient « de la faim au beau milieu de l’abondance ». Selon ses calculs, environ 25 % des Américains étaient pauvres. L’impact du livre fut si puissant que, dans son sillage, une foule de publications entreprirent de sensibiliser le pays au problème.

 

L’« effet de dépendance »

Un autre penseur « progressiste » en vue résistait pourtant au courant. Dans L’Ère de l’opulence, livre à succès paru en 1958, l’économiste John Kenneth Galbraith l’affirmait : dans une société où le revenu médian par foyer était de 3 960 dollars, la misère « ne pouvait plus être présentée comme une affliction universelle ou massive. C’est devenu presque un sujet de réflexion après coup ». Galbraith classait en deux grandes catégories ce qui restait de l’indigence en Amérique : la pauvreté localisée, présente sous la forme d’îlots, liée à la vie dans des régions en crise comme les Appalaches ; et les cas d’espèce, dus à des handicaps individuels comme « la maladie mentale, la mauvaise santé, l’incapacité de s’adapter à la discipline de la vie économique moderne, la procréation excessive, l’alcool et le manque d’instruction ». On ne pouvait remédier à aucune de ces situations, affirmait-il, en demandant au gouvernement d’assurer des transferts de revenus pour atténuer les privations et augmenter la consommation des pauvres.

Non que Galbraith fût opposé par principe à l’intervention de l’État pour réduire la pauvreté. Épousant un point de vue typiquement progressiste, il voyait dans les pouvoirs publics un levier pour progresser vers la bonne société. Mais sa vision singulière de celle-ci passait par la maîtrise du matérialisme irréfléchi qu’engendrait une nouvelle forme de consumérisme attisé par la publicité, phénomène qu’il appela l’« effet de dépendance ».

L’ouvrage de Galbraith est paru peu après le livre très populaire de Vance Packard, The Hidden Persuaders, qui dévoilait les procédés psychologiques qu’utilisaient les agences de publicité pour manipuler les appétits des consommateurs. Mais Packard n’a pas forgé la vision de Galbraith ; il lui a tout au plus servi à approfondir une conviction ancrée de longue date.

Tout le monde n’était pas d’accord. Dans son ouvrage classique La Route de la servitude (1944), Friedrich Hayek avait par avance rejeté l’« effet de dépendance » comme un illogisme, les consommateurs n’ayant de désirs innés ou spontanés pour aucun des agréments de la civilisation moderne. La publicité n’est que la manière dont les producteurs présentent ces équipements sous leur meilleur jour. « Souvent, les gens ne savent pas ce qu’ils veulent jusqu’à ce que vous le leur montriez », observera Steve Jobs. Hayek aurait peut-être ajouté que les consommateurs d’aujourd’hui peuvent utiliser des sites Internet pour en apprendre davantage sur la qualité des produits et des services grâce à l’expérience des autres. Pour réduire la pauvreté, Hayek privilégiait les politiques favorables à la croissance et la suppression des barrières à l’entrée des marchés. Galbraith, lui, préférait tailler dans ce type de consommation qui satisfait les désirs manipulés pour toutes sortes d’objets insignifiants mais qui ajoutent peu, voire nuisent, à la qualité de la vie. Ainsi, tout en prônant une augmentation de la fiscalité, il entendait utiliser les recettes supplémentaires non pour les redistribuer directement aux pauvres mais pour investir dans les services publics et pour développer le capital humain grâce, notamment, aux programmes d’éducation en faveur des enfants pauvres (4). En bref, Galbraith se tenait au centre, à égale distance de ceux qui souhaitaient donner l’argent public aux indigents et de ceux, comme Hayek, qui voulaient que le gouvernement s’abstienne de toute politique directe en la matière et se contente d’améliorer leur situation en « faisant monter tous les bateaux » au sein d’une économie plus prospère.

 

Combat d’arrière-garde

En appelant à dynamiser la dépense publique et en invitant à traiter la pauvreté par l’investissement dans les services publics plutôt que par les transferts financiers, Galbraith augurait d’une évolution majeure de la nature de l’État-providence américain. Son propos révélait aussi la différence essentielle entre sa vision et celle de Harrington : il se situait fermement dans la tradition capitaliste libérale, Harrington dans la tradition sociale-démocrate. En un sens, la perspective de Galbraith relevait du combat d’arrière-garde. Si, à la fin des années 1950, personne à gauche ne contestait sa vision, il est soudain apparu rétrograde quand, en 1966, la Commission nationale de la technologie, de l’automation et du progrès se prononça en faveur d’un revenu national garanti. L’idée que la lutte contre la pauvreté était devenue et devait rester une « réflexion après coup » des pouvoirs publics était en décalage avec la « guerre à la pauvreté » déclarée par le président Johnson.

Au cours des deux décennies qui ont suivi la sortie de L’Ère de l’opulence, la dépense publique consacrée aux programmes sociaux dans vingt et une des démocraties occidentales les plus riches a presque doublé en proportion du PNB, passant en moyenne de 12,3 % en 1960 à 23,3 % en 1980. Cela incluait les transferts directs d’argent aux pauvres, dont Galbraith avait dit qu’ils seraient inopérants. Surtout, le niveau général de bien-être matériel continuant de progresser, le pouvoir d’achat du revenu médian des Américains était en 2010 de 25 % supérieur à celui de la société d’abondance décrite par Galbraith à la fin des années 1950. Et le pouvoir d’achat par tête avait augmenté encore davantage, la composition moyenne des foyers étant passée de 3,6 à 2,6 personnes entre 1958 et 2010. Il faut ajouter à cela la croissance non négligeable des avantages sociaux, qui n’entrent pas dans le calcul des ressources. Entre 1960 et 2003, les dépenses des entreprises dans ce domaine, principalement l’assurance maladie et la retraite, ont plus que doublé, passant de 8 à 18,8 % de l’ensemble des coûts salariaux. Même si ce sont les tranches supérieures qui en ont le plus profité, ces prestations ont été largement réparties parmi les salariés.

Pour autant que l’on parle des « travailleurs pauvres », il semble donc qu’une vaste réduction de la pauvreté ait été permise, entre la fin des années 1950 et l’aube du XXIe siècle, par la réalisation conjuguée de la vision de Hayek – « faire monter tous les bateaux » – et de celle de Galbraith sur la dépense sociale. L’opulence croissante et le développement des prestations, directes et indirectes, ont fait s’estomper les signes tangibles de misère matérielle.

À l’orée des années 1990, on avait cessé de mettre l’accent sur la réduction de la pauvreté à travers les transferts monétaires. La protection sociale restait un projet louable étayé par la force morale des décrets bibliques, mais la lutte contre la misère avait presque disparu de la place publique aux États-Unis. En 2006, la campagne de John Edwards pour l’investiture démocrate, axée sur les problèmes de pauvreté, n’a jamais trouvé son ressort politique. La question n’a pas été davantage prise en compte lors de l’élection de novembre 2008, alors même que la misère était alors en augmentation. Quand le Bureau du recensement a rapporté que le taux de pauvreté avait augmenté de plus d’un point entre 2008 et 2009, passant de 13,2 % à 14,3 % en 2009, retrouvant le niveau qu’il atteignait quinze ans auparavant, la couverture médiatique fut brève et superficielle. Le taux de 15,1 % atteint en 2010 n’a fait les gros titres que pour rapidement disparaître, englouti par la pire récession économique depuis la Grande Dépression. Et en 2011, sans véritable signe de redressement en vue, Barack Obama fut le deuxième président démocrate depuis 1948 à prononcer un discours sur l’état de l’Union passant la pauvreté sous silence.

À première vue, voilà qui est très étrange. Entre le début des années 1960 et le début des années 1990, nous étions angoissés par la misère alors même que son niveau ne cessait de baisser. Depuis le milieu des années 1990, nous n’en avons presque pas débattu, alors que le taux de pauvreté augmente selon les statistiques officielles. À vrai dire, ce reflux est dû pour l’essentiel à deux raisons : des considérations pratiques qui entrent en résonance avec la thèse de Galbraith sur la nature complexe de la pauvreté contemporaine et un sérieux doute sur ce que le taux officiel mesure réellement. Commençons par ce dernier point.

 

Des « chiffres absurdes »

Le seuil de pauvreté officiel du Bureau du recensement repose sur une formule conçue par l’économiste du travail Mollie Orshansky en 1963, qui a été au fil du temps ajustée de l’inflation. En 2011, son niveau était fixé à un revenu avant impôt de 22 350 dollars pour une famille de quatre personnes. Mais l’écrasante majorité des analystes, toutes obédiences confondues, doute que cette mesure reflète correctement le nombre de personnes pauvres et la condition des indigents. Avec son franc-parler, la secrétaire adjointe au Commerce, Rebecca Blank, a dénoncé des « chiffres absurdes ».

De fait, le Bureau du recensement a envisagé depuis les années 1980 d’autres manières de mesurer la pauvreté. Les velléités de révision de l’indice se sont intensifiées après un rapport publié en 1995 par l’Académie des sciences sur les nombreuses questions techniques posées par la conception d’une mesure rigoureuse. S’appuyant sur ce rapport, le Bureau du recensement a dévoilé à l’automne 2011 une « Mesure supplémentaire de la pauvreté » (SPM). Le mot « supplémentaire » signifie que le nouvel étalon n’a pas vocation à se substituer au rôle joué par le chiffre officiel qui sert à l’attribution des aides publiques. Fondée sur une formule plus sophistiquée que l’indice officiel, la SPM calcule le revenu en utilisant une gamme plus large des ressources familiales ; prend en compte les impôts, la composition de la famille, le statut de locataire ou de propriétaire, la zone géographique ; les dépenses de base pour la nourriture, l’habillement et les services de base (électricité, chauffage, eau), les dépenses nécessaires pour les enfants et les prestations sociales.

Malgré la parfaite crédibilité scientifique du panel qui a mis au point cette nouvelle mesure, chacun sait que plus la définition de la pauvreté s’éloigne de la simple subsistance, plus les résultats sont subjectifs et arbitraires. Comme le souligne Rebecca Blank, « ceux qui prennent part à la mesure de la pauvreté peuvent être influencés par l’idée qu’ils se font du but à atteindre ».

En 2011, la SPM plaçait 16 % de la population américaine au-dessous du taux de pauvreté, contre 15,2 % pour l’indice officiel. Pas une grosse différence, donc, mais la répartition n’est pas la même. Le pourcentage de personnes âgées augmente de manière significative, tandis que le pourcentage d’enfants pauvres diminue. Et à une hausse de la proportion de pauvres blancs, asiatiques et hispaniques répond une baisse du pourcentage des Noirs pauvres.

 

Endettement croissant

Ces chiffres n’ont rien réglé ; ils ont plutôt amplifié le débat et opacifié encore le voile politique qui le recouvre en permanence. Le lobby des retraités a adoré le nouveau mode de calcul ; pas les défenseurs des enfants. Et puis, pas de chance, quelques jours seulement après la publication de la SPM, une étude des données publiques menée par le Pew Research Center montrait que les adultes âgés se sont spectaculairement enrichis par rapport aux jeunes adultes au cours du dernier quart de siècle : alors que l’écart était de 10 à 1 en 1984, il était de 47 à 1 en 2009. Les personnes âgées gagnent peut-être moins, mais elles possèdent plus et dépensent plus. Quant aux ménages blancs, leur richesse représentait en moyenne vingt fois celle des ménages noirs en 2009, contre seulement sept fois et demie en 2005.

Ces disparités entre les chiffres soulignent la nature intrinsèquement arbitraire (certains diraient politique) de l’élaboration des statistiques. Mais, plus profondément, il existe au moins trois raisons d’être sceptique sur la signification de ces mesures de la pauvreté.

D’abord, toutes ces données révèlent l’ampleur du fossé entre ce que les pauvres gagnent et ce qu’ils déboursent. Le surplus des dépenses par rapport au revenu déclaré a augmenté de manière spectaculaire depuis le début des années 1970, passant de 139 % à environ 212 %. La consommation réelle de biens et de services pourrait même être supérieure à ce que ces chiffres laissent entendre, parce qu’ils excluent les avantages consentis à ces foyers à travers quatre-vingts programmes soumis à plafond de revenus comme la cantine scolaire, l’aide alimentaire aux personnes âgées, l’aide au logement, l’aide juridique, l’aide énergétique et les aides à la personne.

L’explication d’un tel fossé ne fait l’objet d’aucun consensus. Il reflète en partie un endettement croissant, mais aussi la tendance des plus pauvres à ne pas déclarer l’ensemble de leurs revenus. Une proportion significative des bénéficiaires de prestations sociales pratiquent le travail au noir, car si une personne ou une famille pauvre déclare « trop » de revenus, elle perd ses droits aux allocations. Cette réalité est désormais prise en compte par la plupart des pays riches, qui ont commencé à prendre des mesures pour y remédier. Les Européens disent que les prestations sociales produisent des « pièges à pauvreté » ou une « dépendance forcée » – expressions prudemment forgées pour éviter d’incriminer les victimes.

Même si les dépenses des ménages pouvaient être correctement évaluées, elles ne constitueraient pas une jauge précise du bien-être économique. Non seulement il est difficile de savoir combien les familles déboursent réellement sur la durée ; mais ce que représente cette dépense n’est pas non plus très clair. De bas niveaux de consommation reflètent-ils une situation de pauvreté, un mode de vie frugal, ou un haut niveau d’épargne en vue de dépenses futures ? Les données ne nous le disent pas. Sur le court terme, les sommes consacrées par un ménage à certains biens durables, comme une automobile, n’ont guère de rapport avec sa consommation habituelle. Et, sur le long terme, certains biens, comme le fait d’habiter un logement dont on est propriétaire, sont consommés sans apparaître du tout comme des dépenses.

Deuxième motif de scepticisme : la dimension temporelle. De nombreux ménages traversent de brèves périodes pendant lesquelles leurs revenus tombent au-dessous du seuil de pauvreté, tout comme de nombreuses personnes traversent des périodes de chômage. La misère chronique, elle, est relativement rare. Ainsi, entre 1996 et 1999, le revenu par foyer de 34 % de la population a plongé sous le seuil de pauvreté pendant deux mois ou plus ; mais 2 % seulement des Américains y sont demeurés sur toute la période. De même, entre 2004 et 2007, le revenu de 31,6 % de la population est tombé au-dessous du seuil de pauvreté pendant deux mois ou plus, mais 2,2 % seulement des habitants y sont demeurés au long de ces quatre années. En 2009, 7,3 % de la population a vécu au-dessous du seuil de pauvreté toute l’année, alors même que le taux de chômage atteignait le niveau record de 9 %.

Les statistiques peinent à saisir le phénomène. Parmi les ménages les plus modestes, on compte à tout moment une forte proportion de familles connaissant une baisse de revenu temporaire, aussi aiguë soit-elle. Ces foyers cherchent classiquement à maintenir leur niveau de vie en empruntant, en désépargnant et en lissant leur consommation. Mais les mécanismes de recueil des données sont imperméables à la durée pendant laquelle un individu ou une famille reste au-dessous du seuil de pauvreté. Vit-on dans la misère quand son revenu tombe au-dessous du seuil pendant une semaine, un mois ou un an ? Telle qu’on se la représente, la pauvreté devient généralement un problème social dès lors qu’elle recouvre une situation chronique ou de long terme. Mais combien de cadres de la classe moyenne lisant aujourd’hui cet article n’ont jamais connu de période où ils auraient pu être considérés comme indigents au regard de leur revenu, ne serait-ce que pendant leurs études, dans l’année qui a suivi leur diplôme, ou durant une période de chômage ?

Troisième motif de scepticisme : l’éventail des biens matériels dont jouissent les personnes vivant au-dessous du seuil de pauvreté. Car leur niveau d’équipement témoigne de niveaux de consommation plus élevés qu’on l’imagine. À l’apogée de la récession de 2009, 40 % des familles officiellement pauvres étaient propriétaires de leur logement : le plus souvent une maison individuelle dont la valeur moyenne avoisinait les 100 000 dollars, avec au moins trois chambres, un porche ou un patio et un garage et une surface moyenne de 450 m2. C’est la dimension moyenne d’une maison neuve au Danemark et c’est plus que les habitations françaises, espagnoles ou anglaises.

 

Éléments de confort

De même, à cette date, 92 % des ménages pauvres avaient un four à micro-ondes, 76 % la climatisation, 50 % un ordinateur, 64 % un lave-linge, 99 % un réfrigérateur (23 % un congélateur supplémentaire), 98 % un téléviseur couleur (plus d’un dans 70 % des cas) et 77 % une voiture, une camionnette ou un van (22 % deux véhicules ou plus). Un tel niveau de bien-être matériel ne correspond ni aux perceptions habituelles de la pauvreté ni aux injonctions bibliques concernant l’aide aux indigents.

On peut nourrir un doute légitime sur l’ampleur de la misère que connaissent les foyers jugés officiellement pauvres. Aux États-Unis en tout cas, la majorité des personnes actuellement considérées comme telles ont accès aux biens essentiels, non seulement le strict nécessaire pour subsister – nourriture, habillement, logement, loisirs, éducation, soins de santé et transport – mais aussi à ces éléments de confort qui sont au monde contemporain ce qu’était la légendaire chemise en lin sans laquelle le journalier d’Adam Smith aurait eu honte d’apparaître en public.

Mais quand j’ai laissé entendre à l’un de mes collègues que l’étendue réelle de la pauvreté aux États-Unis était très au-dessous du taux habituellement évoqué, il m’a toisé l’air incrédule et a lâché : « Mais de quoi parles-tu ? Utilise donc tes yeux, pour l’amour de Dieu ! Es-tu aveugle ? » Et il suffit en effet de faire une courte promenade à pied depuis notre campus, le long de Telegraph Avenue à Berkeley, ou d’arpenter le centre-ville de San Francisco, pour comprendre ce qu’il veut dire. Dans l’ensemble du pays, chaque nuit, environ 650 000 sans-abri errent dans les rues en guenilles, dont beaucoup ne savent pas où trouver leur prochain repas. La plupart des études montrent que l’immense majorité d’entre eux ne sont pas seulement misérables : ils souffrent aussi de pathologies invalidantes comme l’alcoolisme, la toxicomanie ou la maladie mentale. Ce sont de parfaits exemples de ce que Galbraith appelait les cas d’espèce.

L’ampleur de ce type de misère aux États-Unis aujourd’hui reste une question ouverte. Différentes estimations portent le taux de pauvreté chronique entre 2 et 7 %. En vertu de l’estimation moyenne, si 5 % de la population vit en permanence dans l’indigence, nous parlons d’environ 15,5 millions de personnes. Ce pourcentage, relativement faible au regard du taux officiel, recouvre cependant un nombre considérable d’êtres en détresse. De même que les sans-abri, une grande partie de cette population souffre de maladie mentale, d’addictions et d’autres handicaps.

Le tableau de la pauvreté qui se dégage ainsi fait apparaître un phénomène à la fois suffisamment important pour que seul un aveugle puisse ne pas le voir et suffisamment faible pour ne pas ressembler à la catastrophe annoncée par les chiffres officiels. À y regarder de plus près, on observe un réel problème d’indigence, qui se cantonne pour l’essentiel à des personnes que leur état physique et psychologique empêche de travailler. Dès lors, non seulement la question devient plus facile à gérer, mais les solutions prennent une couleur très différente de la seule aide financière. Cet examen plus attentif révèle également que les personnes à faible revenu (tout comme bon nombre des mieux lotis) qui peinent à joindre les deux bouts luttent en vérité pour satisfaire des désirs de consommation modernes avec leurs maigres ressources. Elles ne livrent pas bataille pour mettre un toit au-dessus de leur tête, des vêtements sur leur dos et de la nourriture sur la table.

 

L’âge d’or de l’État-providence

Plus d’un demi-siècle après, il semble donc bien que Galbraith ait eu raison de bout en bout. Eût-il été possible de contenir le matérialisme fou qu’il déplorait, l’appétit pour les biens matériels aujourd’hui au cœur du supposé problème de la pauvreté ne serait pas si vorace. Mais d’un tel reflux il n’a jamais été question. Et mise à part l’exhortation morale, Galbraith ne voyait aucun moyen d’y parvenir.

Dans l’édition révisée de L’Ère de l’opulence (1998), Galbraith a supprimé son commentaire sur la pauvreté comme « sujet de réflexion après coup ». Il met davantage l’accent sur l’élimination de la misère – un changement curieux étant donné que le taux de pauvreté avait considérablement baissé (il était de 73 % plus élevé en 1958 qu’en 1998) et que le chômage était à son plus bas niveau depuis trente ans.

Il est tentant d’affirmer que Galbraith avait raison en 1958 : contrairement à ce qu’affirmait Harrington, la pauvreté ne représentait pas un échec structurel du capitalisme. Il l’a bien vu (à l’instar de Hayek), l’augmentation de la production a effectivement éliminé, au milieu du XXe siècle, le spectre de la misère pour ceux qui travaillent.

Mais, alors que les données actuelles corroborent la première analyse de Galbraith sur l’état de la pauvreté en Amérique, son exposé des causes de l’évolution ne s’est révélé qu’en partie correct. L’Ère de l’opulence a été imprimé à l’aube de ce que certains décrivent comme l’âge d’or de l’État-providence. Selon l’indice officiel, le taux de pauvreté en 1960 était de plus de 22 %, presque le double de 2011. La lutte contre le dénuement absolu, celui qui touche les biens de première nécessité, fut puissamment renforcée par les dépenses sociales consacrées à un large faisceau de prestations (sécurité sociale, allocations chômage, aide sociale, revenu de sécurité complémentaire pour les aveugles, les personnes âgées et handicapées, aides à la personne, etc.) qui ont augmenté considérablement depuis les années 1950. Même si la sécurité sociale, les allocations chômage et l’assurance maladie sont allouées systématiquement à des gens aux revenus variés, une grande partie de ces aides sont conçues spécialement à l’intention des personnes les plus modestes.

L’impact de la récession de 2008 fut clairement amorti par cet ensemble de mesures. Il y a cinquante ans, Galbraith proposait un système de protection du chômage épousant les cycles économiques, les allocations augmentant en période difficile et diminuant quand l’emploi repart. C’est bien ce qu’a fait le Congrès ces dernières années. Durant la récession de 2009-2012, il a augmenté provisoirement les allocations chômage et étendu à 99 semaines la durée maximale des droits. Une fois bien en place, le filet de sécurité sociale s’est étendu pour couvrir des besoins comme la nourriture et le logement. Même la proportion de sans-abri a diminué régulièrement entre 2008 et 2011.

Si la pauvreté réelle aux États-Unis est très faible, pour les raisons anticipées par Galbraith, et si ses prescriptions de politique contra-cyclique en période de difficultés sont aujourd’hui à la fois acceptées et efficaces, alors nous devrions crier victoire, nous concentrer sur les situations particulières de pauvreté individuelle, et l’affaire serait réglée. Sauf qu’il n’en est rien. Le progressiste pragmatique et raisonnable qu’était Galbraith n’aurait certainement pas pu anticiper l’évolution de la définition de la pauvreté au cours du dernier demi-siècle, entre les mains d’une coalition de forces presque surréaliste : l’infatigable utopisme de l’esprit de gauche post-Harrington allié au mastodonte irresponsable de l’administration.

 

Inégalités perçues

L’âme progressiste est psychologiquement encline à l’insatisfaction permanente. Face au niveau inédit de bien-être matériel des personnes les plus modestes, ceux qui cherchent à faire avancer la condition humaine ont donc déplacé les lignes. Ladite âme souligne aujourd’hui que les mesures classiques ne peuvent endiguer les vraies calamités de la vie moderne ni les échecs élémentaires de la société capitaliste. D’où l’introduction lente mais toujours plus envahissante d’un nouveau vocabulaire pour alerter l’opinion et raviver le plaidoyer en faveur du développement de l’action publique. Désormais, les mesures absolues de la pauvreté sont remplacées par des mesures relatives : l’indigence est liée à l’inégalité des débouchés, et à ce que les Européens appellent l’« exclusion sociale », un concept élargi du désavantage, prétendument défini empiriquement par au moins dix-sept indicateurs. Parmi eux, un indice de privation matérielle, dont une version inclut des facteurs comme vivre en zone de bruit ou de pollution et de saleté en raison de la circulation ou des industries (des quartiers chics de Manhattan seraient sans doute éligibles).

De telles mesures reflètent l’aspiration à une vie bourgeoise paisible dans un environnement immaculé pour tous – objectif éminemment désirable, à n’en pas douter, mais très éloigné de la vraie misère matérielle, telle qu’elle crevait les yeux aux XIXe et XXe siècles et continue de le faire dans bien des parties du monde en développement, et telle qu’elle est comprise par l’opinion des pays industrialisés.

Il ne fait guère de doute que les inégalités ont augmenté aux États-Unis depuis les années 1960, atteignant un point culminant en 2007, quand les 1 % du haut de l’échelle se sont arrogé 23,5 % de l’ensemble des revenus salariaux. En 2009, l’impact de la récession avait réduit leur part à 17,6 %, à peu près son niveau de la fin des années 1990. (Une nette régression du PNB est l’un des moyens les plus rapides de faire progresser l’égalité – façon de rappeler que l’attrait social de l’égalité est sensible non seulement à la manière dont le gâteau est distribué mais aussi à sa taille.) De minutieux calculs faits par Richard Burkhauser et ses collègues de l’université Cornell montrent que, après 1993, nous n’avons pas connu d’augmentation manifeste des inégalités au sein des 99 % les moins bien lotis de la population. Face à l’augmentation rapide du revenu des 1 % du sommet, tous les autres ont évolué à un rythme relativement lent.

En plongeant encore plus profondément dans les données, on soulève d’autres lièvres. La perception courante selon laquelle les riches sont devenus plus riches au cours des dernières décennies et les pauvres sont devenus plus pauvres ne prend pas en compte, par exemple, l’impact des impôts, des transferts gouvernementaux et de la valeur monétaire de la couverture maladie ou la taille du foyer. Une mesure plus raffinée du revenu disponible qui intègre ces facteurs révèle un tableau un peu plus reluisant de la situation américaine (5).

 

Un niveau de vie enviable

En outre, la signification pratique donnée aux inégalités croissantes dépend dans une large mesure de la manière dont elle touche la vie des gens. Ainsi, malgré l’écart croissant de revenus, l’économiste Tyler Cowen souligne que l’écart de bien-être personnel s’est spectaculairement resserré au cours du siècle passé. Hormis l’expédition spatiale, il existe peu de moyens de déplacement sur cette planète – des bicyclettes aux avions en passant par l’automobile et le paquebot – qui soient hors de la portée des classes moyennes. Depuis la silhouette des Toyota aux allures de Mercedes jusqu’aux contrefaçons asiatiques de vêtements haute couture, la production moderne a estompé la spécificité des produits de luxe, marqueurs autrefois d’un statut social privilégié. Les individus jouissent d’un accès presque universel aux loisirs et au confort moderne. Même quand ils peinent à joindre les deux bouts, les Américains moyens sont instinctivement conscients que leur niveau de vie est plutôt enviable.

La perception que l’on a des inégalités économiques est dans une grande mesure contextuelle. Comme Robert Frank [lire notre entretien, Books, n° 18] et d’autres se sont donné la peine de le souligner, la vision que l’on a de sa propre situation dépend du fait de savoir si on la compare à celle de ses voisins, des habitants de l’État d’à côté ou des pays étrangers, des millionnaires qui vivent dans la capitale de l’État ou des milliardaires de Wall Street. On a ainsi dûment remarqué que la plupart des membres du mouvement « Occupy Wall Street » prétendant appartenir aux 99 % font en réalité partie des 1 % à l’échelle de la planète. Certains Américains seraient sans doute stupéfaits d’apprendre que la Hongrie est plus égalitaire et compte moins de pauvres (selon l’indice européen) que les États-Unis. La question de savoir si c’est une société plus juste dépend de la manière dont on considère la réalité suivante : à environ 800 dollars, le revenu mensuel médian hongrois se situe aux alentours de 55 % du seuil de pauvreté pour une famille de deux personnes aux États-Unis.

Écrivant à la fin des années 1950, Galbraith décelait un faible intérêt pour la question économique des inégalités, pour diverses raisons. À l’époque, d’abord, le phénomène était en déclin. En outre, les riches étaient devenus une source d’irritation moins visible à mesure que la dépense ostentatoire perdait de son pouvoir de distinction. La prospérité croissante permettait à tant de gens d’acheter des produits de luxe, ou des copies, qu’ils ont cessé de servir de signes d’appartenance à une caste privilégiée. Mais, par-dessus tout, Galbraith soutenait que les gains matériels de la croissance éliminaient les tensions sociales liées aux inégalités. Tout en ayant des doutes : à quel point la marée économique montante atténuerait-elle l’envie ? Le bon progressiste, expliquait-il, était hanté par « le cynique murmure marxiste laissant entendre que quoi qu’il fasse, ce pourrait bien n’être pas suffisant. Malgré ses efforts, les riches deviennent plus riches et plus puissants ».

C’est ainsi que le souci des inégalités s’est atténué durant la période d’optimisme et de relative prospérité qui a suivi la Seconde Guerre mondiale. Mais la profonde récession des dernières années a porté à ébullition une rancœur jusque-là frémissante, alimentée en partie par les rémunérations indécentes et parfaitement disproportionnées accordées aux capitaines de la finance et de l’industrie alors même que leurs bateaux sombraient. Aux yeux de nombreux Américains, voilà qui sent l’arnaque manigancée par une élite vivant sur son île.

 

Guerre des classes

L’ironie de la chose, c’est que le ressentiment provoqué par les inégalités semble avoir remplacé le souci des pauvres. Quand le président Obama, dans son allocution de 2011 sur la croissance et la réduction du déficit, a exigé des Américains les plus riches qu’ils paient plus d’impôts, il a drapé cette demande dans la rhétorique de l’équité envers la classe moyenne. Il mentionna les pauvres en passant, comme une éphémère réflexion après coup, tout au plus. Les conservateurs l’accusaient d’attiser la guerre des classes, mais la ligne de front passait entre les classes moyennes et les classes supérieures, pas entre les riches et les pauvres.

Cette attention portée à la redistribution n’aide guère à pallier les handicaps de ceux qui vivent dans la misère chronique. Elle ne crée pas d’opportunités, ne fortifie pas la vie de famille, n’instruit pas les enfants et n’encourage pas les vertus civiques. Elle n’aide guère à lutter contre la souffrance aiguë de ceux qui relèvent des cas d’espèce de pauvreté. Elle véhicule plutôt l’image de la bonne société comme société dédiée au développement de la consommation. Cette attention renforce le matérialisme débridé que Galbraith jugeait étranger, pour ne pas dire nuisible, à la qualité fondamentale de la vie.

Pour compenser l’attention disproportionnée accordée à la production de biens matériels et à la consommation individuelle, Galbraith affirmait que la bonne société exigeait un équilibre plus harmonieux entre dépenses publiques et dépenses privées. Et il voyait dans l’extension de la TVA la meilleure manière de développer les biens et les services publics : équipements de loisir, sécurité, bénévolat, transport et surtout éducation. Il était inflexible sur les avantages de cette taxe malgré son impact potentiel sur la répartition des revenus et les coûts financiers qu’elle représente pour les plus modestes. Il était inflexible parce qu’il avait compris que c’était un moyen de créer ce que nous appelons aujourd’hui à la fois du capital humain et du capital social.

Au-delà de l’amélioration de l’équilibre entre consommation publique et privée, Galbraith se préoccupait aussi de l’équilibre entre travail et loisir, et de la manière de limiter la corvée du travail ouvrier. Au cœur de l’opulence moderne, il observait l’ascension d’une « nouvelle classe » pour qui le travail agréable est une riche source de satisfaction qui donne un but et structure la vie. Son appel à faire de l’essor de cette Nouvelle classe le principal objectif social reflétait les tendances utopiques de l’âme progressiste, mais au moins son utopisme transcendait-il le matérialisme pur. Rendre le travail plus facile, plus agréable et épanouissant pour la personne, à travers un plus grand investissement public dans le capital humain et les loisirs, faisait partie intégrante du projet progressiste de Galbraith. Il transcendait les préoccupations matérialistes classiques sur la pauvreté et les inégalités, en se concentrant plutôt sur ces questions profondes : qu’est-ce qui fait une bonne société ? Quel est le but du travail humain une fois assurée la survie dans des conditions de confort modeste. Ce sont les vraies questions auxquelles la société d’abondance qui est la nôtre doit encore trouver une réponse. En ceci, aussi, Galbraith avait raison depuis le début.

 

Cet article est paru dans The American Interest à l’été 2012. Il a été traduit par Sandrine Tolotti.