L’âge de la finance éclairée

Andrew Palmer en est convaincu : la finance peut être une « force du bien ». À plus forte raison si elle est innovante. Journaliste à l’hebdomadaire britannique The Economist, Palmer estime que « les effets persistants du désastre de 2008 nous empêchent de voir les évolutions constructives intervenues dans des domaines comme le crédit aux entreprises, la gestion des retraites ou les dons aux œuvres caritatives », estime James Grant dans le Wall Street Journal. Le livre de Palmer, intitulé « L’argent intelligent », fait notamment état d’une expérience menée à Peterborough, en Angleterre. Des « obligations à impact social » (social impact bonds) ont été proposées aux investisseurs, en l’occurrence des titres visant à financer un programme local de réinsertion des prisonniers. « En échange, ils recevaient l’assurance d’une rémunération future du ministère de la Justice, dans l’hypothèse où ces prisonniers commettraient moins de crimes que les autres groupes, lit-on dans le New York Times. Le marché s’annonçait gagnant-gagnant : les détenus apprendraient un métier, l’État dépenserait moins pour les établissements pénitentiaires et les investisseurs obtiendraient des rendements intéressants. » Si l’on en croit Palmer, les premiers résultats sont probants. Tout aussi encourageantes sont, à ses yeux, les initiatives de Kabbage et OnDeck, des « prêteurs en ligne qui utilisent des algorithmes pour évaluer la santé des petites entreprises et leur apporter du capital quand les banques s’en abstiennent ». Palmer évoque encore, pêle-mêle, les « contrats sur le capital humain » (le financement des études d’un jeune en échange d’un pourcentage de ses revenus futurs) ou les « obligations cancer » (le financement d’un ensemble d’essais cliniques, en échange d’une rémunération sur le projet qui éventuellement aboutira). Les initiatives répertoriées sont séduisantes, admet dans Bookforum le journaliste économique Felix Salmon. Mais « elles ne représentent à ce jour qu’une part infime du système financier ».

Les crimes oubliés des Alliés

Antony Beevor connaît des nuits sans sommeil. Lorsque je l’ai rencontré, chez lui, dans l’ouest de Londres, il me l’a avoué avec simplicité, et ni lui ni moi n’y trouvons rien d’anormal. Pour nous, il va de soi que tout historien qui s’immerge dans l’étude de la Seconde Guerre mondiale, comme nous l’avons fait durant l’essentiel de notre vie, est condamné aux insomnies.

Les siennes, me raconte-t-il, ont tendance à le frapper pendant les périodes de recherches intenses ou quand il s’apprête à écrire sur l’un des aspects troublants de la guerre. « Bien entendu, il ne faut pas se laisser submerger tout de suite, car nous devons consigner les faits avec objectivité, explique-t-il. Mais, quelques nuits plus tard, on se réveille brusquement, au beau milieu de la nuit, et il y a là quelque chose qui vous travaille. »

Beevor, il est vrai, a traité au fil des ans des sujets particulièrement sombres. Son histoire de la bataille de Stalingrad, qui l’a propulsé sous les projecteurs en 1998, raconte l’une des campagnes les plus féroces de la Seconde Guerre mondiale. L’auteur admet que plusieurs des témoignages qu’il a découverts, notamment sur des soldats mourant de faim dans la neige, continuent de le hanter. Son livre suivant, La Chute de Berlin, sur la bataille pour la capitale allemande, décrit le viol des femmes à grande échelle – un sujet qui lui a plus d’une fois tiré des larmes. Plus récemment, La Seconde Guerre mondiale raconte en détail, jusqu’à l’écœurement, la manière dont certains soldats japonais ont non seulement pratiqué le cannibalisme avec leurs morts, mais aussi engraissé des prisonniers pour les abattre et les manger.

Aborder ce genre de sujets ne lui a pas toujours valu la faveur des critiques. L’historien Niall Ferguson l’a accusé d’écrire de la pornographie de guerre, ce qu’il conteste catégoriquement. « Nous devons nous efforcer d’expliquer ces événements, confie-t-il. Soyons honnêtes, le devoir d’un historien est de comprendre et d’essayer de transmettre cette connaissance à autrui. » À vrai dire, étant donné la brutalité du conflit, il a le sentiment d’avoir plutôt fait preuve de retenue. Bien des détails ont été censurés. Dans son récit de l’attaque soviétique contre Berlin, par exemple, l’historien a renoncé à inclure des graphiques sur les tentatives de suicides allemandes, notamment chez les jeunes enfants. « J’ai laissé tomber parce que j’étais moi-même incapable de lire ces chiffres sans éclater en sanglots. Certaines choses sont trop abominables pour qu’on puisse les mettre dans un livre. En même temps, on se demande après coup si on n’a pas fait preuve de lâcheté. »

Beevor est un historien à part, car – outre son talent de conteur – il n’a pas peur de s’attaquer aux sujets les plus dérangeants mais réussit à ne jamais mettre en danger le lecteur. On trouve peu de jugements catégoriques dans ses écrits. Le lire, c’est comme avoir Virgile pour guide à travers les Enfers : il ne vous laisse pas en plan au milieu de l’horreur ; il vous en extirpe. Cela fait de lui le compagnon de voyage parfait.

Beevor a le chic pour choisir des sujets polémiques au bon moment – quand ils sont encore assez sensibles pour susciter une réaction, mais pas au point d’être trop douloureux. Le dernier en date : la bataille des Ardennes, qui se déroula en 1944. L’ouvrage est une suite naturelle de celui qu’il a consacré au Débarquement. On y retrouve la même tension politique entre les commandants britanniques et américains, la même exaspération chez les simples soldats des deux camps. Mais il a pour cœur un nouveau sujet lugubre : le massacre systématique des prisonniers. Il s’agit là, estime Beevor, d’un des derniers tabous de la guerre. « Je n’ai encore lu aucun historien américain qui aborde la question. Et, jusqu’à récemment, je ne crois pas que beaucoup d’historiens britanniques aient travaillé sur les massacres perpétrés par nos soldats contre les prisonniers. C’était quelque chose que les Allemands faisaient, mais nous préférons passer sous silence le fait que nos propres gars le faisaient aussi. »

Le livre s’ouvre sur la description de l’une des batailles qui précédèrent l’offensive massive d’Hitler dans les Ardennes – cela donne le ton. À l’automne 1944, l’avancée des Alliés finit par être stoppée aux frontières de l’Allemagne. Les Américains se retrouvent empêtrés dans un combat acharné pour la forêt de Hürtgen, un lieu « si dense et sombre qu’il ne tarda pas à sembler maudit, comme dans un conte mettant en scène sorcières et ogres ». Il n’y a rien d’hyperbolique dans cette description, insiste l’auteur. « Elle ne fait que refléter la manière dont les soldats voyaient cette forêt. Tous ceux qui l’ont évoquée en parlent en ces termes. » Beevor s’y est rendu pour son livre et insiste : « Quelque chose en elle donne la chair de poule. »

Les hommes des deux camps y firent preuve d’une inventivité extraordinaire pour s’entre-tuer. Ils tiraient des salves d’artillerie en visant la cime des arbres pour que les éclats déchiquettent ceux qui se trouvaient en dessous. Ils apprirent à jouer avec les instincts de l’ennemi, plaçant des mines partout où il était susceptible de chercher refuge, comme dans les creux ou les cratères d’obus. Souvent, les soldats étaient trop effrayés pour les voir tant ils scrutaient le sol à la recherche de fils de détente. Les Allemands, en particulier, prirent l’habitude de placer des charges explosives derrière les morts ou les blessés américains, sachant que tout le monde serait tué par l’explosion dès qu’une équipe de secours ou d’inhumation essaierait de déplacer les corps.

« Ce n’est pas un comportement humain normal », me confie Beevor. L’objectif de ce genre de tactique n’était pas seulement de tuer l’ennemi, mais aussi de lui saper le moral. Les deux camps savaient que déprimer l’adversaire pouvait se révéler décisif pour l’issue de la bataille. C’est pourquoi la brutalité, les atrocités même, devinrent partie intégrante du combat.

Dans les semaines qui suivirent, cette logique atteignit son paroxysme. Le 16 décembre 1944, les Allemands lancèrent leur contre-attaque à travers les champs bourbeux et les collines boisées du sud-est de la Belgique. L’armée allemande était constituée pour l’essentiel de soldats SS ayant servi en Russie, où ils s’étaient distingués en incendiant les villages et en exterminant leurs habitants. Ils appliquaient désormais les méthodes de combat du front de l’Est au cœur de la Belgique : les civils suspectés de sympathie pour les Américains furent assassinés, les femmes violées, les fermes pillées et les prisonniers de guerre fusillés. Il y eut plusieurs massacres, le plus fameux à Malmedy, où 130 prisonniers américains furent rassemblés dans une prairie par les panzergrenadiers SS et 84 d’entre eux abattus à la mitrailleuse.

Face à cette offensive, les Américains battirent en retraite dans le plus grand désordre. Les unités défendant cette partie du front étaient déjà démoralisées par leur récent engagement dans la forêt de Hürtgen, et bon nombre de soldats s’effondrèrent purement et simplement – en particulier les nouvelles recrues qui venaient d’arriver pour remplacer leurs camarades morts. « Il n’y a sans doute pas pire situation que d’aller au combat pour la première fois, explique Beevor. Cela va à l’encontre de toutes les formes d’expérience humaine normale. Ce qui en fait une affaire profondément personnelle, où chaque balle, chaque obus semble vous viser en particulier. Les pauvres bougres se sont retrouvés là sans entraînement approprié – et ce sont eux qui ont craqué en un rien de temps. »

Le moral des troupes américaines devint rapidement un sérieux problème. On vit se multiplier les  cas d’hommes s’infligeant eux-mêmes des blessures dans l’espoir d’échapper à la violence du front. Cela prenait en général la forme d’un coup de fusil « accidentel » dans la main ou le pied gauche, mais un soldat de la 99e Division d’infanterie alla jusqu’à se coller contre un arbre énorme, à le ceinturer de ses bras et à faire exploser une grenade dans sa main.

Mais si le choc de l’offensive allemande frappa de terreur certains militaires américains, elle semble avoir eu l’effet opposé sur d’autres. « La détermination à répliquer fut stupéfiante, remarque Beevor, et constitua sans doute le facteur déterminant pour expliquer l’issue finale. » Les nouvelles des atrocités commises par les troupes SS renforcèrent la résolution des troupes.

C’est à ce moment du livre que Beevor commence à raconter quelques-unes des manifestations barbares que prit la revanche américaine. Les premières cibles furent les SS, souvent abattus de manière irrégulière. Une section au moins jura de ne prendre aucun prisonnier : à chaque fois que les Allemands agitaient un drapeau blanc, un sergent se levait et leur demandait d’approcher avant d’ordonner à ses hommes de faire feu. À Chenogne, la 11e Division blindée abattit 60 prisonniers allemands : « Ce n’était pas un secret – [le général américain] Patton l’évoque même dans son journal. »

Le plus choquant, peut-être, dans cette culture de la vengeance, c’est que les commandants américains ne se contentèrent pas d’en être complices. Ils l’encouragèrent activement. « Les responsables alliés étaient furieux d’avoir été pris par surprise. Il ne faut pas négliger la part d’embarras dans leur attitude. Lorsqu’une déconvenue pareille survient, vous vous mettez en colère et vous refusez d’assumer la responsabilité de vos actes. » Plusieurs généraux américains approuvèrent ouvertement le massacre des prisonniers et se glorifièrent des surnoms terrifiants que les Allemands commençaient à donner à leurs troupes, comme « les bouchers de Roosevelt ».

Plus la conversation avance, plus il devient évident que Beevor se débat avec ces problèmes. Hors du monde universitaire, peu d’individus sont prêts à examiner de manière impartiale les aspects les moins reluisants de notre comportement – et assurément personne disposant d’un aussi large lectorat que lui. Et puis, c’est une chose de dire que ces événements ont eu lieu – un aveu que de nombreux historiens répugnent à faire ; c’en est une autre de savoir comment réagir. Ce sujet met à mal nos mythes les plus chers sur l’héroïsme et la vaillance des Britanniques et des Américains.

D’instinct, Beevor sait qu’il doit procéder avec prudence, sans fermer les yeux, mais sans non plus condamner purement et simplement cet accès de vengeance. « Il faut s’efforcer de laisser les jugements moraux au lecteur. Inutile d’être catégorique. Nous ne pouvons qu’émettre des hypothèses sur la façon dont nous-mêmes aurions réagi dans ces circonstances », déclare-t-il. Pour la première fois de notre conversation, je perçois un léger malaise.

Je lui demande : « Pourquoi nous infligeons-nous cela à nous-mêmes ? » Il existe sûrement des manières moins perturbantes pour un historien de gagner sa vie – qui ne passent pas par l’étude de la violence, des atrocités et de l’inhumanité ? Sa réponse tient en un seul mot : « Fascination. » Il le dit avec sur un ton dégagé, comme lorsqu’il parle de ses nuits d’insomnie, mais après tout ce dont nous avons discuté, ce mot est chargé de plusieurs strates de sens. Fascination, d’abord, pour la période de la guerre qui a défini le monde dans lequel il a grandi. Fascination, ensuite, pour la capacité de l’homme à endurer la violence la plus inimaginable. Fascination, enfin, pour le ressort qui conduit certains à craquer alors que d’autres parviennent à surmonter leurs instincts les plus primaires. Et, en filigrane, il y a l’irrésistible besoin de se pencher au-dessus de l’abîme et de scruter le cœur des ténèbres. « J’ai bien peur que l’essence du mal nous fascine tous. »

Je ne peux, hélas, qu’abonder dans son sens.

 

 

Cet article est paru dans le Telegraph le 17 mai 2015. Il a été traduit par Baptiste Touverey.

 

Petit éloge de la girouette

Berlin Alexanderplatz, le 4 novembre 1989. D’innombrables citoyens de la RDA exigent un changement dans leur pays. La grande romancière Christa Wolf monte sur l’estrade et s’adresse à la foule compacte des manifestants. Elle parle du « tournant » et des problèmes que lui pose ce concept (1). Il lui évoque un bateau sur lequel l’équipage courbe l’échine quand le vent souffle et que la voile balance brusquement de gauche à droite. Elle préférerait donc parler d’un temps de « rénovation révolutionnaire », où le haut et le bas échangent leurs places et où la société socialiste, qui marchait sur la tête, est remise sur ses pieds (2).

Plus encore que le mot lui-même, Christa Wolf supporte mal un certain type d’acteurs que le « tournant » a produit : « Nous observons avec stupéfaction les tourne-casaque que la langue populaire appelle des girouettes », déclare-t-elle aux manifestants. Les girouettes, poursuit-elle en citant le dictionnaire, peuvent « s’adapter vite et facilement à une nouvelle situation, s’y mouvoir avec habileté et en tirer profit ». « Ce sont elles, plus que n’importe quels autres, à mon avis, qui nous empêchent de croire en une nouvelle politique. »

La critique de Wolf vise les représentants de l’ancien système est-allemand qui évoluent alors en fonction de la situation afin de conserver pouvoir et influence. Mais pourquoi la romancière redoute-t-elle tant les opportunistes et pas les hommes qui ne changent jamais d’avis ? Qu’ont-ils de si menaçant, pour que les manifestants écrivent sur leurs banderoles « Chassons les girouettes » ? En quoi cette flexibilité, ce flair qui leur permet de saisir l’occasion, représente-t-ils le pire danger pour la rénovation révolutionnaire ? Comment expliquer que Wolf observe les opportunistes « avec stupéfaction », sentiment où se mêlent l’admiration pour leur habileté et l’indignation devant leur manque de principes ?

Ces questions sont bien plus vieilles que l’histoire du tournant de 1989. Peut-être même sont-elles aussi vieilles que l’humanité elle-même. Mais le concept d’opportunisme n’est apparu qu’au XIXe siècle. En criminologie comme en droit pénal, on le connaît depuis la fin de ce siècle au plus tard. L’« opportuniste » apparaît comme un criminel occasionnel qui, au moment favorable, succombe à la tentation du vol ; ou comme un procureur qui fait dépendre des circonstances l’ouverture d’une procédure judiciaire. Dans le domaine économique aussi, avec la montée en puissance de ces États-Unis que les Anglo-Saxons surnomment Land of opportunity, l’opportunisme qualifie de plus en plus l’entreprenariat inventif ou l’affairisme véreux.

Le milieu de prédilection de l’opportuniste reste cependant la politique. L’écrivain italien Alessandro Manzoni définissait cette attitude comme l’« art de naviguer en profitant du vent que font les autres ». Et, en 1905, le journaliste et écrivain britannique Gilbert K. Chesterton pestait : « Rien n’a fait échouer tant de projets que l’opportunisme […]. Rien dans l’univers n’est aussi insensé que cette espèce de culte de la prétendue habileté. » L’image de l’opportuniste n’est pas moins sombre dans la littérature – depuis Le Sujet de l’empereur d’Heinrich Mann jusqu’à L’Éternel Petit-Bourgeois d’Ödön von Horváth.

 

Il est d’autant plus surprenant que le terme moderne ait été pris en bonne part lorsqu’il est apparu pour la première fois, dans les années 1870, au début de la IIIe République française. Il qualifiait alors, de manière positive, un certain art de gouverner. Léon Gambetta, le chef de file des républicains radicaux, baptisait ainsi son programme de « politique du succès » ou « des résultats ». À ses yeux, l’opportunisme, c’était le génie de mener une politique pragmatique et de l’ordre du possible, au beau milieu de réalités mouvantes. En Allemagne, après l’échec de la révolution de 1848, on parlait de « Realpolitik » ; plus tard, Konrad Adenauer formulera son credo : « Que m’importe ce que j’ai pu raconter hier ? »

Il a suffi de quelques années seulement pour que le regard sur l’opportunisme bascule vers l’opprobre. À partir de 1880 au plus tard, le terme n’évoque plus, en France, une habile politique des résultats mais un concept insultant. Ceux qu’on appelle les Intransigeants, un courant parmi les radicaux, reprochent aux opportunistes d’avoir par leur politique compromis les idées républicaines et sociales du radicalisme. Aux yeux de beaucoup, l’opportunisme ne représente qu’une hypocrisie, la renonciation à ses convictions. Si, pour Gambetta et ses partisans, le mouvement est le garant d’un idéal politique réaliste, pour les Intransigeants, il menace l’existence même de l’idéal.

Cette ambivalence est inscrite dans l’étymologie du mot. Le concept vient du latin opportunus (commode, approprié, convenable, favorable ou opportun), qui lui-même renvoie à l’expression ob portum (« vers le port ») qu’utilisaient les marins de l’Antiquité pour désigner un vent favorable soufflant en direction de la côte. Sous cet angle, on doit comprendre l’opportunisme comme l’art de guetter le moment idoine.

C’est ce que, dans l’Antiquité grecque, on appelle le kairos. À l’origine, le mot décrit l’ouverture qui survient, lorsqu’on tisse, au moment où les fils de chaîne se soulèvent ou s’abaissent, afin de laisser passer le fil de trame. La mythologie représente le kairos sous la forme d’un jeune homme portant une longue mèche de cheveux par laquelle on peut l’attraper lorsqu’il passe à proximité. Il incarne le principe aussi bien esthétique qu’éthique de la bonne mesure, du ni trop tôt ni trop tard, du ni trop ni trop peu. Dans la littérature latine, Kairos devient Occasio et, de dieu, il se fait déesse. Dotée d’une chevelure similaire, elle symbolise aussi le moment favorable : son visage est caché derrière sa longue crinière, mais l’arrière de son crâne est chauve. Il faut attraper sa tignasse quand elle vient vers vous. Celui qui ne la reconnaît que de dos ne saisit plus que le néant.

 

Mais l’étymologie de l’opportunisme renvoie aussi à une autre signification plus sombre : comme le prouvent certains passages d’Homère ou d’Eschyle, le kairos pouvait être également un point vulnérable ou mortel sur le corps. Les occasions propices des uns sont les points faibles des autres.

À la fin du XIXe siècle, le concept fait son entrée dans les débats du mouvement des travailleurs sociaux-démocrates allemands. Ce dernier s’était constitué en parti politique en 1875. En 1890, après avoir survécu aux lois socialistes, il prend le nom de Parti social-démocrate (SPD) (3). L’année suivante, il se donne un programme d’inspiration clairement marxiste. S’y exprime, dans la plus pure tradition du socialisme scientifique, la conviction qu’une suite de crises graves va sonner le glas de la société capitaliste, déclencher une révolution prolétarienne et rendre « objectivement nécessaire » la victoire du socialisme, comme l’écrit alors Rosa Luxemburg. « C’est dans le non, dans l’intransigeance, lit-on dans le même texte, que réside notre force. » L’opportunisme et le « possibilisme », la tendance à saisir ce qui est à portée de main, doivent en revanche « plutôt rester pour nous des mots étrangers ».

L’espoir de Rosa Luxemburg sera déçu. Vers la fin des années 1890, les doutes se multiplient quant à l’effondrement prochain du capitalisme. De plus en plus de sociaux-démocrates demandent un changement de tactique – le rejet de la contestation radicale et l’adoption d’une politique pragmatique. À leurs yeux, il faut vite trouver des solutions aux problèmes urgents du prolétariat, obtenir rapidement les plus grands avantages possibles pour le moment. Et ces militants sont prêts pour cela à participer au jeu parlementaire bourgeois, à intégrer des coalitions et à passer des compromis.

La plupart des sociaux-démocrates, fidèles à l’orthodoxie marxiste, ne tardent pas à trouver un nom pour cette politique de recherche des avantages immédiats et du compromis : l’opportunisme. Et ils déclarent la guerre, dans leurs propres rangs, à ses représentants, en particulier le plus célèbre d’entre eux, Eduard Bernstein. Ils lui reprochent d’abandonner le marxisme et de remettre en cause, au nom d’une réforme de la société bourgeoise capitaliste, le lien entre socialisme et révolution.

Cet affrontement va passer à la postérité sous le nom de « querelle du révisionnisme ». Et il n’a pas lieu uniquement au sein de la social-démocratie allemande. En Russie se font face les bolcheviks et les mencheviks.

Dans l’esprit de Lénine, l’opportunisme incarne une menace pour l’objectif final de réalisation du socialisme, principalement pour une raison : « L’opportuniste ne trahit pas son parti, ne le quitte pas, n’entre pas en dissidence, écrit-il en 1906. Il continue à le servir avec sincérité et zèle. Mais il succombe toujours à l’humeur du moment, est incapable de résister à la mode et, politiquement, il a la vue courte et manque de caractère. L’opportunisme signifie sacrifier […] les intérêts durables et vitaux du Parti aux intérêts du moment. L’industrie connaît un certain essor […], et déjà l’opportuniste s’écrie : “N’effrayez pas la bourgeoisie, ne vous tenez pas à l’écart d’elle, arrêtez avec les menaces de révolution sociale !” »

Le danger réside donc, pour Lénine, en ceci que le courant déploie sa force destructrice de l’intérieur. Difficiles à repérer car ressemblant à d’honnêtes bolcheviks, les opportunistes répandent les idées bourgeoises au sein du Parti et en menacent les principes. En d’autres termes, ils constituent pour les bolcheviks un problème existentiel, car en agissant à la fois pour le prolétariat et pour les bourgeois, ils brouillent la logique de classe.

 

Pour Lénine, l’attachement des opportunistes au bon moment et aux possibilités offertes par les circonstances tenait au fait qu’ils ne se sentaient pas assez fermement engagés envers la révolution. Mais, une décennie plus tard, il devait lui-même s’exposer à ce reproche. En 1917, les membres les plus orthodoxes du Parti l’accusent d’avoir trahi l’objectif de la révolution mondiale par un compromis infamant en concluant la paix de Brest-Litovsk avec l’Empire allemand. Il répond à ces attaques dans son livre La Maladie infantile du communisme (le « gauchisme ») : « Il y a compromis et compromis. Il faut savoir analyser la situation et les conditions concrètes de chaque compromis. » Celui qui s’aviserait d’« imaginer pour les ouvriers une recette offrant d’avance des solutions toutes prêtes pour toutes les circonstances de la vie, ou qui assurerait que dans la politique du prolétariat révolutionnaire il ne se rencontrera jamais de difficultés ni de situations embrouillées, celui-là ne serait qu’un charlatan. » L’opportunisme apparaît de nouveau ici comme l’art de gouverner.

L’histoire de ce concept est donc aussi une histoire des limites auxquelles se heurte l’idéal. Elle montre qu’un principe ne suffit pas à définir des modalités d’action, qu’il existe toujours plusieurs options entre lesquelles il faut trancher, que chaque situation oblige à prendre de nouvelles décisions et à tenir compte des ambiguïtés auxquelles la théorie donne inévitablement naissance. Il n’est jamais facile de tracer une ligne de démarcation claire entre le prolétariat et la bourgeoisie, entre les vrais et les faux prolétaires, entre les bons et les mauvais membres du Parti.

C’est précisément l’une des raisons pour lesquelles, en 1989, Christa Wolf mettait en garde contre les girouettes. En apparaissant à la fois comme représentants de l’ancien régime et partisans du mouvement démocratique, ces hommes effaçaient la différence entre le socialisme réellement existant et sa variante, remise sur ses pieds, dont Wolf rêvait. La simple existence de ces girouettes jetait une lumière crue sur les lacunes et les imperfections de l’idéal de « rénovation révolutionnaire ». En même temps, elle montrait l’éventail des possibilités d’action qui, dès les premiers jours de la social-démocratie, alla de l’absence totale de scrupule à l’orthodoxie la plus stricte. C’est à juste titre que Christa Wolf critiquait, en 1989, l’exploitation de ces lacunes et imperfections à des fins purement personnelles et au détriment de la crédibilité de cet idéal ; mais le déni orthodoxe de ces lacunes et imperfections ne pouvait lui sembler moins arbitraire.

Par un retour au sens qu’avait l’antique kairos, l’histoire de l’opportunisme débouche sur une question qui, dans un monde complexe, devient toujours plus pressante et exclut les réponses simples : celle de la juste mesure. Une politique efficace ne saurait réussir sans une bonne dose de pragmatisme – d’autant plus que chaque dogmatisme court le risque de se transformer en arbitraire et même en opportunisme éhonté, dès qu’il est confronté à la réalité.

 

— Ce texte est paru dans le Zeit le 24 septembre 2015. Il a été traduit par Baptiste Touverey.

L’incroyable puissance de l’industrie du sucre

Par un frais mardi du printemps 1976, deux responsables de la Sugar Association s’avancent vers l’estrade d’une salle de bal de Chicago pour recevoir l’Oscar du monde des relations publiques, cette Silver Anvil (« enclume d’argent ») qui récompense l’excellence en matière de « formation de l’opinion publique ». Le lobby venait de réussir l’une des plus spectaculaires volte-face de l’histoire de la communication. Pendant près d’une décennie, le secteur avait été ballotté de crise en crise, les médias et l’opinion s’en prenant au sucre, tandis que les scientifiques commençaient à y voir une cause probable de l’obésité, du diabète et de la maladie cardiaque. (1) Des publicités prétendant que le sucre aidait à perdre du poids avaient dû être retirées à la demande de la Federal Trade Commission, et la Food and Drug Administration (FDA) avait engagé une étude sur ses dangers. La consommation s’était affaissée de 12 % en deux ans. Le sourire qu’affichaient ce jour-là John « JW » Tatem Jr. et Jack O’Connell Jr., respectivement président et directeur des relations publiques de la Sugar Association, leur trophée à la main, en disait long sur le coup qu’ils venaient de réussir.

La campagne, montée avec l’aide de la prestigieuse firme de relations publiques Carl Byoir & Associates, avait été décidée après la parution d’une enquête d’opinion montrant que les consommateurs considéraient désormais le sucre comme un facteur d’obésité, et que la plupart des médecins le soupçonnaient d’aggraver, voire de causer la maladie cardiaque et le diabète. Forte d’un budget annuel initial de près de 800 000 dollars (3,4 millions actuels) collectés auprès des principaux producteurs américains, l’association avait donc recruté toute une écurie de professionnels de la médecine et de la nutrition pour apaiser les craintes de la population. Elle avait ramené dans son giron les fabricants de boissons et d’en-cas. Et financé des articles scientifiques qui avaient contribué à une décision « très favorable » prise par la FDA, grâce à laquelle – claironnait le texte de candidature au Silver Anvil – « le sucre risquait peu de subir la moindre contrainte législative dans les années à venir ».

À en croire Tatem, l’histoire du sucre était celle d’un produit inoffensif attaqué par des « opportunistes s’employant à gruger les consommateurs ». Au cours des décennies suivantes, il allait changer de statut, troquant sa réputation de « bandit masqué » (selon les termes utilisés par le New York Times en 1977) pour celle d’aliment si inoffensif en apparence que même l’Association américaine des cardiologues et l’Association américaine des diabétologues l’ont recommandé parmi les composantes d’un régime sain. À la fin des années 1980, les recherches sur les liens entre le sucre et les maladies chroniques avaient quasiment cessé et les scientifiques voyaient dans ce champ d’étude une impasse professionnelle. Les efforts de la Sugar Association ont été tellement efficaces qu’à ce jour [automne 2012], aucun consensus ne s’est encore dégagé sur les dangers potentiels de cet aliment [lire « Le sucre, mais pas seulement ! »].

La campagne de communication du secteur s’est traduite par une hausse significative de la consommation de sucre de table (le saccharose) et d’édulcorants, notamment le sirop de maïs à haute teneur en fructose (HFCS). (2) Cette hausse s’est accompagnée à son tour d’une augmentation soudaine de la fréquence des maladies chroniques, dont le lien avec le sucre a été de plus en plus souligné. Depuis 1970, la proportion d’obèses aux États-Unis a plus que doublé et l’incidence du diabète a plus que triplé.

 

epidemie d'obesite

progression diabete us

 

Comment, précisément, l’industrie a-t-elle pu accomplir cette volte-face ? La réponse se trouve dans plus de 1 500 pages de documents internes, de lettres et de rapports de conseils d’administration que nous avons exhumés des archives d’entreprises aujourd’hui disparues et de scientifiques ou consultants décédés ayant joué un rôle majeur dans l’opération. Ces documents montrent comment Big Sugar a utilisé les méthodes de Big Tobacco pour que les agences gouvernementales écartent tout soupçon de risque sanitaire pesant sur ses produits. Comparée à celle des cigarettiers, qui savaient pertinemment que le tabac est mortel et ont dépensé des milliards de dollars pour tenter de le cacher, la tâche des industriels du sucre était relativement simple. La question des effets de la substance sur la santé n’étant pas encore tranchée, les producteurs devaient simplement veiller à ce que l’incertitude dure aussi longtemps que possible. Mais le but était le même : protéger les ventes en constituant un corpus de preuves scientifiques fin prêtes pour contrer tout résultat de recherche défavorable.

 

Cette entreprise de manipulation des cartes de la science, pendant des décennies, explique pourquoi les recommandations alimentaires officielles du gouvernement américain (USDA dietary guidelines) n’évoquent le sucre qu’en ces termes très vagues : « Réduire la consommation de calories en provenance des graisses solides et des sucres ajoutés ». (3) C’est aussi la raison pour laquelle la FDA répète que « le sucre est généralement jugé sans danger », en dépit de toutes les données qui plaident en sens inverse. Cet activisme permet aussi de comprendre la fin de non-recevoir à laquelle se sont heurtés divers appels pressants de scientifiques en faveur d’une réglementation des produits sucrés. Et pourquoi, en l’absence de véritable détermination fédérale, le maire de New York, Michael Bloomberg, s’est senti obligé de proposer d’interdire les boissons sucrées au-delà d’un certain volume – interdiction entrée en vigueur dans la ville en septembre 2012. (4)

En réalité, de plus en plus de travaux scientifiques incitent à penser que le glucose et son cousin chimiquement presque identique, le fructose, pourraient bel et bien causer des maladies chroniques entraînant la mort, dont la prévalence diminuerait nettement si nous réduisions sensiblement notre consommation de sucres ajoutés.* Robert Lustig, une autorité dans le domaine de l’obésité infantile à l’université de Californie, a exposé ses thèses en 2012 dans la prestigieuse revue scientifique Nature. Dans cet article intitulé « La vérité toxique sur le sucre », il observe avec deux de ses collègues que le glucose et le fructose créent une dépendance au même titre que le tabac et l’alcool ; leur consommation excessive est un facteur déterminant de l’épidémie actuelle d’obésité et de diabète de type 2 (associé à l’obésité). Selon les auteurs, les maladies liées au sucre coûtent aux États-Unis environ 150 milliards de dollars par an. Ils invitent donc les autorités de santé à se mobiliser pour en réguler la consommation.

La Sugar Association a réagi en exhumant son argument de base : l’article de Lustig « ne repose pas sur des preuves ou le consensus scientifique » requis, et il est irresponsable de la part des auteurs de passer sous silence que les résultats de recherche disponibles « sont au mieux peu concluants ».

 

controverse sucree

 

C’est déjà ce qu’expliquait Tatem devant le conseil d’administration de l’association en 1976 : « Nous nous efforçons de ne jamais perdre de vue le fait qu’aucune preuve scientifique ne permet d’établir un lien entre le sucre et des maladies conduisant au décès. Ce point crucial est l’énergie vitale de notre association ».

 

La première incarnation de l’organisme remonte à 1943, quand les producteurs et les raffineurs créèrent la Fondation pour la recherche sucrière afin de contrecarrer la propagande de guerre en faveur du rationnement. « De combien de sucre avez-vous besoin ? Zéro ! », déclarait un tract gouvernemental. En 1947, les producteurs rebaptisèrent leur lobby Association du sucre et créèrent un département de relations publiques, Sugar Information Inc., qui présenta bientôt la substance comme un « moyen intelligent de maîtriser son poids ». En 1968, dans l’espoir d’attirer les entreprises étrangères afin d’aider à couvrir les frais, la Sugar Association fit de son département recherche la Fondation internationale de recherche sur le sucre (ISRF). « Les préjugés sur les causes de la carie dentaire, du diabète et des problèmes cardiaques sont répandus dans le monde entier », expliquait en 1969 une brochure de la fondation destinée à recruter de nouveaux membres.

Dès 1962, des documents internes avaient pourtant reconnu les liens potentiels entre le sucre et les maladies chroniques, mais les dirigeants du secteur étaient alors confrontés à un problème plus urgent : les Américains, soucieux de leur poids, se convertissaient en masse aux sodas light, au goût artificiellement sucré avec des édulcorants comme les cyclamates ou la saccharine. (5) Entre 1963 et 1968, la part de marché de ces « soft drinks » passa de 4 à 15 %. « Une quantité de sucre valant 1 dollar pourrait être remplacée par une quantité d’édulcorants valant 10 cents », avertit John Hickson, vice-président et directeur de recherche de l’ISRF, dans un document interne. En 1969, il déclarait au New York Times : « Si quelqu’un peut vendre 9 cents sur 10 moins cher que vous, vous avez intérêt à trouver une objection à lui balancer. »

 

L’industrie sucrière avait consacré plus de 600 000 dollars (environ 4 millions actuels) à l’étude de tous les effets négatifs concevables d’édulcorants de synthèse qui sont encore aujourd’hui sur le marché mondial, comme le Sucaryl. En 1969, la FDA a interdit les cyclamates aux États-Unis, sur la base d’une recherche indiquant qu’ils pouvaient causer des cancers de la vessie chez le rat. Peu après, Hickson quitta l’ISRF pour le Conseil de la recherche sur les cigares. Un document confidentiel de l’industrie du tabac le présentait comme un « manœuvrier scientifique de grande classe, qui a réussi à faire condamner les cyclamates pour le compte de l’industrie du sucre, sur la base de données fragiles ». Il a été établi par la suite que les travaux concernant le risque de cancer chez les rongeurs ne pouvaient être extrapolés à l’homme ; mais à ce moment-là, le dossier était officiellement clos. En 1977, la saccharine a aussi failli être interdite sur la base de résultats chez l’animal, qui se révéleront plus tard sans objet chez l’homme.

Entre-temps, des chercheurs avaient affirmé que des lipides du sang – le cholestérol et les triglycérides en particulier – constituaient un facteur de risque dans les maladies du cœur. **  Certaines personnes ayant beaucoup de cholestérol mais un niveau normal de triglycérides, les spécialistes de la santé leur recommandèrent d’éviter les graisses animales. D’autres, ayant un taux de cholestérol normal mais un niveau de triglycérides élevé, furent jugées « sensibles aux glucides ». Chez elles, une consommation même modérée de sucre pouvait entraîner une hausse des triglycérides. John Yudkin, le principal nutritionniste britannique, avait fait la une des médias en 1965 en expliquant que le sucre, non les graisses, était à l’origine de l’athérosclérose.

En 1967, la division recherche de la Sugar Association commença d’examiner la « vague d’accusations sur le rôle du sucre dans l’athérosclérose ». Selon une synthèse confidentielle des études financées par l’industrie réalisée en 1970, l’ISRF nouvellement créée consacrait 10 % de son budget de recherche au lien entre régime alimentaire et maladie cardiaque. Hickson exhorta les entreprises membres à mettre les résultats de cette synthèse sous le boisseau. Le travail d’un chercheur de l’université de Pennsylvanie sur la « sensibilité au glucose » inquiétait particulièrement : les dirigeants du secteur estimaient qu’il était probablement sur le point d’« établir la preuve d’effets nocifs ». Un consultant de l’ISRF recommanda aux sociétés sucrières de rechercher la vérité en commanditant une étude complète. L’organisme décida de ne pas suivre cet avis – ce qui devint une habitude. Un autre travail financé par l’ISRF et mené par le biochimiste Walter Pover, de l’université anglaise de Birmingham, avait identifié un mécanisme capable d’expliquer comment le sucre augmente le niveau des triglycérides. Pover pensait être sur le point d’en obtenir la preuve ; il lui fallait encore dix-huit semaines de travail pour aboutir. Au lieu de fournir les fonds, l’ISRF anéantit le projet, jugeant sa valeur « nulle ».

L’industrie a suivi une stratégie similaire sur la question du diabète. En 1973, le rapport entre le sucre, le diabète et la maladie cardiaque était devenu suffisamment troublant pour que le sénateur démocrate George McGovern organise une audition de son Comité sur la nutrition. (6) Un groupe d’experts internationaux, dont Yudkin et Walter Mertz, directeur de l’Institut de nutrition humaine au ministère américain de l’Agriculture (USDA), y ont soutenu que les différences entre les populations en matière de consommation de sucre étaient la meilleure explication des différences d’incidence du diabète. Les recherches menées par l’USDA et d’autres montraient que l’excès de sucre entraînait une forte augmentation de la maladie. L’un des experts, le Sud-Africain George Campbell, avança qu’une consommation supérieure à 35 kilos par personne et par an – à peu près la moitié de ce qui est vendu aujourd’hui aux États-Unis – suffisait à déclencher une épidémie.

 

Confronté à ces mauvaises nouvelles émanant de scientifiques indépendants, l’ISRF organisa son propre colloque, consacré exclusivement aux travaux des chercheurs sceptiques sur le lien entre sucre et diabète. « Tous les participants se sont accordés à dire que bien des travaux restaient nécessaires avant de pouvoir parvenir à une conclusion solide », rapporte un compte rendu publié dans une revue de diabétologie. En 1975, la fondation se réunit à nouveau à Montréal pour discuter des priorités de la recherche avec ses consultants scientifiques. Les ventes chutent, rappela alors Tatem devant les ténors de l’industrie, en grande partie à cause de « l’impact des défenseurs des consommateurs qui établissent un lien entre le sucre et certaines maladies ».

À la suite de ce conclave, l’ISRF diffusa un document citant un spécialiste du diabète à l’université de Toronto, Errol Marliss, qui recommandait de monter des « programmes de recherche bien conçus » pour établir le rôle du sucre dans le diabète et d’autres maladies. « De tels programmes pourraient révéler que le glucose est mauvais pour certains individus », prévenait-il. Mais les études « doivent être entreprises de manière suffisamment vaste et complète pour produire des résultats. Pour aboutir à des résultats crédibles, un simple geste ne remplacera pas un financement massif ».

Un geste, c’est pourtant bien ce que l’industrie allait faire. Au lieu d’approuver un dispositif sérieux destiné à examiner les liens supposés entre le sucre et la maladie, les firmes cessèrent de financer les projets de l’ISRF. À la place, et par l’entremise de la Sugar Association elle-même, elles consacrèrent environ 655 000 dollars entre 1975 et 1980 à dix-sept études destinées, comme le disent des documents internes, « à s’assurer que la recherche restera un soutien essentiel à la défense de l’industrie ». Chaque proposition d’étude était examinée par un comité de scientifiques proches du secteur puis par un second comité comprenant des représentants des entreprises sucrières et des « membres contributeurs aux recherches » comme Coca-Cola, Hershey’s, General Mills et Nabisco. L’essentiel de l’argent alla aux scientifiques dont les projets paraissaient explicitement conçus pour exonérer le sucre de toute responsabilité. L’un d’eux proposait même d’explorer la question de savoir si celui-ci pouvait stimuler le niveau de sérotonine dans le cerveau de rats, pour ainsi « démontrer sa valeur thérapeutique dans le traitement de la dépression ».
Ces études avaient, au mieux, valeur de cache-sexe. Professeur à la Harvard Medical School, Ronald Arky a ainsi reçu de l’argent de la Sugar Association pour déterminer si le glucose a un effet différent sur la glycémie et d’autres indicateurs du diabète quand il est absorbé avec des glucides complexes d’origine végétale comme la pectine et le psyllium. Le projet ne déboucha sur rien. Mais la Sugar Association « ne s’en souciait guère ».

Le cholestérol, coupable idéal

En bref, plutôt que de chercher la vérité, bonne ou mauvaise, sur son produit, l’organisme s’en tint à un plan de communication conçu pour « montrer, à destination du plus grand public – tout le monde ou presque en consomme –, l’innocuité du sucre ». L’une de ses premières initiatives fut de créer un Conseil consultatif des aliments et de la nutrition, composé d’une demi-douzaine de médecins et de deux dentistes disposés à défendre l’idée que le sucre a sa place dans un régime alimentaire sain, en lui réservant 60 000 dollars de budget par an (plus de 220 000 dollars actuels).

Une idée jouait en faveur de l’industrie : la conviction de plus en plus répandue que le cholestérol et les graisses alimentaires, en particulier les graisses saturées, étaient la raison probable de la maladie cardiaque. Tatem laissa même entendre, dans une lettre au New York Times Magazine en juin 1976, que certains « critiques du sucre » étaient surtout motivés par le désir de « détourner l’attention des graisses saturées ». Cette thèse était l’œuvre du nutritionniste Ancel Keys, dont le laboratoire à l’université du Minnesota avait reçu des financements de l’industrie sucrière dès 1944. Des années 1950 aux années 1980, Keys est resté le défenseur le plus véhément de la théorie du rôle des matières grasses, s’opposant souvent publiquement à Yudkin, le promoteur le plus en vue de la théorie du rôle du sucre : les deux hommes « se haïssaient passablement », se souvient l’un des collaborateurs du second.

Quand la Sugar Association eut besoin d’un expert en maladies cardio-vasculaires pour son Conseil consultatif, elle s’adressa donc à Francisco Grande, l’un des plus proches collègues de Keys à l’université du Minnesota. Elle recruta aussi le nutritionniste William Connor, de l’université de l’Oregon, l’un des principaux défenseurs de l’idée que le cholestérol alimentaire est à l’origine de la maladie cardiaque. L’industrie prit comme principal expert du diabète Edwin Bierman, de l’université de Washington, pour qui les diabétiques ne devaient pas trop s’inquiéter de leur consommation de sucre tant qu’ils gardaient un poids acceptable en brûlant les calories qu’ils absorbaient. Bierman affichait également une foi apparemment inconditionnelle dans l’idée que ce sont les graisses alimentaires – et le fait d’être gros – qui engendrent la maladie cardiaque, le sucre n’ayant aucun effet significatif.

Il est difficile de surestimer l’influence de Bierman, l’homme qui a écarté le débat sur le diabète de la question du sucre. Il a joué le premier rôle pour convaincre l’Association américaine des diabétologues d’être plus tolérante sur la quantité de glucides (dont le sucre) recommandée dans le régime des malades et de presser davantage ceux-ci de diminuer leur consommation de graisses (ces patients sont particulièrement enclins à mourir de la maladie cardiaque). Bierman a aussi présenté des études financées par l’industrie dans un chapitre sur les causes potentielles du diabète qu’il a corédigé pour un rapport de la Commission nationale sur le diabète en 1976. Ce document n’a cessé d’influencer les programmes fédéraux de recherche sur la maladie jusqu’à ce jour. Certains scientifiques, reconnaissait-il, avaient « soutenu avec éloquence » l’hypothèse selon laquelle la consommation de glucides raffinés, comme le sucre, est un facteur déclencheur du diabète. Mais Bierman cita pour faire bonne mesure cinq études – deux d’entre elles étant financées par l’ISRF – dont les résultats étaient « incompatibles » avec cette hypothèse. « Le passage en revue de toutes les données expérimentales et épidémiologiques, conclut-il, incite à penser que le principal facteur alimentaire de risque est la quantité totale des calories absorbées, quelle qu’en soit la source ».

Scientifiques et lobbyistes

La cheville ouvrière du Comité consultatif s’appelait Frederick Stare, fondateur et président du département de nutrition de la Harvard School of Public Health. Stare et son équipe entretenaient de longue date des relations avec l’industrie. Selon un document interne de l’ISRF, la fondation avait financé une trentaine d’articles de son département entre 1952 et 1956 seulement. En 1960, l’équipe s’installa dans un nouveau bâtiment financé en grande partie par des dons privés, dont 1 million de dollars de General Foods.

Au début des années 1970, Stare comptait parmi les avocats les plus fiables de l’industrie. Il a témoigné devant le Congrès des bienfaits du sucre alors même que son département continuait d’aligner les financements de producteurs de sucre et de géants de l’alimentaire comme Carnation, Coca-Cola, Gerber, Kellogg et Oscar Meyer. Son nom apparaît aussi sur des documents de l’industrie du tabac, montrant qu’il a obtenu de celle-ci des fonds pour une étude destinée à exonérer les cigarettes de toute responsabilité dans la maladie cardiaque.

La première initiative du Conseil consultatif fut de réaliser un livre blanc de 88 pages, intitulé « Le sucre dans l’alimentation humaine » et publié en 1975. Coordonné par Stare, l’ouvrage prétendait « agencer les faits scientifiques concernant le sucre ». Cette compilation de données historiques et d’arguments pouvait être exploitée par les entreprises du secteur pour combattre les affirmations de Yudkin, mais aussi d’un collègue de Stare à Harvard, Jean Mayer (7), et d’autres chercheurs que Tatem appelait les « ennemis du sucre ». Diffusé à 25 000 exemplaires, le livre blanc fut envoyé aux journalistes, accompagné d’un communiqué de presse intitulé : « Les scientifiques dissipent les craintes sur le sucre. » Le texte négligeait de mentionner qu’il était financé par l’industrie, mais des documents internes le confirment.

La Sugar Association comptait aussi sur Stare pour diffuser son message auprès du grand public. « Placez le Dr. Stare dans une émission de télévision du matin » et « Faites une interview de trois minutes trente avec le Dr Stare pour 200 stations de radio », peut-on lire dans des comptes rendus des réunions de l’association. Ainsi que l’expliquent des documents internes, utiliser Stare comme médiateur aiderait l’association à « se faire des amis dans les médias audiovisuels » tout en « laissant l’industrie du sucre à l’arrière-plan ». Quand les conflits d’intérêts de Stare furent finalement révélés, dans un rapport intitulé « Professeurs la main dans le sac » et réalisé en 1976 par le Centre pour la science au service du public, le secteur n’avait plus besoin de lui. L’industrie pouvait désormais s’appuyer sur un document de la Food and Drug Administration.

 

Au moment où Stare et ses collègues peaufinaient « Le sucre dans l’alimentation humaine », la FDA lançait sa première analyse pour savoir si le sucre était, selon la formule du jargon officiel, « généralement reconnu comme sans danger » (GRAS : generally recognized as safe). Cela faisait partie d’une requête formulée par l’administration Nixon auprès de l’agence concernant la sécurité des additifs alimentaires. La FDA avait sous-traité la chose auprès de la Fédération des sociétés américaines de biologie expérimentale. Lesquelles avaient créé un comité de onze membres pour passer au crible des centaines d’additifs allant de la gomme arabique au sulfate de zinc. Bien que la mission du comité GRAS fût de réaliser des synthèses objectives de l’état de la science pour chaque substance, il était dirigé par le biochimiste George W. Irving Jr., qui avait occupé pendant deux ans la direction scientifique de l’ISRF. Des documents internes montrent qu’un autre membre du comité, Samuel Fomon, avait reçu des financements de l’industrie au cours de trois des cinq années précédentes.

Les instructions de la FDA étaient claires : pour étiqueter une substance comme présentant un risque sanitaire potentiel, il fallait posséder « des données crédibles ou des raisons sérieuses de soupçonner des effets biologiques négatifs » – ce qui était indubitablement le cas du sucre à l’époque. Mais le rapport du comité s’appuya dans une large mesure sur « Le sucre dans l’alimentation humaine » et d’autres travaux des mêmes auteurs. Dans le chapitre consacré à la maladie cardiaque, les membres du comité citaient quatorze études aux résultats « contradictoires ». Mais onze d’entre elles étaient clairement liées à l’industrie : l’une était un chapitre du document « Le sucre dans l’alimentation humaine » rédigé par Francisco Grande, cinq venaient du laboratoire de Grande et cinq autres avaient bénéficié des subsides de l’industrie.

Le sucre sans risque

La partie du rapport consacrée au diabète faisait état de travaux indiquant que « la consommation de glucose peut se traduire à long terme par un changement fonctionnel dans la faculté de métaboliser les glucides et conduire de ce fait à un diabète » – mais poursuivait en citant cinq études contredisant cette thèse. Toutes les cinq étaient liées à l’industrie et trois signées Ed Bierman – dont le chapitre qu’il avait écrit pour « Le sucre dans l’alimentation humaine ».

En janvier 1976, le comité GRAS publia ses conclusions préliminaires : bien que le sucre contribue probablement à la carie dentaire, il ne constitue pas un « risque pour le grand public ». Ce document qualifiait le lien avec le diabète d’« indirect » seulement et jugeait « plus qu’incertain » le lien avec la maladie cardio-vasculaire, l’embonpoint jouant un rôle plus important. En dehors du risque de caries, le seul avertissement tenait à cette remarque : nul ne savait ce qui se passerait si la consommation de sucre augmentait substantiellement. Le comité remercia la Sugar Association pour avoir communiqué « informations et données » – et Tatem fit plus tard observer que s’il était « fier de ces remerciements […] l’industrie s’en serait volontiers passée ».

 

Le point de vue du comité était partagé par de nombreux chercheurs, mais certainement pas tous. Lors d’une audition publique sur le rapport encore à l’état de projet, des scientifiques du Laboratoire de nutrition chargé des glucides au ministère de l’Agriculture présentèrent ce qu’ils considéraient comme des « preuves convaincantes que le glucose est l’un des facteurs alimentaires de l’obésité, du diabète et des maladies cardio-vasculaires ». Comme ils l’expliquèrent ensuite dans l’American Journal of Clinical Nutrition, une partie non négligeable de la population – peut-être 15 millions d’Américains à l’époque – ne pouvait manifestement tolérer un régime riche en glucides. La consommation de sucre, affirmaient-ils, devait baisser au « minimum de 60 % » et les autorités lancer une campagne nationale « pour informer le grand public des dangers d’une consommation excessive ». Mais le comité s’en tint à ses positions dans la version finale, présentée à la FDA en octobre 1976.

Pour l’industrie, ce rapport avait valeur d’évangile. Ses conclusions « doivent être mémorisées » par le personnel de toute entreprise impliquée, déclara Tatem devant ses troupes. Le document « devra rester central sur la longue durée, et soyez sûrs que nous allons favoriser sa diffusion aux quatre coins du pays ».

L’Association conçut rapidement une publicité pour les quotidiens et les magazines, qui proclamait : « Le sucre est sans danger ! » Avant de préciser : il « ne cause pas de maladies conduisant à la mort, et aucune donnée scientifique sérieuse n’indique que le sucre provoque le diabète, la maladie cardiaque ou toute autre pathologie […]. La prochaine fois que vous entendez un militant attaquer le sucre, méfiez-vous de l’arnaque. N’oubliez pas qu’il ne peut étayer son accusation. Demandez-vous ce qu’il essaie de promouvoir ou ce qu’il cherche à dissimuler. Si vous en avez l’occasion, interrogez-le sur le rapport GRAS. Il y a toutes les chances que vous ne receviez pas de réponse. Rien ne pique plus au vif un nutritionniste menteur que les faits scientifiques ».

Études sponsorisées par l’industrie

L’Association allait bientôt avoir l’occasion de tester l’efficacité du rapport. En 1977, le comité de McGovern sur la nutrition – celui qui avait organisé en 1973 les auditions sur le sucre et le diabète – prit l’industrie par surprise en publiant un document intitulé « Objectifs alimentaires pour les États-Unis », qui recommandait aux Américains de diminuer leur consommation de sucre de 40 %. L’association « pilonna » le rapport McGovern en utilisant la synthèse du GRAS comme « notre bible scientifique », selon l’expression utilisée par Tatem auprès des dirigeants du secteur.

McGovern tint bon, mais le lobby du sucre finit par gagner la partie. En 1980, quand l’USDA publia ses premières recommandations nutritionnelles, il s’appuya principalement sur une analyse rédigée pour la Société américaine de nutrition clinique par… ce bon vieux Bierman, qui exploita les conclusions du comité GRAS pour pousser les siennes propres. « Contrairement à une opinion répandue, un excès de sucre ne semble pas causer le diabète », estimaient les recommandations de l’USDA. Elles poursuivaient en conseillant d’« éviter de consommer trop de sucre », sans se soucier d’expliquer ce que cela voulait dire.

En 1982, la FDA s’empara à nouveau de la conclusion du comité GRAS sur la non-dangerosité du sucre, en proposant de la rendre officielle. L’annonce provoqua un essaim de critiques, obligeant l’agence à rouvrir le dossier. Quatre ans plus tard, une commission, s’appuyant à nouveau sur des études sponsorisées par l’industrie, jugea qu’« il n’existait pas de données concluantes […] sur l’existence d’un risque pour le grand public quand les sucres sont consommés au niveau actuel ». Walter Glinsmann, le principal responsable de la commission, devint par la suite consultant pour le syndicat des raffineurs de maïs, qui représente les producteurs du sirop de maïs, à haute teneur en fructose.

Entre-temps, l’USDA avait mis à jour ses recommandations alimentaires. Fred Stare faisant désormais partie du comité consultatif, les directives de 1985 réitéraient les vagues injonctions de l’édition précédente – « éviter l’excès de sucre » – mais affirmaient sans ambages qu’« une alimentation trop sucrée ne cause pas le diabète ». À l’époque, le Laboratoire de nutrition sur les glucides du même USDA continuait pourtant à publier des preuves du contraire et défendait l’idée que « même un faible niveau de consommation de glucose » pouvait contribuer à la maladie cardiaque chez 10 % des Américains.

Au début des années 1990, l’USDA avait cessé toute recherche sur les effets du sucre et la position de la FDA était devenue la norme, qui allait influencer l’espace d’une génération entière les publications scientifiques majeures sur l’alimentation et la santé. Des rapports du ministère de la Santé et de l’Académie des sciences répétèrent la litanie selon laquelle les données liant sucre et maladie chronique n’étaient pas concluantes, confondant « non concluantes » avec « non existantes ». Ils ne mentionnaient même pas la mise en garde des analystes de la FDA, qui avaient jugé les sucres ajoutés par l’industrie sans danger au niveau « actuel » de la consommation – en 1986. Mais le niveau estimé par la FDA était inférieur de 43 % à celui estimé par l’USDA. En 1999, l’Américain moyen consommait plus du double de la dose jugée sans risque par la FDA (le niveau est redescendu de 13 % depuis).

Priée de commenter certains des documents évoqués dans le présent article, une porte-parole de la Sugar Association nous a répondu qu’ils sont « de nature historique et ne reflètent pas nécessairement la mission ou fonction actuelle » de l’organisme. Mais il est assez clair que l’industrie continue de manœuvrer en coulisses pour que les pouvoirs publics ne fixent jamais de limite à la quantité de sucre que les Américains peuvent consommer sans risque. Les auteurs des recommandations alimentaires 2010 de l’USDA citent par exemple deux synthèses de la littérature scientifique montrant que les sodas ne sont pas une cause d’obésité chez les adultes. La première était rédigée par Sigrid Gibson, une consultante en nutrition qui compte parmi ses clients le Sugar Bureau – l’équivalent britannique de la Sugar Association – et la World Sugar Research Organization – l’ex-ISRF. La seconde étude était signée Carrie Ruxton, qui avait dirigé le pôle recherche du Sugar Bureau de 1995 à 2000.

La Sugar Association a aussi infiltré les instances gouvernementales responsables de la rédaction des recommandations alimentaires. Ainsi le Comité consultatif en charge des directives de l’USDA comprend des scientifiques favorables à ses positions. À propos de ce comité, une lettre d’information interne se vantait en 2003 de ce que l’association « avait œuvré efficacement pour aboutir à la nomination d’un nouvel expert grâce aux soutiens de tiers ».

Le sucre sur le banc des coupables

Dans les rares moments où les autorités sanitaires ont tenté de réduire la consommation de sucre, l’industrie a attaqué ouvertement. En 2003, après qu’un comité d’experts réuni par l’Organisation mondiale de la santé (OMS) eut recommandé que la quantité de sucres ajoutés dans la consommation individuelle ne représente pas plus de 10 % des calories absorbées – soit 40 % de moins que les estimations de l’USDA concernant l’Américain moyen –, le président de la Sugar Association, Andrew Briscoe, écrivit au directeur de l’OMS pour l’avertir que l’organisme « mobiliserait tous les moyens à sa disposition pour faire valoir le caractère douteux » de ce rapport et inciterait le Congrès américain à « remettre en cause le financement futur » de l’OMS. Les sénateurs Larry Craig, un républicain de l’Idaho, représentant les intérêts des betteraviers, et John Breaux, un démocrate de Louisiane, représentant les intérêts des producteurs de canne à sucre, alors coprésidents du comité du Sénat sur les édulcorants, écrivirent une lettre au secrétaire d’État à la Santé Tommy Thompson. Ils lui demandaient son « attention rapide et bienveillante » afin d’empêcher que ce rapport de l’OMS ne devienne la position officielle de l’organisation internationale. Notons que Craig avait reçu plus de 36 000 dollars de l’industrie du sucre lors de sa campagne électorale.

Les services de Thompson répondirent par une lettre de vingt-huit pages précisant « les points sur lesquels les recommandations et l’interprétation de l’état de la science par les autorités américaines diffèrent » de celles du rapport de l’OMS. Sans surprise, celle-ci n’intégra pas les conclusions de ce rapport dans ses recommandations alimentaires de 2004. (8)

Ces dernières années, le vent a recommencé à tourner en défaveur du sucre. Malgré tous les efforts de l’industrie, les scientifiques et les autorités de santé se sont mis d’accord pour considérer que le principal facteur tant de la maladie cardiaque que du diabète de type 2 était le syndrome métabolique, lequel affecte aujourd’hui, selon les autorités sanitaires, plus de 75 millions d’Américains.

Le syndrome métabolique se définit par un ensemble d’anomalies, dont une prise de poids et des taux élevés d’insuline et de triglycérides. (9) Certaines de ces anomalies avaient été associées au sucre par Yudkin et d’autres voici près de cinquante ans.

Pendant la bataille sur les recommandations 2005 de l’USDA, une lettre d’information interne de la Sugar Association décrivait ainsi sa stratégie à l’égard de ceux qui auraient la témérité de lier la consommation de sucre à la maladie chronique et à une mort prématurée : « Toute forme de dénigrement du sucre se verra opposer de vigoureux démentis publics, étayés par des travaux scientifiques allant dans le bon sens ». Maintenant que les recherches récentes ne sont plus favorables à l’industrie, que va-t-il se passer ?

« Pour l’heure, estime Lustig, ils n’ont absolument aucune raison de modifier leurs pratiques. La science est là – les problèmes médicaux et économiques créés par une excessive consommation de sucre sont clairs. Mais le secteur va se battre bec et ongles pour empêcher que cette connaissance se traduise dans les politiques publiques ».
Comme l’industrie du tabac avant elle, l’industrie du sucre pourrait bien voir inexorablement son produit dénoncé comme mortel – la recherche va finir par régler la question d’une manière ou d’une autre –, mais, comme l’industrie du tabac l’a appris de longue date, même l’inexorable peut être retardé pendant très longtemps.

 

Cet article est paru dans Mother Jones le 31 octobre 2012. Il a été traduit par Olivier Postel-Vinay.

La guillotine, une Française d’adoption

La guillotine, notre redoutable « rasoir national », n’est pas d’origine française, loin de là ! C’est ce que démontre avec humour et autorité l’écrivain journaliste anglais Stephen Clarke : dès le XIVe siècle, et sans doute avant, on utilisait déjà dans le nord de l’Angleterre le Halifax gibbet, sorte de protoguillotine assez grossière, avec des poutres de bois guidant sur le cou emprisonné du condamné un gros fer de hache lourdement lesté. Et d’autres machines à décapiter ont été signalées un peu partout : en Italie, en Irlande, en Allemagne, à Toulouse même (pour le bénéfice du duc de Montmorency, en 1632).

La guillotine n’est pas non plus l’invention du député et docteur Guillotin, de Saintes : c’est Antoine Louis, un chirurgien, qui a mis au point le procédé français à lame en biais, au détriment de nombreux veaux, cochons, et cadavres humains, et qui a cosigné – avec Louis XVI ! – le décret royal instituant la méthode en 1792 (l’engin s’est d’ailleurs appelé d’abord « la Louison »). Quant au prototype, on le doit à un Allemand fabricant de clavecins, Thomas Schmidt. Mais ce sont indéniablement les efforts du député Guillotin qui ont permis l’adoption, en 1791, de la loi généralisant l’usage de la guillotine, au motif qu’elle évitait au bourreau d’avoir, littéralement, à se salir les mains, et qu’elle était efficace, humaine et surtout égalitaire (la même mise à mort pour tous, sans considération de classe sociale ni de nature du crime). C’est donc Guillotin qui a attaché son nom à l’instrument de mort, au grand dam de ses héritiers, qui ont dû changer le leur !

Les Anglais, pour leur part, ont abandonné dès le XVIIIe siècle la décapitation, manuelle ou automatique : trop sanglante, trop grand-guignolesque, et pour tout dire trop peu british (en plus, pour les hauts personnages comme le roi Charles Ier, décapité en 1649, il fallait recoudre la tête sur le corps avant de restituer le tout à la famille). En France, au contraire, la guillotine a connu le durable succès que l’on sait. Ce n’était pourtant pas gagné d’avance. D’abord, la méthode n’était pas si humaine ni indolore que cela. La lame ne sectionnait pas toujours directement le cou, mais parfois sa base ou, au contraire, l’occiput (ce fut le cas du malheureux Louis XVI). Et des expériences montrèrent que la tête survivait séparée du corps pendant un long et certainement douloureux moment : celle fraîchement coupée de Charlotte Corday, giflée par le bourreau en punition de son sang-froid et de son mépris face à la mort, aurait ainsi pris une expression offensée !

Mais les critiques sont surtout venues du public, déçu par le côté peu spectaculaire et plutôt industriel du procédé. La première décapitation automatique, celle du bandit Pelletier en 1792, suscita force protestations chez les spectateurs habitués à des exécutions lentes et douloureuses, comme celle du régicide Damiens en 1757 (plomb fondu plus tenailles plus mutilations plus écartèlement) ; on hua Sanson, le bourreau, aux cris de : « Rendez-nous notre potence en bois, rendez-nous notre potence ! » « La machine est trop rapide, trop routinière ; il n’y a rien à voir. Il n’y a pratiquement jamais d’erreurs, pas de confusion, aucune interaction entre les protagonistes sur l’échafaud. La mort vient si vite qu’on ne la voit pas arriver », commente froidement l’anthropologue britannique Frances Larson dans le dernier livre paru sur le sujet.

Lourd reproche ! Il faut dire que la dimension spectaculaire faisait partie intégrante du châtiment ultime, pour son effet prétendument dissuasif. Mais quand, en 1900, le président Armand Fallières suspendra – temporairement – la peine de mort, les gens se répandront dans la rue en criant : « Vive la guillotine ! Vive Deibler ! » Sous la Terreur, on faisait d’ailleurs en sorte qu’un maximum de citoyens et surtout de citoyennes assistent aux exécutions, quitte à sortir les prostituées de prison pour faire la claque. Mais les « tricoteuses » (des vieilles) et les « furies » (des femmes plus jeunes) ne rechignaient pas au spectacle. Elles accueillaient les condamnés par des lazzis, commentaient avec passion leur comportement au dernier moment, et certaines éprouvaient même, disait-on, un orgasme quand tombait le couperet.

Les exécutions demeurèrent publiques en France jusqu’à la Seconde Guerre mondiale. Le grand défaut de la guillotine – sa rapidité d’exécution, si l’on ose s’exprimer ainsi – deviendra son attrait. « Durant tout le XIXe siècle, les journaux feront des gros titres sur les innovations apportées à la machine, ses performances, ses records (28 personnes en 26 minutes en 1804), comme si la décapitation était un sport », écrit Frances Larson. C’est celle, anormalement laborieuse et maladroite d’Eugen Weidmann, le 17 juin 1939 à Versailles, qui conduira le gouvernement Daladier à mettre fin aux exécutions publiques. Il faut dire que celle-ci donna lieu à une indécente débauche de voyeurisme : outre les quelque 40 000 spectateurs, repus de saucisses et éméchés, qui insultèrent le bourreau et se ruèrent pour tremper des mouchoirs dans le sang frais, il y eut aussi pléthore de photographes et même – une première et une dernière en France – deux cinéastes.

La journaliste américaine Stassa Edwards explique cette addiction française sur le site The Appendix par le fait que la guillotine posséderait, à la différence de la pendaison, une véritable dimension esthétique – oui, esthétique. Tout un art (dessins et surtout moulages, technique dans laquelle s’est illustrée Mme Tussaud et qui fit subséquemment sa fortune) s’est développé au pied de l’échafaud. Certains peintres semblent même fascinés par les têtes coupées, notamment Géricault (Têtes coupées et Tête de guillotiné, 1818-1819). Ces toiles-là seraient « des rêveries qui jouent sur la sombre présence de la guillotine dans la société française », précise encore Frances Larson, qui a étudié elle aussi cette étrange attirance ; « elles sont impitoyablement explicites, tout en exprimant si bien les résonances émotionnelles de la décapitation », que l’on peut s’interroger « sur le message ambigu de Géricault : entend-il dénoncer les horreurs de la guillotine ou bien s’en délecte-t-il ? » Quant à Walter Benjamin, dans son fameux « projet Arcades », resté inachevé, il évoque « l’obscur peintre belge » Antoine Wiertz, qui par le biais d’une expérience « magnétopathique » a souhaité pénétrer la tête d’un condamné pour connaître ses dernières « pensées et visions » : cela donne un triptyque passablement confus, surtout le dernier panneau, envahi par la dissolution brumeuse du trépas (1).

Mais c’est plus encore avec la photographie que la guillotine a eu, pendant plus d’un siècle, partie étroitement liée. « Il existe des centaines de photos de têtes coupées », s’étonne Stassa Edwards, et plus encore d’exécutions. Elle attribue cette fascination « à ce que Roland Barthes appelait “la catastrophe de la photographie” : sa capacité à montrer l’horreur d’un “futur antérieur” dont l’enjeu est la mort », et cela au terme d’un « double processus mécanique : la guillotine va trancher la tête du condamné, tandis que la photographie va préserver sa mort quelque part ». Frances Larson pousse l’argument plus loin encore : « La guillotine fonctionne comme une caméra qui fige les traits du sujet à jamais. La guillotine et la caméra sont des engins scientifiques dédiés au service de la vérité. »

Humaine, efficace, stimulante d’un point de vue artistique… C’est désormais au tour des Américains d’être sensibles aux mérites de notre guillotine. Confrontés aux horreurs et aux incongruités de leurs exécutions « non sanglantes » par injection létale, ils seraient de plus en plus nombreux à souhaiter reprendre la méthode française. L’État de Géorgie a élaboré un projet de loi en 1996 dans ce sens, et le juge fédéral Alex Kozinski a plus récemment émis une proposition identique. Une vieille rumeur qui circule toujours sur le Net voudrait d’ailleurs que les États-Unis aient déjà importé 30 000 guillotines (d’où ?). Quand les Anglo-Saxons n’exaltent pas l’art de vivre à la française, c’est notre art de donner la mort qu’ils admirent.

 

Pour l’amour du poulpe

« Si l’épouvante est un but, la pieuvre est un chef-d’œuvre », écrivait Victor Hugo dans Les Travailleurs de la mer. L’essai de Sy Montgomery peut se lire comme la réponse argumentée d’une amoureuse des poulpes au grand écrivain. Cette naturaliste américaine raconte être restée enlacée pendant plus d’une heure avec Octavia, céphalopode pensionnaire d’un aquarium de Boston. « Je caressais sa tête, ses bras, absorbée par sa présence. Elle semblait tout aussi attentive à moi. » Les pieuvres sont des animaux remarquablement expressifs. Elles peuvent manifester toute une palette d’émotions (la curiosité, l’excitation, la frustration, la colère) en changeant de couleur. Le rouge, par exemple, serait le signe d’une pieuvre enthousiaste. Le mollusque est aussi connu pour son intelligence. « Montgomery raconte de fascinantes histoires de pieuvres se servant d’outils et de pieuvres évadées de leur aquarium, qui explorent les environs et – dans un cas au moins – descendent pour ce faire un étage en rampant », lit-on dans le Times Literary Supplement. Des scientifiques ont récemment procédé au séquençage du génome d’une espèce du Pacifique. Il a révélé des gènes liés au développement neuronal que l’on croyait jusqu’alors réservés aux vertébrés.

Le musulman amoureux du christianisme

Il arrive que les situations évoluent pour le mieux. Un exemple ? Les relations entre chrétiens et musulmans en Allemagne. Malgré tous les hauts cris, toutes les inquiétudes justifiées à propos de la radicalisation islamiste ou de la vieille xénophobie allemande, le progrès est réel. Il y a plus de normalité, de sérénité et de curiosité. Le dernier témoignage en date de cette évolution nous vient de Navid Kermani. Cet écrivain et orientaliste reconnu, de culture musulmane, récent lauréat du prix de la Paix des libraires allemands, a écrit un livre sur le christianisme. Voilà quelques années, l’essai qu’il avait publié sur les images baroques de la Crucifixion avait fait quelques remous. La remise d’un prix mineur avait dû être interrompue parce qu’une poignée d’ecclésiastiques et d’hommes politiques avaient été choqués qu’un intellectuel musulman ose livrer ses réflexions sur leur religion. Il n’est pas inutile de se rappeler les détails de cet imbroglio grotesque. Car rien de tel ne s’est produit cette fois-ci, au contraire : le nouveau livre de Kermani sur les belles images du christianisme peut compter sur la curiosité et la bienveillance de nombreux lecteurs – notamment parmi les Allemands chrétiens.

Dans « Incroyable étonnement », Kermani se rapproche du christianisme. Il ne le fait pas en réfléchissant à la doctrine ou à l’histoire de cette foi, mais en examinant les images qu’elle a produites : les peintures et les sculptures de Dieu, Marie, Jésus et les saints. Les exemples sont choisis librement, n’obéissent à aucune classification traditionnelle, mais aux goûts et aux expériences personnelles de l’auteur. Kermani ne veut pas proposer une explication savante, mais rendre compte d’une manière littéraire de ses échanges avec le christianisme. Le ton qu’il emploie est à l’avenant : il ne pontifie pas, n’argumente pas à grand renfort de concepts dogmatiques, mais réfléchit sur le mode de la conversation et, malgré le plaisir qu’il prend à se laisser guider par les associations d’idées et à raconter, il reste concis, parfois presque méditatif. Certains chapitres ont été rédigés à l’origine pour des journaux ou des revues. Une telle proximité avec le journalisme réussit rarement aux livres, mais ici, elle rend la lecture accessible et agréable. On pourrait presque y voir une déclaration : il est possible d’écrire aussi de manière décomplexée et enthousiasmante sur la foi. « Incroyable étonnement » pourrait bien devenir le livre le plus populaire de Kermani.

Le contenu de cet ouvrage reste ambitieux, et il faut avouer qu’on l’ouvre avec une certaine appréhension. Qu’est-ce qu’un auteur élevé dans une religion aniconique peut bien trouver aux images chrétiennes ? En jouit-il comme d’un fruit défendu ? Non. Kermani aborde l’iconographie chrétienne avec un authentique intérêt et une sympathie revendiquée comme telle. Il veut apprendre d’elle et en attend beaucoup. La condescendance et la suspicion avec lesquelles les intellectuels allemands ont pris l’habitude de traiter les sujets religieux lui sont étrangères. On trouve au contraire chez lui une avidité féconde pour la splendeur picturale du vieux catholicisme – un sentiment que les protestants ne connaissent que trop bien.

Kermani tourne autour des images de Botticelli, Rembrandt, Lochner, Véronèse ou d’autres maîtres moins connus plutôt qu’il ne les explique. Il préfère raconter comment il les a découvertes, comment, dès le premier regard, elles lui ont parlé et à quelles interrogations elles l’ont mené. Les associations d’idées qu’elles ont déclenchées chez le musulman qu’il est sont particulièrement stimulantes. L’auteur ne se laisse pas intimider par la puissante tradition iconoclaste à l’œuvre aussi bien dans le judaïsme et le christianisme que dans l’islam. Il se sert des images comme de baguettes de sourcier, pour dégager, à travers leur sensualité, le sens profond de la foi chrétienne. Il ne tombe pas pour autant dans le piège de l’esthétisme religieux, qui, sous ses dehors raffinés, a tendance à verser trop vite dans l’antilibéralisme et le rejet de la modernité.

Ce qui l’en préserve, c’est son sens du beau dans la laideur, son intérêt pour l’inachevé, son goût pour la provocation. À ses yeux, le témoin le plus important – et de loin – du christianisme, c’est le Caravage. Ses tableaux, si époustouflants et perturbants, donnent accès aux tréfonds du christianisme. Bien entendu, Kermani reste fidèle au rejet du culte sanglant de la Passion et de la théologie du sacrifice qui lui avait valu tant de critiques lors de la parution de son essai sur les images de la Crucifixion. Mais, inspiré par le Caravage, il en acquiert une compréhension nouvelle, et appréhende même avec un autre regard le principal symbole du christianisme, si scandaleux à ses yeux : la croix.

Si le concept n’était si galvaudé, nous serions tentés de voir dans ce livre une œuvre « édifiante ». Ce genre a été inventé jadis par le piétisme allemand et les Lumières protestantes. Il s’agissait de compenser la faiblesse, la stérilité et l’étroitesse d’esprit des sermons par une forme de prêche plus libre et plus efficace, à travers des livres qui « élèvent le cœur, suscitent des pensées pieuses et incitent à faire le bien », pour citer un dictionnaire du XVIIIe siècle. On qualifiait d’« édifiants » les écrits qui encourageaient la piété en formant le goût esthétique et en développant le sens de la responsabilité morale. Le concept a hélas déchu au point de ne plus guère s’appliquer aujourd’hui qu’à la poésie kitch et artificielle de certains pasteurs. Nous aurions pourtant bien besoin d’une manifestation attrayante et ambitieuse de la formation du jugement religieux. C’est précisément ce que fait Kermani. Il lui arrive d’écrire des phrases très définitives sur l’amour, la foi et l’espoir qui pourraient tout aussi bien avoir été prononcées par un théologien chrétien. À moins que ce ne soit là un simple jeu littéraire ?

Il faut se garder d’assigner trop vite à cet auteur une position religieuse. Il est écrivain, et non représentant officiel de l’islam d’Allemagne. Mais on peut néanmoins le prendre au mot et lire son initiation à l’étonnement comme une tentative sérieuse d’imaginer un christianisme susceptible de devenir pour beaucoup une option personnelle, très au-delà des bornes des Églises, même pour un musulman.

Ce livre abolit les frontières mais en comporte une. Il se préoccupe presque exclusivement d’art prémoderne. Seuls deux exemples sont tirés de l’art contemporain, et ils ne font vraiment pas le poids. C’est un problème, parce que la manière dont les images anciennes représentent le monde nous est devenue étrangère. La signification symbolique profonde du christianisme ne nous est plus accessible qu’en perçant la matérialité des représentations de la foi. Ce n’est pas un hasard si la religiosité chrétienne est devenue dans une large mesure aniconique. Cela ne vaut pas seulement pour l’austère protestantisme, mais aussi pour le catholicisme, comme le montrent les édifices religieux modernes. Dès lors se pose une double question : la religion chrétienne est-elle encore capable de produire des images et l’art moderne est-il encore capable d’être religieux ? Nous serions tenté de répondre par la négative dans l’un et l’autre cas. Bien sûr, il pourrait exister des alternatives religieuses et esthétiques, mais elles ne sont pas discutées dans ce livre.

Kermani semble avoir conscience de ces limites. C’est ce que prouve le chapitre le plus contemporain et le plus important de son ouvrage, un chapitre qui contraste avec le reste. Il s’agit de la republication d’un ancien reportage, qui ne s’intéresse pas à une image mais à une personne réelle, le père jésuite Paolo Dall’Oglio. Ce chrétien amoureux de l’islam a refondé l’antique monastère de Deir Mar Moussa dans le désert, au nord de Damas, et l’a transformé en lieu d’espoir. Il a plaidé avec passion pour le dialogue entre les religions, dénoncé avec courage les crimes du régime de Bachar al-Assad, s’est engagé avec fermeté pour la paix. En juillet 2013, il a été enlevé par l’État islamique. On ignore ce qu’il est devenu et s’il est encore en vie. Kermani raconte l’histoire de ce martyr chrétien-musulman comme une légende de saint moderne. Elle lui inspire les phrases les plus importantes de son livre : « S’il y a quelque chose que j’admire dans le christianisme, ou peut-être devrais-je dire chez les chrétiens dont la foi m’a enlevé toutes mes objections, ce n’est pas l’art, que j’adore, mais l’amour spécifiquement chrétien. L’amour que je perçois chez de nombreux chrétiens, et en particulier chez ceux qui ont voué leur vie à Jésus (les moines et les nonnes), dépasse la tolérance qu’un homme, même sans Dieu, peut atteindre : leur amour ne fait pas de distinguo. »

 

Cet article est paru dans le Süddeutsche Zeitung le 25 août 2015. Il a été traduit par Baptiste Touverey.

Ordre de naissance, QI et personnalité

L’un des plus curieux constats des études sur le QI est la relation à l’ordre de naissance. Avant l’âge de 12 ans, les enfants nés en dernier ont en moyenne un QI supérieur à celui de leurs aînés. Après quoi la relation s’inverse, l’aîné acquérant définitivement un QI un peu plus élevé. Cette relation se retrouve dans la plupart des études. En 2007, une grande enquête norvégienne, portant sur 241 310 conscrits entre 1967 et 1976, conclut à une différence de 3 points de QI entre l’aîné et le cadet. Une nouvelle étude publiée en 2015, portant sur trois groupes différents (10 457 Allemands, 5 240 Américains et 449 Britanniques des deux sexes), confirme un léger déclin du QI entre l’aîné et le dernier-né. Les Allemands ont été testés pendant toute leur vie d’adulte, les Américains entre 29 et 35 ans et les Britanniques à 50 ans. La différence entre l’aîné et le cadet est de 1,5 point de QI. Trois points ou un point et demi de QI, c’est évidemment très peu. Et cela ne doit pas être considéré comme valant pour une fratrie donnée : il s’agit d’un résultat statistique, portant sur des grands nombres. Beaucoup de derniers-nés ont un QI supérieur à celui de l’aîné. Mais l’avantage statistique de celui-ci est pris au sérieux par les psychologues, qui en cherchent la signification (lire « L’intelligence et le génie », Books, décembre 2015). Il confirme une vieille idée de Francis Galton, le cousin de Darwin. Dernier-né d’une fratrie de neuf, Galton avait été frappé de constater que la grande majorité des scientifiques anglais étaient des aînés. Parmi les Nobel en sciences, on trouve plus d’aînés que de cadets.

Cette idée en rejoint une autre : celle que l’ordre de naissance influe sur la personnalité. Elle a été émise pour la première fois par le psychologue Alfred Adler, contemporain de Freud. Pour lui, l’aîné est plus consciencieux, le dernier-né plus extraverti et aussi plus instable sur le plan émotionnel. Cette intuition a été reprise de manière très approfondie par un historien de la biologie, l’Américain Frank Sulloway, dans un énorme livre publié en 1996 et qui a fait date. Sulloway a conduit une enquête biographique sur plus de 6 500 acteurs impliqués dans 121 événements historiques – en sciences et en politique – pour essayer de tirer au clair les facteurs qui poussent un enfant à devenir un conservateur ou un rebelle. Il a examiné le rôle de la classe sociale, de l’environnement familial, du sexe, de la personnalité et d’autres variables, et a conclu au rôle prééminent du rang de naissance. Sa conclusion : les aînés sont plus susceptibles de défendre le statu quo, les cadets d’embrasser des causes révolutionnaires.

Parmi les scientifiques ayant joué un rôle important au moment de la controverse sur le darwinisme, par exemple, entre 1859 et 1875, les derniers-nés avaient 4,6 fois plus de chances d’être prodarwiniens que les aînés. Pendant la première période de la Révolution française, la probabilité était bien plus grande de rencontrer à l’Assemblée des aînés favorables à la monarchie et des cadets dans les rangs de la gauche. Durant la seconde période, on trouvait plus d’aînés parmi les organisateurs de la Terreur, ce que Sulloway explique par leur prédilection pour l’instauration d’un ordre fondé sur la violence.

La thèse de Sulloway a donné lieu à d’interminables controverses. Problème : la grande étude publiée en 2015 à propos du QI concernait aussi l’effet de l’ordre de naissance sur la personnalité (extraversion, stabilité émotionnelle, fait d’être agréable, consciencieux ou doué d’imagination). Résultat : zéro effet ! Sulloway avait tort, concluent les auteurs.Ce n’est pas sûr, cependant, car les échantillons ne sont guère comparables : d’un côté des personnalités suffisamment fortes pour être restées dans l’histoire, de l’autre le tout-venant. Comment expliquer la différence de QI ? En tout cas pas par les gènes. La preuve, c’est que le cadet dont l’aîné est décédé a en moyenne le même score aux tests de QI que la moyenne des aînés. C’est donc l’environnement créé par le fait d’être l’aîné ou non qui joue le rôle crucial. Sulloway tirait la même conclusion à propos de la différence de personnalité. Pour lui, l’essentiel est ce qu’il appelle « la dynamique familiale ». De façon assez aventureuse, il appliquait le modèle darwinien à ce qui se passe au sein de la famille : chaque enfant est en compétition pour obtenir le maximum de ressources, affectives et autres.

Retour à Grozny

« Quoi que j’écrive, même s’il s’agit d’un conte pour enfants, il contiendra un peu de guerre. Parce que c’est l’expérience la plus forte, la plus terrible et la plus mystique que j’aie vécue », confiait Polina Jerebtsova à la radio Svoboda, à l’occasion de la parution, en août, de son nouveau livre. En 2011, celle qui se considérait comme une « Russe de Tchétchénie », faisait paraître à Moscou des extraits du journal qu’elle avait tenu, adolescente, à Grozny, pendant la deuxième guerre de Tchétchénie. (1) Victime de menaces et de harcèlement, la jeune femme dut s’exiler en Finlande. Dans les 33 nouvelles qui composent « Un fin fil d’argent », la jeune femme désormais trentenaire redevient cette « gamine de 14 ans au visage sale, avec des éclats d’obus dans les jambes, enveloppée dans des vêtements rendus lourds par le froid et l’humidité ; un petit animal agile, qui sait dormir à même la neige et renifler la nourriture dans les ruines », lit-on dans l’une des nouvelles reprises sur le site Snob. Un petit animal qui a appris à déceler ces invisibles « fils d’argent » qui déclenchent un explosif, dont la ville de Grozny était recouverte, comme un « cocon ». Sergueï Koumych salue sur le site Fontanka.ru le livre d’un témoin devenu un authentique écrivain, capable de décrire la guerre « avec une spontanéité et une inflexibilité enfantines », servies par une « écriture parfaitement maîtrisée ».

 

Graisses et sucres : une vérité qui dérange

« Il m’est venu l’impertinente et mauvaise idée d’un infarctus en fin d’année 1987 », raconte Michel Onfray dans son premier livre, Le ventre des philosophes.
Tous furent étonnés, les statistiques ne m’avaient pas prévu, on trouvait l’insolence plutôt saugrenue. Un infarctus à vingt-huit ans…
Entre deux électrocardiogrammes, une piqûre de Calciparine et une prise de sang, le destin se manifesta sous la forme d’une diététicienne aux allures d’anorexique. Austère et d’une maigreur peu avenante – signe toutefois de conscience professionnelle –, elle me fit un cours ennuyeux sur le bon usage de la nourriture pour moine du désert. La veille de l’accident cardiaque, un repas à six ou sept m’avait permis de confectionner une épaule d’agneau aux pleurotes et céleri. Et il me fallait faire mon deuil de tout cela pour me lancer à corps perdu dans le régime hypocalorique, hypoglycémiant et hypocholestérolémiant. Autant d’invitations à troquer mes livres de cuisine contre un dictionnaire de médecine ou un Vidal. Pâle et chétive, la fonctionnaire des calories me fit une conférence sur les mérites des crèmes allégées, des laits écrémés et des cuissons à l’eau. Fi des sauces pétillantes et des liaisons farineuses  ! Il fallait me convertir à l’herbe et aux légumes verts… Dans un sursaut d’héroïsme je déclarai, comme pour faire un mot avant le trépas, que le préférais mourir en mangeant du beurre qu’économiser mon existence à la margarine […]. Elle déclara m’abandonner à l’obésité – je venais de perdre sept kilos –, au cholestérol, à la mort prochaine ».

Vingt-huit ans plus tard, sans avoir cédé d’un pouce, notre homme a survécu, et se porte plutôt bien, à en juger par son énergie littéraire et médiatique. Ce qu’il ignorait, quand il opposa sa très saine résistance aux objurgations de la diététicienne, c’est que celle-ci était victime du plus impressionnant mythe médical de la seconde moitié du XXe siècle : que les graisses saturées sont dévastatrices pour le cœur. Haro sur le beurre, et tutti quanti ! Tel était, tel est encore le mantra.

Notre philosophe national ignorait aussi ce qui fait l’essentiel du présent dossier. Le mythe a été promu par des études tronquées financées dès les années 1950 par l’industrie américaine du sucre. Ces études tronquées ont été suivies d’autres du même tonneau, et un véritable dogme s’est installé. Les études contraires firent l’objet d’une omerta, les scientifiques qui se hasardaient à émettre des doutes furent voués aux gémonies et entravés dans leur carrière. Aujourd’hui encore, le dogme tient le haut du pavé en France, comme en témoignent les sites des sociétés de cardiologie. Il a pourtant volé en éclats, sous les coups de boutoir d’une série d’analyses dûment publiées dans les meilleures revues  ; et, aux États-Unis, les autorités de santé sont en train de virer de bord.

Il apparaît aussi que le lobby du sucre, non content de promouvoir cette théorie erronée, a financé tout au long de ces années des chercheurs de haut niveau, pour qu’ils apposent leur nom sur de nombreuses études prétendument scientifiques vantant les bienfaits des glucides. Le lobby s’est en réalité comporté exactement comme celui du tabac, corrompant les organismes de santé publique et abrutissant le public sous un flot de publicités mensongères. Ce faisant, il a directement contribué à l’impressionnante épidémie d’obésité et de diabète qui frappe aujourd’hui la planète tout entière.

 

Dans ce dossier :