La philo-poésie de Gilles Deleuze

« Un jour, peut-être, le siècle sera deleuzien. » Cette prophétie faite par Michel Foucault en 1969 est célèbre. Que voulait-il dire exactement ? « Je ne sais pas […], je ne lui ai jamais demandé », avouait Gilles Deleuze, qui fut longtemps son ami avant que des divergences politiques ne les éloignent l’un de l’autre. Prédisait-il que Deleuze serait reconnu comme le plus grand philosophe du XXe siècle ? Faut-il entendre l’expression « le siècle » comme désignant la société, auquel cas le sens de la phrase serait le suivant : les idées de Deleuze allaient conquérir le monde ?

Si ledit monde se limitait à l’université, Foucault aurait à coup sûr raison. Deleuze, qui s’est suicidé en 1995 lorsque les problèmes respiratoires dont il avait souffert toute sa vie étaient devenus si invalidants qu’il n’était plus à même d’écrire, est aujourd’hui l’un des philosophes les plus cités et enseignés. C’est particulièrement le cas dans les pays anglo-saxons, où il profite de l’engouement dont font l’objet les représentants de la French Theory (1).

Comme celle de Derrida, la pensée de Gilles Deleuze bénéficie toutefois, outre-Atlantique, de plus d’attention dans les départements de théorie littéraire et de cultural studies que dans les facultés de philosophie. Ses ouvrages ayant longtemps exercé l’influence la plus grande sont de surcroît ceux qu’il a rédigés en collaboration avec le psychothérapeute militant Félix Guattari. Et la lecture de son œuvre est souvent restée superficielle. C’est ce que souligne Manuel de Landa, philosophe mexicain établi à New York et titulaire d’une « chaire Gilles Deleuze » dans une université suisse : « Durant de longues années, le seul livre [de Deleuze lu dans ces endroits] a été L’Anti-Œdipe, qui se révèle être son pire livre. […] Même ceux qui en ont lu d’autres les ont traités comme les livres des autres philosophes français : ils se sont emparés du jargon (hier c’était « déconstruction », aujourd’hui « déterritorialisation ») sans réellement essayer de comprendre la pensée. »

Partout où elles se sont imposées, les idées de Deleuze ont été bien davantage paraphrasées, glosées, commentées avec admiration, invoquées de façon incantatoire et mécaniquement appliquées à toute une série de domaines, notamment artistiques, qu’étudiées en profondeur et sérieusement discutées. Une caractéristique remarquable de la littérature sur le sujet est d’ailleurs qu’elle est rédigée en « deleuzien ». La plupart des auteurs qui écrivent sur lui ne se contentent pas de reprendre à leur compte son lexique exotique (« corps sans organes », « lignes de fuite », « plan d’immanence »). Souvent, leur façon d’écrire emprunte les tournures et figures de style qui rendent reconnaissables en quelques phrases un texte de Deleuze : questions en rafales, constructions symétriques sur la base d’oppositions binaires, formules récurrentes à la troisième personne indéfinie (« on dira que », « on appellera », « on évitera de »), etc.

Deleuze se serait-il offusqué de voir sa prose ainsi imitée jusqu’au pastiche ? L’utilisation de ses idées ailleurs qu’en philosophie, en tout cas, était de nature à lui plaire. Sans cesse, il a soutenu trois thèses fortement liées. Premièrement, l’image de la pensée comme spontanément tournée vers la recherche de la vérité est inappropriée : on ne pense que lorsqu’on est obligé de le faire. Deuxièmement, la philosophie entretient un rapport nécessaire avec tout ce qui n’est pas elle. Enfin, la seule forme que peut prendre le contact entre différents domaines de l’expérience (artistique, littéraire, philosophique, scientifique, pratique, politique), ou à l’intérieur de chacun d’eux, est celle de la rencontre, une rencontre que chacun peut exploiter à sa guise, de la manière qui lui convient le mieux.

En conséquence, pour Deleuze, il ne pouvait y avoir de discussion en philosophie. Il répugnait à s’engager dans de véritables débats impliquant l’échange d’arguments – un trait qu’il partageait avec de nombreux penseurs français de sa génération (Foucault, Derrida, Serres, Lyotard). Mais de tous, c’est Deleuze qui est allé le plus loin dans cette direction. La philosophie, disait-il, est fondamentalement une activité créatrice. Elle a pour objet d’inventer et de fabriquer des concepts. Et ces concepts ne sont pas davantage justiciables d’une discussion contradictoire que les produits de la création artistique.

Une telle vision peut être confrontée à de solides objections. « Ce que je trouve remarquable chez Deleuze, écrivait ainsi Jacques Bouveresse, est sa conviction, au moins apparente, que toutes les fois qu’un philosophe prétend être en train d’inventer un nouveau concept il le fait réellement. » Bouveresse, qui déplorait de voir proposer à la philosophie le modèle des avant-gardes littéraires et artistiques, s’insurgeait contre le refus opposé par des auteurs comme Deleuze à l’idée d’un dialogue avec des contradicteurs. Il se faisait sur ce point le porte-parole de l’école analytique, animée par l’ambition de parvenir à un accord des esprits grâce à l’analyse du langage et la clarification des concepts. À l’exception du Britannique Adrian Moore, pour qui Deleuze est un immense métaphysicien et l’un des plus grands philosophes de tous les temps (2), les membres de cette école ont donc superbement ignoré l’intellectuel français.

Parmi les représentants d’autres courants, peu ont éprouvé le besoin de discuter méthodiquement ses thèses. Alain Badiou – fortement influencé par Deleuze, au sens où sa pensée s’est construite dans une large mesure en opposition à la sienne – est l’un de ceux qui l’ont fait. Le flamboyant philosophe slovène Slavoj Žižek en est un autre. Dans un ouvrage qu’il lui a consacré (3), il tente de mettre en évidence, avec un incontestable brio, certaines contradictions dans sa philosophie, en la confrontant avec les idées de ses propres maîtres à penser, Hegel et Lacan.

 

Baptisée (par lui-même ou par d’autres) philosophie de la différence, de l’immanence, de l’expression, de l’événement, ou empirisme transcendantal, la pensée de Gilles Deleuze est difficile à résumer du fait de son caractère abstrait, et de la manière dont elle met de nombreux néologismes au service des intuitions sur lesquelles elle est fondée. En outre, la terminologie qu’il emploie a constamment évolué de livre en livre : Deleuze se plaisait à créer à l’infini des nomenclatures et des systèmes de catégories, souvent conçus sur le mode d’oppositions binaires (image-temps, image-mouvement) ou ternaires (hauteur, profondeur, surface ; concept, percept, affect).

L’exposé le plus complet et systématique de sa philosophie est contenu dans ses deux maîtres livres Différence et répétition et Logique du sens (4), ainsi que dans Qu’est-ce que la philosophie ?, paru quatre avant sa mort, cosigné avec Félix Guattari mais qu’il a en réalité rédigé seul, offrant généreusement à son ami d’en partager la paternité pour l’aider à sortir de la profonde dépression dans laquelle il était tombé. De nombreux éléments de sa pensée se trouvent toutefois déjà esquissés dans les brillants ouvrages d’histoire de la philosophie qu’il a publiés au début de sa carrière. Consacrés à Hume, Nietzsche, Bergson, Spinoza, Kant et Proust (5), ces étincelants petits livres constituent la partie de son œuvre la moins contestée et, de l’avis de tous ceux qui apprécient Deleuze sans se sentir « deleuziens », la meilleure. Ils se caractérisent par leur grande clarté pédagogique et l’auteur y fait la démonstration de ses merveilleuses capacités de synthèse. Fidèle aux enseignements de l’historien de la philosophie Martial Gueroult, il s’y emploie à mettre en lumière ce qui fait l’unité profonde des systèmes philosophiques qu’il présente, allant même parfois jusqu’à y discerner plus de cohérence que leurs auteurs n’en avaient mis.

On le lui a reproché, l’accusant de projeter dans l’exposé des idées d’autres philosophes ses vues personnelles. Il le fait assurément, sans que cela n’enlève rien à l’intérêt de ces ouvrages. Sur sa manière d’aborder l’histoire de la pensée, Deleuze s’est expliqué en une formule souvent citée : « Je m’imaginais arriver dans le dos d’un auteur, et lui faire un enfant, qui serait bien le sien mais serait pourtant monstrueux. Que ce soit le sien, c’est important, parce qu’il fallait que l’auteur dise effectivement tout ce que je lui faisais dire. »

 

La troisième partie de l’œuvre de Deleuze est celle qu’il a composée avec Félix Guattari : L’Anti-Œdipe, Mille Plateaux, et un petit livre sur Kafka (6). Guattari, qui semble avoir exercé sur lui une emprise considérable, était un esprit imaginatif, mais brouillon et peu rigoureux. Deleuze, qui tenait la plume, a toujours insisté pour que soient reconnus à son ami les mérites qui lui revenaient dans le produit de leurs abondants et interminables échanges. Touffus, délibérément désorganisés, emplis de concepts opaques et caractérisés par une rhétorique politique très datée, les livres issus de leur collaboration laissent terriblement perplexe.

Le dernier volet de l’œuvre de Deleuze est représenté par ses travaux d’esthétique, plus particulièrement ses livres sur le cinéma et la peinture (7). Dans son esprit, ils n’étaient pas moins des livres de philosophie que les autres. L’auteur y considère en effet les genres artistiques moins pour eux-mêmes que pour les idées qu’il y trouve exprimées. Il les aborde donc de manière très théorique. « Le réel problème de Logique de la sensation, observe le critique Ben David à propos de cet ouvrage sur le peintre Francis Bacon, est la manière dont [Deleuze] y interprète les œuvres d’art uniquement comme des réponses à des problèmes intellectuels. » La même remarque peut être faite au sujet de ses réflexions sur le cinéma, qui s’appuient sur les idées de Bergson concernant l’image, la mémoire, le temps et le mouvement.

« Deleuze, faisait remarquer Clément Rosset, qui fut son intime durant plusieurs années, était […] extraordinairement intellectuel. Il n’avait aucune jouissance […] et toujours une manière abstraite [de] parler d’une œuvre. » On ajoutera qu’il était spontanément attiré vers des artistes souvent qualifiés d’intellectuels, parce que leurs œuvres sont davantage l’illustration d’idées que le véhicule d’émotions : en littérature, Robbe-Grillet et Claude Simon ; en musique, Berg, Boulez et Ligeti ; en peinture, Kandinsky et Pollock ; au cinéma, Godard, Resnais et Bresson.

Deleuze aimait cependant aussi passionnément la littérature américaine, dont il a parlé avec éloquence. Et il pouvait se livrer à des réflexions très judicieuses sur les gros plans de visage chez Bergman, le caractère impressionniste de certaines scènes du cinéma expressionniste de von Stroheim, les affinités profondes entre les visions du monde de Kurosawa et de Dostoïevski, ou le rôle de la musique de Nino Rota dans les films de Fellini. De manière générale, ses observations et ses analyses en matière artistique sont bien plus suggestives et pénétrantes dans les domaines qui lui étaient familiers, comme la littérature et le cinéma, que dans ceux qu’il maîtrisait mal et dont il connaissait moins bien l’histoire, comme la peinture ou la musique. Et force est de penser que leur pertinence tient moins à ses idées philosophiques qu’à sa capacité de perception.

La philosophie de Deleuze se caractérise notamment par l’usage qu’elle fait de termes scientifiques issus d’un grand nombre de disciplines : les mathématiques, plus particulièrement la topologie et l’algèbre (« multiplicité », « singularité », « limite », « série »), la physique (« champ », « potentiel », « polarité »), la géologie (« strate », « formation », « pli ») et la biologie (« métastabilité », « milieu », « membrane »). Elle lui a valu de devenir l’une des cibles du fameux pamphlet Impostures Intellectuelles d’Alan Sokal et Jean Bricmont, dans lequel ils dénonçaient l’utilisation abusive et arbitraire, par plusieurs penseurs français, de termes appartenant au vocabulaire des sciences exactes dont ils ne connaissaient visiblement pas la signification (8).

À Deleuze, ils reprochaient les considérations philosophiques qu’il tire, dans Différence et répétition, de certains problèmes liés aux fondements du calcul différentiel tels qu’ils se sont posés lors de sa création par Newton et Leibniz, en oubliant qu’ils ont été techniquement résolus par Cauchy, avec l’introduction du concept de limite. Ils l’accusent également de reprendre à son compte les erreurs de Bergson au sujet de la théorie de la relativité restreinte (que celui-ci estime par exemple valoir également pour les mouvements accélérés), et attirent l’attention sur de nombreuses pages de Qu’est-ce que la philosophie ?, qui enchaînent sans logique des affirmations dépourvues de sens ou banales sur le chaos, le quantum d’action ou le big bang.

Les défenseurs de Deleuze ont fait remarquer à juste titre que, sans être un mathématicien professionnel, il avait du calcul différentiel une connaissance plus profonde que Sokal et Bricmont ne le supposent ; qu’il s’intéressait non à la solution technique des problèmes posés par le calcul infinitésimal à ses débuts, mais à leur signification philosophique ; et qu’il était familier des travaux du philosophe des sciences Albert Lautman, dont la compétence mathématique ne pouvait être mise en doute.

 

Dans l’ensemble, cependant, il faut reconnaître que le verdict sévère de Sokal et Bricmont est justifié. Bien qu’ils soient formulés de manière maladroite et approximative, certains aperçus techniques donnés par Deleuze sont corrects. Mais le plus souvent, ce qu’il écrit n’a pas de sens au plan scientifique. C’est qu’il fait appel aux notions scientifiques non pour leur contenu mais pour ce qu’on pourrait appeler, en s’inspirant d’une formule de Maurice de Gandillac, leur valeur suggestive et poétique. Lui-même avouait d’ailleurs ne pas savoir exactement ce que sont les espaces de Riemann, dans la théorie desquels apparaît le concept de multiplicité qui est au cœur de sa philosophie.

Comment cette philosophie étrange s’est-elle développée ? Deleuze possédait une vaste culture philosophique, qui lui a permis d’aller chercher chez de nombreux penseurs des idées allant dans le sens de ses intuitions. Certains des auteurs qui l’ont influencé le plus profondément figurent au nombre de ceux auxquels il a consacré des livres. Ils s’inscrivent à ses yeux dans une même tradition de philosophie empiriste et vitaliste, qu’il opposait au rationalisme, et dont il appréciait la perspective positive et ce qu’il considérait comme la force subversive. Entre Nietzsche, Spinoza, Hume, Bergson et quelques autres comme Lucrèce, il voyait « un lien secret constitué par la critique du négatif, la culture de la joie, la haine de l’intériorité, l’extériorité des forces et des relations, la dénonciation du pouvoir ».

Ces noms n’épuisent pas la liste des auteurs auxquels il a emprunté. L’idée de l’événement comme catégorie philosophique lui vient de l’anglais Whitehead. Le concept (un peu déconcertant) de champ de conscience a-subjectif, pré-individuel et impersonnel, lui a été inspiré à la fois par l’idéaliste allemand Fichte et par Jean-Paul Sartre, un auteur envers lequel, en dépit de tout ce qui éloignait sa philosophie de l’existentialisme et de la phénoménologie, il a toujours reconnu sa dette.

D’autres traits de la pensée de Deleuze sont le produit de l’époque. Ils se manifestent avec une netteté particulière dans les livres écrits en collaboration avec Guattari et les cours qu’il a donnés à l’université de Vincennes, dont ils sont en partie issus. L’Anti-Œdipe et Mille Plateaux sont souvent décrits comme des émanations typiques de l’esprit de Mai 68. De nombreux thèmes présents dans ces livres (appel à la libération du désir, critique de la famille, du capitalisme et de l’État, identification, selon l’expression consacrée, du personnel et du politique) sont de fait le reflet de l’idéologie du temps, qu’ils ont en retour contribué à façonner.

Enfin, il y a la dimension personnelle. Une vision du monde aussi singulière, cohérente et puissante que celle de Deleuze ne voit pas le jour sans profondes racines biographiques. Bien que le fruit d’un impressionnant travail de documentation, la biographie croisée de Deleuze et Guattari par François Dosse ne contient malheureusement que peu d’informations permettant d’établir un lien entre la personnalité de l’homme et ses idées (9). On apprend que Deleuze a grandi dans une famille bourgeoise, très conservatrice et qu’il a été profondément marqué par le culte voué par ses parents à son frère aîné, mort durant la guerre dans le train qui l’emmenait vers un camp de concentration pour faits de résistance. De sa vie sentimentale, seuls l’épisode de son éphémère relation amoureuse avec Évelyne Rey et son mariage avec Fanny Grandjouan sont évoqués, dans un souci de discrétion.

Grâce notamment au long entretien filmé avec Claire Parnet qu’il a donné à la fin de sa vie (10), on sait que Deleuze s’intéressait beaucoup au sport, notamment au tennis, qu’il avait pratiqué dans sa jeunesse ; qu’il détestait les voyages, les colloques et les conférences ; qu’il a beaucoup bu d’alcool dans son existence, et que manger ne l’intéressait guère. Ses phobies alimentaires (les produits laitiers) sont célèbres, tout comme ses goûts particuliers en la matière (la cervelle, la moelle, la langue), et son refus de se couper les ongles, qu’il portait si longs qu’ils s’enroulaient en spirale à l’extrémité de ses doigts. Que tout cela révèle-t-il de l’homme ?

 

L’idée d’une explication biographique de l’origine de sa pensée aurait assurément révolté Deleuze, pour qui il était insultant de réduire la création à ce qu’il appelait avec mépris « les petites affaires privées » et les « sales petits secrets » de chacun. Mais il est difficile de renoncer à l’envie de lier sa philosophie à son tempérament. Comme le souligne Clément Rosset, Gilles Deleuze était assurément « l’homme des idées pures, de la raison pure ». Mais il était aussi de ces esprits abstraits qui entretiennent avec les idées un rapport d’une autre nature que purement intellectuelle. Chez lui, a fait très justement remarquer le philosophe José Luis Pardo lors de la cérémonie d’hommage organisée à Madrid à l’occasion du premier anniversaire de sa mort, « le conceptuel et l’affectif sont indissociables ».

Mêlant appréciations morales et jugements esthétiques, le registre dans lequel il s’exprime est souvent très émotionnel. Deleuze évoque l’attitude « effrontée » de Hegel et qualifie les procédés dont il use de « fourbes » et de « sournois ». Il stigmatise les attitudes ou les visions du monde qu’il désapprouve comme « odieuses », « immondes », « impudentes », « insolentes » ou « infâmes ». Inversement, l’enthousiasme que suscitent chez lui certaines démonstrations, ou des concepts philosophiques particulièrement abstraits, les lui font décrire à l’aide d’adjectifs et d’expressions identiques à ceux qu’il emploie pour qualifier des pages de littérature ou des œuvres d’art : « splendide », « admirable », « de toute beauté ».

La relation passionnelle, sensible et quasiment physique qu’avait Deleuze avec le monde des idées éclatait dans ses cours, dont on a heureusement conservé de nombreux films et enregistrements. Ils étaient justement réputés, et une foule compacte s’y pressait toujours. De sa voix métallique impossible à confondre, accompagnée d’une gestuelle théâtrale, feignant d’improviser mais sachant parfaitement où il allait, il se livrait alors, avec un art consommé, à un fascinant numéro de dramatisation intellectuelle, qui exerçait sur ses auditeurs un effet magnétique. Bien sûr, il y avait là beaucoup de mise en scène : Deleuze préparait très soigneusement ses leçons. Mais les joies et les tourments de l’exercice de la pensée qu’il rejouait ainsi devant eux, les étudiants ne doutaient pas qu’il les avait éprouvés avec l’étonnante intensité qu’ils observaient alors.

Aux yeux du philosophe conservateur Roger Scruton, Deleuze était un imposteur du même calibre que Lacan, et le créateur d’une « machine à non-sens » au service de l’idéologie révolutionnaire d’extrême-gauche (11). Le théoricien de la littérature marxiste britannique Terry Eagleton le perçoit de manière plus nuancée : « Il y a ceux qui considèrent Deleuze comme un génie philosophique et ceux qui dénoncent son œuvre comme un cul-de-sac politique. Il y a aussi de perverses créatures comme moi qui soutiennent simultanément ces deux positions. »

Parce que Deleuze lui-même y encourageait en établissant, par l’intermédiaire de notions comme celles de « devenir révolutionnaire », un lien explicite entre ses vues philosophiques et ses positions radicales sur la société, il est courant de juger la portée de son œuvre en termes politiques. Mais est-ce le meilleur critère ? De tous les domaines auxquels il s’est intéressé, la politique n’est assurément pas celui où son talent s’est exprimé de la manière la plus crédible et convaincante.

C’est pourtant en ces termes que certains se plaisent à interpréter la fameuse phrase de Foucault. Si le siècle peut être défini comme « deleuzien », soutient Élisabeth Roudinesco, c’est parce qu’il pourrait un jour ressembler au cauchemar d’un « fascisme ordinaire » imaginé par Deleuze. Dans le même esprit (sans toutefois citer Foucault), mais à l’opposé, Žižek dénonce les aspects de la pensée de Deleuze qui « sous des apparences de radical chic font [de lui] l’idéologue du “capitalisme numérique” contemporain ».

Mais au bout du compte, se demander en quel sens le siècle a été deleuzien, n’est-ce pas prendre un peu trop au sérieux un propos qui n’était peut-être qu’une forme de plaisanterie ironique ? Deleuze évoquait « l’humour diabolique » de Foucault. La Stanford Encyclopedia of Philosophy qualifie la remarque de « malicieuse ». Et le philosophe anglais Bernard Williams parlait de la « prédiction moqueuse » de Foucault.

Tout en éprouvant à son égard une discrète jalousie, Foucault admirait sincèrement Deleuze. On peut comprendre pourquoi. S’écartant des deux conceptions traditionnelles de la philosophie – comme recherche méthodique et argumentée de la vérité, et quête de la sagesse par le savoir –, Deleuze la pratiquait comme une espèce de poésie de l’intellect, avec une confondante virtuosité et un charme captivant. Quoi qu’on pense de cette façon de voir la philosophie, il est difficile de ne pas être impressionné par son intelligence et séduit par sa personnalité.

On peut cependant aussi, comme André Comte-Sponville, s’interroger sur l’usage qu’il a parfois fait de ses formidables capacités. À propos de Foucault, Deleuze déclarait : « Je n’aime pas les gens qui disent d’une œuvre : “jusque-là ça va, mais ensuite, c’est mauvais, quoique cela redevienne intéressant plus tard”. Il faut prendre l’œuvre toute entière, la suivre et non la juger, […] l’accepter, la recevoir toute entière. » S’agissant de la sienne, riche mais inégale, beaucoup de ceux qui aiment Deleuze sont au contraire tentés de n’en retenir que certains aspects et d’y opérer des choix.

 

Cet article a été rédigé pour Books.

Le nouveau Kapuscinski

Il y a les enfants des rues brésiliens, cette « racaille » que certains commerçants n’hésitent pas à abattre comme des chiens, parce qu’ils nuisent aux affaires. Il y a les Bédouins qui tentent de protéger leurs écoles avec des pneus contre les bulldozers israéliens. Il y a les femmes de Ciudad Juárez, au Mexique, que l’on tue en toute impunité, parce qu’elles sont des femmes, et parce qu’elles sont pauvres. Ou encore cette dénommée Marina, rescapée d’un gang au Salvador, qui « sait ce que cela signifie de poignarder un homme ». Les individus dont Artur Domosławski fait le portrait ont en commun d’être « jugés inutiles, sans valeur, des damnés », selon l’hebdomadaire polonais Polityka. Pour la presse du pays, aussi bien la méthode (le voyage au long cours et l’immersion) que les qualités d’écriture de ses « Exclus » font de Domosławski le principal héritier du maître du reportage littéraire en Pologne, Ryszard Kapuściński. Une filiation paradoxale, puisque nombre de ses compatriotes ont reproché au même Domosławski d’avoir égratigné le mythe Kapuściński dans la retentissante biographie qu’il lui a consacré (Kapuściński, le vrai et le plus que vrai, Les Arènes, 2011 (1)). La polémique semble aujourd’hui retombée. Dans un exergue publié sur le site de l’éditeur Wielka Litera, le sociologue Zygmunt Bauman estime qu’« en allant à la rencontre des exclus du monde de la consommation, Domosławski poursuit le travail inachevé de son mentor ».

 

Les zones d’ombre de la génétique

Dans la lutte darwinienne que se livrent les idées scientifiques, celle de gène tire son épingle du jeu. Elle est devenue la base de la médecine, le fondement d’une vigoureuse industrie pharmaceutique et biotechnologique. Les médias se font régulièrement l’écho d’études révélant l’existence de gènes du crime, de l’obésité, ou encore de l’intelligence, et même… de l’amour du bacon. Et nous voyons en eux le socle de notre identité. Commandez un kit de test génétique à l’entreprise américaine 23andMe, et vous recevrez un carton arborant ce message : « À la découverte de vous-mêmes ». Les partisans des CRISPR – une nouvelle méthode, d’une simplicité révolutionnaire, permettant de modifier les gènes – annoncent des bébés sur mesure, la fin des maladies, et peut-être la transformation de l’humanité en une espèce améliorée. Quand nous contrôlerons la génétique, assurent ses prosélytes, nous deviendrons maîtres de notre destin.

Et voilà que cette idée scientifique trouve un nouvel avocat de renom en la personne de Siddharta Mukherjee, oncologue et auteur de L’Empereur de toutes les maladies (1), une histoire du cancer qui lui a valu le prix Pulitzer. Son nouvel ouvrage, intitulé The Gene, est remarquable par son envergure historique, la compassion médicale dont il témoigne et, une fois de plus, l’élégance de son style. L’auteur sous-titre le livre « une histoire intime » parce qu’il nous fait revivre la façon dont il a pris conscience de sa propre hérédité et l’enquête qu’il a menée  pour lui donner sens.. Le rideau se lève donc sur Calcutta, où Mukherjee est allé rendre visite à Moni, un cousin du côté de son père, que les médecins estiment atteint de schizophrénie. Mukherjee avait aussi deux oncles souffrant de « divers égarements de l’esprit ». Quand on lui demande quel nom désigne en bengali ce genre de maladie héréditaire, le père de l’auteur répond : « abheder dosh », une « défaillance de l’identité ». La schizophrénie devient ainsi la troublante pierre de touche du livre. Mais les interludes indiens se glissent dans un récit somme toute très conventionnel et triomphaliste des progrès de la génétique occidentale, écrit du point de vue des vainqueurs : c’est l’histoire de l’impératrice de toutes les molécules.

En 1931, l’historien britannique Herbert Butterfield qualifia ce type d’approche d’« interprétation whig de l’histoire ». Selon lui, la plupart de ses collègues étaient l’incarnation du gentleman anglais du XIXe siècle (« protestant, progressiste et whig »), enclin à « diviser très vite le monde entre amis et ennemis du progrès ». Cette historiographie a ceci de dangereux qu’elle  justifie la domination de la classe dirigeante en y voyant le résultat de forces naturelles inexorables. Elle est particulièrement pernicieuse quand on écrit sur l’histoire des sciences, puisque celle-ci progressent effectivement. Quand Butterfield écrivit The Origins of Modern Science (1949), même lui produisit involontairement un modèle de ce genre.

Mukherjee nous livre ici une histoire whig du gène, racontée avec verve et panache, à défaut d’exactitude. Le gène, nous dit-il, fut décrit pour la première fois par le moine augustinien Gregor Mendel, au milieu du XIXe siècle. Hélas, personne ne s’en aperçut, pas même le grand Charles Darwin ! « Si Darwin avait seulement lu » la référence à Mendel qui se trouvait dans un des livres de sa propre bibliothèque, écrit Mukherjee, cela « aurait pu lui offrir l’éclairage critique pour comprendre sa propre théorie de l’évolution ». Le « chaînon manquant » à l’époque de Darwin, poursuit-il, était « l’information », au sens de l’information génétique ou héréditaire.

Et quand le récit de Mukherjee entre dans le XXe siècle, ce chaînon manque encore. Aux yeux de Phoebus Levene, du Rockefeller Institute, la « banalité comique » de la structure de la molécule d’ADN « la disqualifiait comme porteuse de l’information génétique ». Levene traita même l’ADN de « molécule stupide ». Mais quelques décennies plus tard, la vérité allait éclater dans la même institution. En 1944, Oswald Avery, homme homme timide et binoclard, allait propulser « l’ADN, jadis la plus méprisée des molécules, sous les feux de la rampe », en montrant que c’était elle, et non une protéine, qui était le « principe transformateur » qui fait de l’inoffensive bactérie pneumococcus un germe virulent pouvant causer une pneumonie. En 1953, à la parution de leur article dans Nature, on accorda aux téméraires Watson et Crick tout le mérite d’avoir élucidé le mystère de la double hélice et réussi à décrire la structure de l’ADN. Les héroïques Rosalind Franklin et Maurice Wilkins, dont les expériences leur avaient pavé la voie, furent rejetés dans l’ombre, et leur rôle minimisé.

Au fil de la lecture, nous croisons quelques-uns des plus grands esprits scientifiques, et des plus ambitieux. Ils décryptent le code génétique et démontent le mécanisme d’horlogerie suisse grâce auquel les cellules lisent les instructions génétiques pour construire des protéines fonctionnelles. Ils développent l’ingénierie génétique dans les années 1970. Ils séquencent le génome humain dans les années 1990. Nous rencontrons aussi des méchants, comme les eugénistes – américains et allemands – qui détournèrent le savoir génétique à des fins criminelles. Mukherjee divise très vite le monde entre amis et ennemis de la Vérité scientifique.

L’antidote à cette historiographie whig est l’approche darwinienne. La grande idée de Darwin fut que, si les espèces changent bel et bien, elles ne progressent pas vers un but prédéterminé : les organismes s’adaptent aux conditions locales, avec les outils disponibles. Il en va de même pour la science. Ce qui est considéré comme un problème scientifique intéressant ou soluble varie selon le lieu et le temps ; la vérité d’aujourd’hui est l’hypothèse absurde de demain, et l’erreur de l’année prochaine.

Cette approche nous permet de voir que l’ADN n’était pas « la plus méprisée des molécules ». Nul ne reprochait à sa structure une « banalité comique ». Le prix Nobel fut décerné trois fois à ceux qui en avaient élucidé des aspects : en 1910 (Albrecht Kossel), en 1957 (Alexander R. Todd) et en 1962 (Watson, Crick et Wilkins). Rien n’atteste que Phoebus Levene, élève de Kossel, l’ait qualifiée de « molécule stupide », comme le prétend Mukherjee. C’est Max Delbrück qui utilisa cette formule, vers le milieu des années 1940, après qu’Oswald Avery et ses collègues eurent montré qu’il s’agissait de la molécule de l’hérédité dans le pneumocoque. Principal mentor de Watson, Delbrück exprima ce scepticisme brutal afin d’inciter ses disciples à la rigueur scientifique. La  remarque sur la « molécule stupide »  doit être considérée comme un prologue à la résolution de la double hélice en 1953, non comme un obstacle ayant retardé la découverte.

Avant que Watson et Crick ne décrivent le gène comme une séquence d’ADN, représentée par une suite de lettres, telle une ligne de code informatique, des termes tels qu’information n’auraient eu aucun sens. On imaginait les gènes comme des perles enfilées sur les chromosomes. Rien n’y était « encodé » ; ils portaient simplement des caractéristiques. Le mot gène ne fut inventé qu’en 1909. Avant le tournant du XXe siècle, les Elemente de Mendel n’étaient pas perçus à la manière de réalités physiques. C’étaient de pures abstractions.

Si Mukherjee avait réellement lu la référence à Mendel présente dans la bibliothèque de Darwin, il aurait vu qu’il y est question d’hybrides et de pollinisation. Elle n’offre aucun indice sur ce qu’on devait par la suite appeler « les lois de l’hérédité selon Mendel ». De plus, Darwin comprenait parfaitement sa propre théorie : elle fait l’hypothèse que des variations héréditaires peuvent se produire, mais sans qu’il soit nécessaire de savoir d’où elles proviennent.

Cette poignée d’erreurs, choisies parmi tant d’autres, illustre un problème plus vaste. L’interprétation whig de la génétique n’est pas seulement anhistorique, elle est aussi antiscientifique. Si Copernic délogea la Terre du centre de l’univers, et si Darwin fit descendre l’humanité du pinacle du monde organique, une histoire whig du gène réintroduit une sorte de dieu dans notre explication de la nature. Elle fait de cette séquence d’ADN une essence éternelle qui attendait d’être élucidée par les humains, et non une idée vivante qui a eu des ancêtres, une évolution et une maturation, et qui finira peut-être par mourir.

Il existe un gène plus subtil, dont Mukherjee admet l’existence lorsqu’il quitte sa casquette d’historien pour endosser sa blouse blanche. Au cours des trois dernières décennies, l’essor de la génomique – de l’examen de gènes isolés, on est passé à l’analyse et à la comparaison de génomes entiers – a permis une nouvelle vision, beaucoup plus élaborée, de la façon dont notre ADN influence la maladie et le comportement. En tant que clinicien, Mukherjee saisit cette complexité. Il comprend le coût humanitaire qu’entraîne l’essentialisation du gène. « Les gènes ne peuvent pas nous dire comment classifier ou appréhender la diversité humaine, écrit-il. L’environnement, la culture, la géographie, l’histoire peuvent nous le dire. » Il a des scrupules fort justifiés face à l’hubris scientifique, qui risque de subordonner l’éthique à la technologie. Il raconte, du ton réfléchi et solennel qui convient, l’insouciance des premiers temps de la thérapie génique. Il prend soin de noter que ses rares succès furent entachés par des tragédies comme celle de Jesse Gelsinger en 1999. Lorsqu’on injecta à cet adolescent de l’Arizona souffrant d’une maladie rare un virus modifié, porteur d’un gène prétendument correcteur, cela déclencha une cascade de conséquences imprévues. Ses organes refusèrent de fonctionner et il mourut.

Mukherjee décrit avec éloquence les limites de la génétique médicale. Jusqu’ici, remarque-t-il, les scientifiques ont dressé un « catalogue à reculons » des fonctions des gènes : face à un individu présentant tel ensemble de symptômes, quelles variantes génétiques trouve-t-on en général ? Mais la génétique clinique a besoin d’un catalogue qui aille vers l’avant : « Si un enfant possède un gène mutant, quels sont les risques qu’il développe tel syndrome ? » Dans bien des cas, note-t-il, ce genre de catalogue pourrait être inaccessible. Les tests génétiques pour les maladies complexes comme la schizophrénie ou l’autisme ont peu de chances d’être très prédictifs. Comme l’a expliqué Bryna Siegel, spécialiste de l’autisme à l’université de Californie, à San Francisco, les conseillers en génétique devront peut-être dire : « Mrs Smith, voici les résultats de votre amniocentèse. Il y a un risque sur dix pour que votre enfant soit autiste, ou qu’il soit le nouveau Bill Gates. Voulez-vous avorter ? » Ironie du sort, plus nous étudions le génome, plus « le gène » recule. À l’origine, un génome était défini comme la totalité des gènes d’un organisme. Quand j’étais au lycée, dans les années 1980, les humains en possédaient 100 000 ; aujourd’hui, on reconnaît environ 20 000 gènes codant une protéine. Les autres sont modulaires, recyclés, mélangés et appariés. Ils se chevauchent et s’intercalent. Certains peuvent être lus dans un sens ou dans l’autre. Le nombre de maladies que nous savons causées par un seul gène diminue ; l’effet de la plupart des gènes sur une maladie donnée est limité. Seul 1 % environ de notre génome code pour des protéines. Le reste est la matière noire de l’ADN. Le phénomène n’est encore que partiellement compris, mais il s’agit en partie d’autorégulation du génome. Certains savants qui étudient l’ADN non codant se détachent même du gène comme élément physique. Ils y voient un « concept d’un ordre supérieur », ou un « cadre » qui change en fonction des besoins de la cellule. Le vieux génome était un ensemble linéaire d’instructions, truffé de camelote ; le nouveau génome est un corps dynamique et tridimensionnel, « un organe sensible de la cellule », comme le disait avec prescience la généticienne Barbara McClintock, en 1983. Il ne s’agit pas d’affirmer que c’est là la bonne façon de comprendre le génome, mais que la science n’est pas une marche vers la Vérité. Comme l’écrivait en 1967 John McPhee, « la science efface ce qui était vrai auparavant ». Chaque génération de savants broie les faits d’hier pour fabriquer ceux de demain.

« Il y a un certaine grandeur dans cette vision de la vie », soutenait Darwin, même si elle n’inclut aucun but, aucune intention, aucun espoir de perfection. Il y a aussi une certaine grandeur dans la vision darwinienne de la science. Le gène n’est pas un idéal platonicien. C’est une idée humaine, en changement constant, et toujours enracinée dans un lieu et une époque. Pour paraphraser Darwin, de même que notre planète a tourné selon les lois successives édictées par Copernic, Kepler et Newton, des interprétations sans fin de l’hérédité se sont développées, et continuent d’évoluer.

 

Cet article est paru dans The Atlantic en juin 2016. Il a été traduit par Laurent Bury.

La folie en héritage

Enfant, la journaliste argentine Laura Haimovichi ne pouvait prononcer le nom de son grand-père devant sa mère sans que celle-ci ne sombre dans une dépression qui pouvait durer des semaines. Ce grand-père s’appelait Aaron. Écrivain et journaliste juif, il avait émigré en Palestine dans les années 1930. C’est là, en Terre sainte, qu’aspiré par une bouffée délirante, il se découvrit un don pour les langues et commença à se prendre pour le nouveau Moïse. Le « syndrome de Jérusalem », résumaient les psychiatres de l’asile où, après son départ pour l’Argentine, Aaron Spivak fut enfermé à de multiples reprises, soumis aux électrochocs et à une lobotomie.

Il a fallu cinquante ans à Haimovichi pour affronter ce secret de famille. Dans « Le legs d’Aaron », la journaliste tente de « reconstruire la trame familiale », lit-on dans Clarín. Elle exhume lettres et photos de son aïeul pour « trouver une raison aux silences, combler les trous qui se sont creusés à mesure que le récit familial se transmettait de génération en génération ». Entre fiction, autofiction, enquête et chronique, la journaliste retrace, à travers l’histoire de sa famille, celle du judaïsme argentin au XXe siècle. « Une fresque, en miniature, de toute une collectivité, une histoire de l’exil et de l’intégration, marquée au fer rouge de la persécution. »

La démangeaison d’écrire

Quoi que nous ayons une infinité de livres qui nous donnent des préceptes pour nous apprendre l’art de bien parler, nous n’en avons presque point qui nous apprennent celui de bien faire les livres. Il est vrai qu’il faut beaucoup plus d’art pour l’éloquence. Il y faut plus de figures et de mouvements, et les raisons y doivent être plus vives et plus serrées que sur le papier. Mais comme la censure des yeux est beaucoup plus sûre et plus rigoureuse que celle des oreilles, il faut plus de conduite et un plus grand fond d’esprit pour bien écrire. Le loisir que le lecteur a de repasser et de considérer de tous côtés les choses qu’on lui présente, fait que l’on a besoin d’une plus grande solidité pour soutenir son examen et ses regards : au lieu qu’il suffit que l’orateur éblouisse un moment les yeux de ses auditeurs.

Nous serions donc fort redevables à M. Saldenus, à La Haye, de nous donner des instructions là-dessus 1. Son dessein a pourtant été plutôt de recueillir celles qu’il a trouvées dans ses lectures, que d’en produire de son chef ; et s’il y a ici du génie, il y a encore plus de travail et de savoir […].

Il commence par faire une satire très âpre contre la démangeaison d’écrire qui règne aujourd’hui. Il applique à notre temps tout ce que l’on a dit autrefois sur cette contagion qui semble avoir infecté tous les siècles. Juvénal se plaignait de « l’insatiable désir d’écrire ». M. Saldenus rapporte que Drufius a comparé les auteurs aux musiciens, que l’on ne saurait faire taire dès qu’ils ont une fois commencé ; et l’on ne saurait désavouer que l’on n’ait vu dans ces dernières années une espèce de déluge, et un débordement de livres qui menace d’inonder la République des Lettres. Il prétend que cette multitude distrait et partage trop l’esprit ; et il en est comme de l’estomac, dont l’appétit étant consumé par des mets mal apprêtés, n’a plus de goût pour ceux dont il tirerait une nourriture plus solide et plus agréable.

D’autres soutiennent que la lecture amollit le courage, et que la politesse des Belles Lettres est incompatible avec une certaine férocité nécessaire pour l’exercice des armes. C’est pourquoi les Goths, cette nation si belliqueuse, ayant dressé un bûcher pour brûler tous les livres qu’ils avaient trouvés parmi leur butin, résolurent de les conserver pour les répandre chez leurs ennemis, comme autant d’amusements qui les empêcheraient de s’endurcir aux fatigues de la guerre et du corps. À la vérité les savants accoutumés à l’ombre et au repos n’aiment pas beaucoup la poussière et le sang, et les braves du Parnasse ne passent pas pour des soldats fort redoutables. […]

L’auteur représente la retenue que l’on devrait avoir à produire [les livres]. Il remet devant les yeux Pythagore et Socrate, qui n’ont jamais rien écrit, et qui craignant les divers jugements du public, n’ont point voulu hasarder leur réputation sur le papier. Il parle d’un nommé Lazare Bonamicus fort habile homme, lequel ne voulut point se faire auteur, malgré tous les efforts d’Érasme qui le défiait au combat par cette application un peu cavalière des paroles de Jésus Christ, « Lazare, sors du tombeau ».

La cause de cette précipitation qui fait que la plupart échouent par l’impression est, selon lui, que l’on ne regarde pas le public avec assez de respect ; et qu’au lieu d’examiner si l’on travaille pour quelque fin utile, l’on ne considère que sa propre gloire et l’on n’écoute qu’un désir impatient de se distinguer. Il veut donc qu’un auteur ne paraisse qu’avec beaucoup de prudence, et qu’il se hâte lentement : c’est-à-dire, qu’après avoir repassé et médité son ouvrage avec soin, il ne s’empresse point trop de le publier, de peur que ce ne soit fait comme un avorton que la nature n’a pas eu le temps d’achever. Passons vite sur une réflexion dont nous avons la témérité de profiter si peu, et dont nous ne reconnaissons que trop la nécessité.

M. Saldenus n’approuve point que l’on désigne les personnes dans les matières odieuses et que l’on écrive en termes pleins d’amertume et de fiel. On peut bien réfuter ses adversaires par des raisons, sans les repousser par des injures, et pour ainsi dire, à coups de caillou. […]

Ne peut-on pas avoir des opinions différentes, sans que cette opposition refroidisse l’amitié ? Et sied-il bien d’être si peu endurant, que de ne pouvoir souffrir la contradiction ? S’il ne faut pas être insensible aux insultes, il est dangereux de l’être trop, et il y a de la gloire à se mettre au-dessus des injures.

Quand l’Angleterre courtisait les musulmans

Le sultan du Maroc Abu Marwan Abd al-Malik était « un bon et fervent protestant ». Ainsi le voyait, en tout cas, Edmund Hogan, distingué diplomate de Sa Majesté la reine Elizabeth Ire. L’historien Jerry Brotton rappelle l’anecdote dans un passionnant ouvrage intitulé « Cette île d’orient » : à la fin du XVIe siècle, il n’était pas rare, au sein de l’élite anglaise, de considérer l’islam et le protestantisme comme deux religions « sœurs ». Leurs adeptes n’étaient-ils pas pareillement hostiles à l’idolâtrie ? N’avaient-ils pas un ennemi commun en la personne du pape ? De là à faire des musulmans des chrétiens, il y avait certes un pas, mais que franchirent allègrement Hogan et certains de ses semblables.

Ce genre d’élan n’était pas pour autant la manifestation d’un idéal cosmopolite. Les Anglais ne se préoccupaient alors que d’une chose : leur isolement face à des puissances catholiques plus nombreuses et mieux armées. Ils craignaient en particulier l’Espagne de Philippe II (à juste titre : en 1588, le Habsbourg allait lancer son Armada contre le royaume). Car, souligne Brotton, la période Tudor ne fut pas l’âge d’or que prétend la vulgate actuelle, le moment où s’affirma l’exceptionnalisme anglais : certes, le règne d’Elisabeth Ire s’acheva en 1603 (et avec lui, la dynastie), sur une période de prospérité et de stabilité. Mais chemin faisant, la rupture avec Rome (initiée par Henri VIII et renouvelée par Elisabeth) avait engendré une forte hostilité des puissances voisines, et relégua pour un temps l’Angleterre au rang d’« État paria ».

ll fallut donc bien chercher de nouveaux débouchés et partenaires. Le pays se tourna dans deux directions : le Nouveau-Monde pour les conquêtes, et l’Orient pour les alliances. Alliances de pure circonstance, en l’espèce, puisque « de très rares Élisabéthains prirent la peine de comprendre les croyances musulmanes », comme le souligne Dan Jones dans le Sunday Times. S’ils étaient au courant du schisme survenu entre sunnites et chiites, la plupart n’en saisissaient pas le sens. La figure de Mahomet était l’objet des interprétations les plus fantaisistes : le Prophète passait au choix pour un païen, un épileptique, un alcoolique – parfois les trois. Une légende (qui avait aussi cours ailleurs en Europe) voulait qu’il ait appris à une colombe à manger des graines dans son oreille, faisant ainsi croire à des foules crédules que l’oiseau était venu lui chuchoter la vérité divine.

Les Anglais « se moquaient de ce qu’était vraiment l’islam. Ils s’intéressaient uniquement à l’usage qu’ils pouvaient en faire dans les querelles intraconfessionnelles », constate Robert Irwin dans les pages de la Literary Review. Les représentants de la reine savaient donc faire preuve d’une imagination débordante. En témoignent les propos d’Hogan sur le sultan du Maroc. Les alliances diplomatiques ne furent pourtant ni très nombreuses, ni très productives. Vue des rives de la Méditerranée, l’Angleterre était peu de chose ; un « curieux trou paumé », selon Jones. Les relations commerciales se révélèrent plus fructueuses. L’Angleterre fournissait aux puissances musulmanes le métal dont elles avaient besoin pour se fabriquer des armes contre l’Espagne (des cloches d’églises catholiques furent même fondues pour les besoins de ce commerce). En retour, elle recevait épices, sucre et salpêtre pour la poudre à canon.

Le théâtre élisabéthain porte lui aussi la trace de ce que David Shariatmadari décrit dans le Guardian comme une « riche trame d’interactions ». « Les Turcs et les Maures qui peuplent les pièces de Robert Wilson, Christopher Marlowe et William Shakespeare apparaissent tantôt comme uniformément maléfiques, tantôt comme héroïques ou agréablement ambigus, écrit le journaliste. Brotton semble dire que ces personnages s’affinèrent à mesure que le public gagnait en compréhension du monde musulman. Le sommet étant atteint avec Othello : une figure certes pas à proprement parler sympathique, mais humaine, au moins. »

Lettre d’un inconnu

En novembre 1938, depuis sa ville de Drohobycz, en Pologne, un écrivain quasi inconnu écrit une lettre à l’un des romanciers les plus admirés d’Europe. Il est juif ; en 1942, il sera abattu en pleine rue par la Gestapo ; il s’appelle Bruno Schulz. Son correspondant s’appelle Thomas Mann, lauréat du prix Nobel de littérature, qui vit alors en exil à Zurich. À cette lettre est jointe une nouvelle écrite en allemand. L’ensemble (et même la réponse probable de Mann) a été perdu, à l’instar d’une grande partie de l’œuvre de Bruno Schulz. Dans son dernier livre, Maxim Biller tente de reconstituer cette lettre. Sans grande fidélité à ce qu’elle contenait selon toute vraisemblance, estime Tim Neshitov dans la Süddeutsche Zeitung : « Bruno Schulz n’est pour Maxim Biller rien de plus qu’une marionnette. Schulz n’intéresse Biller ni en tant qu’écrivain, ni en tant que juif : il est avant tout un homme qui eut peur toute sa vie. » Mais c’est surtout le grand Thomas Mann qui en prend pour son grade. Sous la plume acide de Biller, il devient l’incarnation de la bourgeoisie bien-pensante allemande, incapable de partager sa culture avec les autres. Décapant.

Tastiness

« J’envie énormément les Inuits, ma chère Catherine. Je leur envie les 93 mots qu’ils possèdent pour nommer la glace de mer (au demeurant non comestible), quand nous ne disposons pas d’UN SEUL nom pour dire la bonté de ton dîner ! (Car la « bonté » d’un dîner, cela ne se dit pas ! Mais qu’est-ce qu’on dit, alors ?) »

D. P.

 

Tastiness, nom anglais, saveur ou goût agréable

 

Aidez-nous à trouver le prochain mot manquant.

Existe-t-il dans une langue un mot pour désigner l’incapacité de voir une autre solution quand une solution initiale s’est fixée dans votre esprit ?

 

Écrivez à

Submergés, vraiment ?

Nous voilà entrés dans « l’ère de la distraction », nous dit-on : le rythme frénétique du changement technologique rend difficile, voire impossible, de se concentrer sur des livres ou des textes complexes. Dans les universités, de nombreux enseignants prétendent que l’envahissante habitude de surfer sur Internet a tué le goût des étudiants pour la lecture soutenue et profonde. Nos facultés d’attention sont sans cesse mises au défi par l’irrésistible production et circulation de l’information, répète-t-on aussi. L’« anxiété informationnelle », la « surinformation », est considérée comme une donnée de base de la vie au XXIe siècle.

Depuis la parution en 1989 d’Information Anxiety, le best-seller signé Richard Wurman (le futur fondateur des célèbres TED talks), le lamento sur les pathologies de la surinformation est un thème récurrent du débat culturel. Nous utilisons souvent la métaphore du flot pour évoquer le torrent d’informations numériques, convaincus que si nous ne sommes pas tous en train de nous noyer, du moins sommes-nous tous submergés. Les entreprises, entend-on volontiers, sont « noyées sous les données », et faire preuve de créativité « face au déluge d’informations » est réputé difficile, sinon impossible. Ladite surcharge semble d’ailleurs ne pas inhiber seulement la créativité ; elle serait aussi responsable d’une multitude de maux divers et variés.

En phase avec la sensibilité thérapeutique des sociétés occidentales, les inquiétudes suscitées par la surinformation s’expriment souvent en termes de diagnostic médical. Le langage de la psychologie et, de plus en plus, celui des neurosciences, sont mobilisés pour légitimer l’idée que l’explosion de l’information numérique nuit à la santé et au bien-être. Le terme récemment forgé de « syndrome d’épuisement informationnel » fournit une catégorie diagnostique pour décrire l’effet d’un malaise d’ordre culturel (1). Principal symptôme, la faible capacité de concentration, conséquence, apparemment, d’une surcharge de la mémoire à court terme. Ce malaise a aussi une variante : l’« attention partielle continue », pour reprendre l’expression de David Mikics. Dans « La lecture lente dans un âge pressé », il soutient que « les enfants qui ont grandi avec le numérique sont plus enclins que les générations précédentes aux troubles de fragmentation de l’attention ». Et ajoute : « Nous avons découvert que le multitasking augmente la production de cortisol, l’hormone du stress, et celle de l’adrénaline, l’hormone de réaction au danger, ce qui peut stimuler le cerveau à l’excès, provoquant brouillard mental et confusion. »

 

encadre 6

 

Le déferlement de l’information est ainsi souvent jugé directement ou indirectement responsable de ce que nous avions auparavant coutume de décrire comme la crise existentielle dont chaque auteur peut faire l’expérience. « Ce contre quoi je lutte, c’est l’emprise du buzz, ce sentiment que quelque chose là-bas mérite mon attention, alors qu’il s’agit pour l’essentiel de points d’ancrage déconnectés les uns des autres, d’impressions rapides et fragmentées, qui ajoutent à l’angoisse de l’époque », écrit David Ulin dans « L’art disparu de la lecture ». De nombreux autres commentateurs se sont fait l’écho de ce sentiment, évoquant leur expérience personnelle. Ainsi Nicholas Carr dans Internet rend-il bête ?, un « cri du cœur » qui eut un grand retentissement, juge que son propre pouvoir de concentration a tant décliné qu’il commence « à s’égarer après une page ou deux ». Dans la même veine, l’écrivain Tim Parks évoque les efforts qu’il doit fournir pour se concentrer, et déplore « l’état de distraction constante dans lequel nous vivons et son impact sur l’énergie très particulière qu’il faut mobiliser pour venir à bout d’un gros ouvrage de fiction ».

Sans surprise, les pathologies de la sur­information représentent autant d’aubaines pour l’industrie du développement personnel. En 1989 déjà, Richard Wurman prétendait offrir « un accompagnement créatif » au lecteur en quête de remède contre l’impression d’être submergé. Des livres comme « L’esprit organisé : penser droit à l’ère de la surinformation », « La sur­information : stratégies pratiques pour survivre au bureau », « Le flou : comment distinguer le vrai du faux à l’ère de la sur­information », ou encore « Comment se concentrer : comment rester focalisé à l’âge de la surinformation pour faire votre propre succès », offrent tout à la fois le diagnostic et le traitement d’une maladie existentielle à laquelle nous sommes supposés être tous exposés (2). De fait, il se pourrait bien que notre société soit désorientée par la nécessité de gérer un excès d’information, et il se pourrait aussi que les nouvelles technologies altèrent le fonctionnement de notre cerveau.

 

Mais nos ancêtres exprimaient déjà des inquiétudes semblables et l’on ne peut se contenter d’avancer qu’ils avaient tort et que nous aurions raison. Il se passe peut-être quelque chose d’autre, qui a moins à voir avec le volume d’informations auquel nous sommes exposés qu’avec la compréhension que nous avons de nos motivations et de nos modes d’accès au savoir.

Mes recherches sur l’histoire de la lecture montrent que notre capacité à gérer et traiter le contenu du texte écrit nous préoccupe depuis l’invention même de l’écriture. Les sociétés anciennes comme la Grèce et Rome n’avaient pas besoin de gadgets numériques, ni de l’interconnexion globale, ni du Big Data pour s’inquiéter des dangers du trop-plein d’information. S’exprimant dans le Phèdre par la bouche de Socrate, Platon fut le premier à sonner l’alarme sur les risques de l’information véhiculée par le texte. Socrate est angoissé par les conséquences potentiellement dévastatrices de la nouvelle technologie de l’écriture. À la différence de la communication verbale, explique-t-il, le texte est non sélectif car il ne choisit pas son public mais « roule de tous côtés ». L’écriture ne fait pas la distinction entre les lecteurs qui peuvent comprendre et tirer profit d’un enseignement, et ceux que le texte induira en erreur ou désorientera. Socrate s’inquiète donc de ce que le discours écrit « tombe aussi bien chez ceux qui le comprennent que chez ceux pour lesquels il est sans intérêt ». Conformément aux conceptions paternalistes de son époque, Socrate considère que remettre une parcelle de savoir dans de mauvaises mains menace l’ordre social. Et que la faculté de mémoire souffrira de la confiance ainsi placée dans le texte écrit.

Mais point n’était besoin d’être un Grec ancien pour réfléchir ainsi ; un juif pensait de même. Les rabbins ont longtemps été réticents à l’idée de recueillir par écrit la Loi orale, la tradition d’interprétation scripturale devenue la Mishna, première partie du Talmud. Et cela s’est reproduit : une nouvelle génération de rabbins s’est opposée à la rédaction de l’interprétation orale de la Mishna, laquelle est ensuite devenue la deuxième partie du Talmud : la Gémara. Or leurs raisons n’étaient pas foncièrement différentes de celles de Socrate. Ils considéraient que le savoir est par nature dialectique et ne peut surgir que de la discussion vivante. Consigné par écrit, il meurt, se calcifie, et devient source d’erreur pour les générations futures. L’inquiétude de Platon venait de ses doutes sur l’aptitude des individus à distinguer le bon grain moral de l’ivraie. À l’époque déjà, la peur des effets de l’information écrite sur les manières de penser était alimentée par le sentiment qu’il y avait beaucoup trop de textes et de manuscrits en circulation. Comment repérer, face à cette abondance de choix, les textes dotés d’une autorité légitime ?

De fait, depuis l’Antiquité jusqu’à l’époque moderne, des moralistes ont mis en garde contre la lecture sans frein. Sénèque, dans une lettre à Lucilius écrite entre 63 et 65 après J.-C., estime que « la lecture de nombreux livres est une distraction » qui laisse le lecteur « faible et désorienté ». Cela rappelle la tradition rabbinique antérieure, qui désole le roi Salomon : « En plus de cela, mon fils, sois averti que faire des livres est un travail sans fin ; et que beaucoup d’étude fatigue le corps » (Ecclésiaste, 12:12). Sénèque dit aussi : « Fais un choix d’écrivains pour t’y arrêter et te nourrir de leur génie, si tu veux y puiser des souvenirs qui te soient fidèles. » La mise en garde du moraliste romain sera reprise par les manuels de savoir-vivre jusqu’à la fin de du XIXe siècle. Son invitation à se contenter d’un petit nombre d’ouvrages annonçait la tendance actuelle à imputer les désordres de la pensée et la distraction de l’esprit à l’excès d’informations. Que Sénèque ait cru que la lecture « d’une foule d’auteurs et de livres de tout genre puisse tenir du caprice et de l’inconstance », à une époque où il y avait encore bien peu de textes, suggère qu’il s’inquiétait moins de la profusion que de la capacité des hommes à tirer profit de leurs lectures.

L’idée d’« excès d’information » précéda ainsi non seulement Internet mais aussi la presse à imprimer. Ann Blair l’observe dans « Trop à connaître » : même si « l’attitude face à l’avènement de l’imprimerie fut surtout un élan d’admiration pour cette “divine invention” », beaucoup s’élevèrent aussi contre son effet déstabilisant sur la société. « Vers le milieu du XVIe siècle, poursuit-elle, les commentaires sur l’impact de l’imprimerie portaient souvent sur l’augmentation vertigineuse et cumulative du nombre de livres écrits et imprimés. »

Les réactions à l’invention de Gutenberg préfigurent en somme directement le débat actuel à propos de la surinformation. C’est alors que la métaphore du flot s’est imposée pour désigner le malaise suscité par la publication de nouvelles sources. En 1526, Érasme, l’humaniste flamand, se demande s’il existe « quelque endroit sur la Terre » qui soit « à l’abri de ces essaims de nouveaux livres ». Il se plaint du « déluge » de nouveaux ouvrages dont il déplore les effets « ridicules, offensants, stupides, impies et subversifs ». Plus d’un siècle après, l’historien huguenot français Henri Basnage de Beauval exprime en 1688 des craintes similaires, en évoquant « une espèce de déluge, un débordement de livres qui menace d’inonder la République des Lettres ».

Ce malaise tenait souvent à la conviction que l’abondance de livres compliquerait la tâche de séparer le bon du mauvais. Cette question était perçue comme un vrai défi pour l’esprit moderne. René Descartes assurait par exemple que la nécessité de consulter autant d’ouvrages pour acquérir du savoir était une utilisation inefficace de son temps. En 1600, l’écrivain anglais Barnabe Riche déplorait pour sa part qu’« un des plus grands tourments de notre époque est la multitude de livres qui pèsent tant sur le monde qu’il n’en est plus capable de digérer cette abondance de vaine matière pondue chaque jour ». L’idée que la prolifération des textes a des effets négatifs était très répandue au XVIIe siècle. Les hommes dès cette époque se jugeaient déjà saturés de textes imprimés ; lesquels, selon le critique britannique Thomas Browne, « ne sont créés que dans le but de distraire et de tromper le faible jugement des savants » (3).

C’est à peu près à ce moment que la relation entre la production de connaissances et l’anxiété informationnelle fait l’objet d’une reconnaissance explicite. En 1605, dans son traité Du progrès et de la promotion des savoirs, le philosophe et scientifique Francis Bacon déclare que « l’extension du savoir est une grande source d’affliction, et celui qui augmente son savoir augmente son anxiété ». Peut-être Bacon a-t-il eu l’intuition que les progrès de la science susciteraient autant de questions qu’ils en résoudraient.

À vrai dire, le sentiment d’être submergé par l’information apparaît quand une société ne dispose pas d’un modèle philosophique et intellectuel reconnu pour interpréter les sources. En Europe, c’est la contestation de l’autorité intellectuelle au cours des siècles suivant la Réforme qui a créé les conditions pour que la surinformation soit perçue comme un problème. Les maîtres ne savaient plus comment guider les élèves dans leurs lectures. Étudiant les pratiques professorales au début des temps modernes, Rebecca Bushnell écrit : « Plus qu’aucun autre facteur, ce fut l’étonnante prolifération du savoir et des livres eux-mêmes qui a façonné l’évolution de l’enseignement des premiers humanistes. » (4) Les maîtres humanistes s’alarment de ce que « les livres puissent susciter chez les jeunes l’impiété et le mauvais style ». Vers 1520 déjà, le pédagogue d’origine espagnole Juan Luis Vives déplorait [en latin] que « la quantité de livres soit désormais si immense » que « nombre d’étudiants sont pris de terreur et de haine de l’étude quand ils sont confrontés, dans chaque discipline, à tous ces volumes dont la lecture exige un travail infini ». Les professeurs et leurs élèves sont conscients qu’il n’est plus possible de tout lire. Avec tant de titres, diriger ou guider les choix et les activités des lecteurs relève du défi. Pour les sociétés européennes, « fondées sur la maîtrise de très anciennes traditions textuelles » tant en philosophie qu’en religion, écrit Ann Blair, « la diffusion imprimée d’opinions inédites et récemment retrouvées posait avec une nouvelle intensité le délicat problème de la réconciliation de sources d’autorité conflictuelles ».

 

Plus tard, les appréhensions nées de l’abondance de choix se traduiront souvent en inquiétudes sanitaires. Selon certains moralistes du XVIIIe siècle, l’accès à un nombre exagéré de livres crée un bouillonnement de l’esprit responsable de troubles mentaux. Un nouveau problème de cognition est associé au changement technologique, qui crée les conditions d’une « lecture perturbée », dénoncée dès 1713 dans le Guardian par son cofondateur, l’Irlandais Richard Steele, car « elle nous entraîne naturellement vers un mode de pensée confus ».

 

À la fin du XVIIe siècle, le médecin de Bristol Thomas Beddoes peste contre la distraction née de la surinformation et contre la tyrannie de « la lecture négligente et rapide », qui désoriente l’esprit. Il soutient que l’époque souffre de surcharge chronique – « toutes ces brochures et ces magazines, ces romans et ces journaux qui embrouillent l’esprit. “Avez-vous vu les journaux aujourd’hui ? Avez-vous lu cette nouvelle pièce – ce nouveau poème – cette nouvelle brochure – le dernier roman ?” – voilà tout ce qu’on entend : on ne peut plus fréquenter la bonne société sans être prêt à répondre à ces questions et à tout ce qui en découle. »

Le sentiment d’un excès d’information est éminemment subjectif. Hier comme aujourd’hui, le véritable enjeu est de donner du sens à cette information – en d’autres termes, de l’utiliser pour créer du savoir. L’expression « sur­information » renvoie à la question de la distinction entre l’essentiel et l’accessoire, exercice que tout le monde ne maîtrise pas. C’est dans le processus de sélection et d’interprétation qu’une quantité d’informations donnée cesse d’être perçue comme une calamité et peut se transformer en un savoir éclairant et reconnu.

Autrefois, la question de l’évaluation, de la sélection et de la pertinence de la connaissance était explicitement du ressort de ceux-là mêmes que l’excès d’informations concernait. De nos jours, nous hésitons à nous prononcer sur le vrai et le faux, sur la qualité de la connaissance, ce qui exacerbe notre difficulté à discerner ce qui mérite notre attention de ce qui ne la mérite pas. Tant que la passivité présidera à notre rapport au flot d’informations, l’impression de ployer sous le fardeau, l’angoisse, la distraction et la frustration seront inévitables.

La manifestation la plus inquiétante de cette passivité est la tendance croissante à s’arranger des problèmes présumés d’attention et de distraction ainsi créés. À l’université, l’idée que les étudiants ne possèdent plus la capacité de concentration suffisante pour lire des livres sérieux s’est désormais généralisée. Dans son dernier ouvrage, Sherry Turkle cite des étudiants qui disent : « Nous ne sommes pas assez forts pour résister à la technologie. »

De nombreux universitaires se sont hélas inclinés en remplaçant les livres par des polycopiés de passages clés, ou par du matériel visuel « stimulant ». « Même les étudiants qui veulent réussir s’insurgent quand ils voient une liste de lectures comprenant plus d’un livre long », écrit Turkle. Nul doute que cette résignation face à « la fragmentation de l’attention » est une réaction aux effets du syndrome de « fatigue de l’information » dans le monde universitaire.

L’anxiété informationnelle n’a guère suscité jusqu’à présent qu’une réponse technique : un effort pour améliorer la circulation et la gestion de l’information. Mais en faire surgir le sens est un acte culturel et non technique. Malheureusement, la société occidentale répugne désormais à ce travail ingrat. En témoigne l’acronyme couramment envoyé par texto : « TMI » (Too Much Info – trop d’infos). Il est souvent utilisé pour mettre en garde contre le dévoilement de détails personnels ou de sentiments inappropriés. Mais le fait même que les ambiguïtés de la vie de tous les jours soient désignées par un quantitatif abstrait (« trop de ») en dit long sur une société qui a tendance à transformer les individus en victimes passives de la surinformation.

Pour Nico Macdonald, un auteur anglais spécialiste de la culture numérique, la surcharge a un corollaire, qu’il appelle le paradigme de la « sous-charge ». Selon lui, le problème ne réside pas dans la quantité d’informations mais dans le manque d’outils conceptuels pour « filtrer, hiérarchiser, structurer l’information en lui donnant du sens ». Faute de quoi la signification de l’expérience humaine nous échappe, au point que le culte de Big Data supplante la quête des Grandes Idées.

 

Cet article est paru dans The American Interest en janvier 2016. Il a été traduit par Jean-Louis de Montesquiou.

Captologie

Les lecteurs de Books ne nous en voudront peut-être pas de chercher à capter leur attention. Les non-lecteurs ne connaissent pas (encore) leur bonheur. Sous un certain angle, la vie en société est irriguée par la recherche des moyens de capter l’attention. C’est déjà vrai des bébés. À l’adolescence puis à l’âge adulte, ne pas y parvenir est un drame, dans la vie professionnelle comme dans la vie privée. Il faut se faire anachorète pour échapper à cette ardente obligation. Certains, les plus sages sans doute, se contentent de l’attention qu’ils reçoivent du cercle de leurs proches, au travail (s’ils en ont), en famille et auprès de leurs amis. D’autres, plus ambitieux, déploient toutes sortes de moyens pour attirer le regard sur leur talent supposé ou leurs idées. La solitude, un sentiment de rejet, peuvent conduire à mettre en œuvre des moyens extrêmes – tentative de suicide, aujourd’hui suicide filmé (grâce au smartphone), massacre à l’aveugle.

Attirer l’attention est aussi ce que recherche tout groupe en quête d’influence, syndicat, lobby, mouvement citoyen. C’est la clef du succès, si éphémère soit-il. Les stratèges de Daech maîtrisent bien le sujet. La scène politique et l’économie de marché peuvent s’analyser en termes de concurrence pour l’attention.

La technologie dont le smartphone est l’aboutissement réinvente cette problématique de fond en comble. Une révolution sociétale est en cours. En quelques années, cet objet est devenu l’outil de captation d’attention le plus omniprésent et le plus efficace. Il exerce une influence profonde sur le comportement des acteurs économiques, des citoyens et particulièrement des jeunes. C’est devenu un sujet d’inquiétude. Sociologues et psychologues sont de plus en plus nombreux à alerter sur le risque de déstructuration des relations sociales, de déperdition de l’esprit critique et de perte d’intérêt pour l’effort intellectuel. L’inquiétude se concentre sur l’existence d’une dynamique addictive perverse, orchestrée par des professionnels du marketing fiers de promouvoir une nouvelle discipline : la « captologie ».