Pourquoi y a-t-il encore tant d’emplois ?

Le taux de chômage est à 3,3% au Japon, le pays le plus robotisé du monde. Il est à 6 ,4 en Allemagne, son plus bas niveau depuis vingt-quatre ans. A 5,1% aux Etats-Unis, à 4,6% au Danemark. S’il reste à plus de 10% en France, c’est clairement lié à des rigidités qui nous sont propres. Le fait que les économies les plus avancées connaissent le plein emploi met de nouveau à mal l’idée que le progrès technique menace le travail humain. « Pourquoi y a-t-il encore tant d’emplois ? » titre ironiquement David Autor, professeur au MIT, dans un article remarquable publié cet été (1). Si vraiment, comme continuent de l’annoncer certains économistes, l’automatisation des tâches menaçait le travail, pourquoi diable n’en voyons-nous pas les effets ? Avancée voici plus de deux siècles par les luddistes – et depuis plus de deux millénaires par Aristote – cette idée resurgit régulièrement comme un diable de sa boîte. Autor cite un article du magazine Time publié en 1961 : « Le nombre d’emplois perdus au profit de machines plus efficaces n’est qu’une partie du problème. Ce qui inquiète davantage nombre d’experts, c’est que l’automation empêche l’économie de créer assez de nouveaux emplois ». En 1995 Jeremy Rifkin, rentier du catastrophisme professionnel, annonçait « la fin du travail ». On retrouve cette veine aujourd’hui sous la plume d’économistes américains et européens. Dans son dernier livre, Daniel Cohen s’aligne sur le « pessimisme » d’un Robert Gordon pour affirmer : « Internet ne génère pas d’emplois (2). Allons donc ! Ce n’est pas parce que des entreprises comme Google ou Facebook « embauchent trois fois moins que n’importe quelle firme automobile » que la société numérique ne génère pas d’emplois. Si c’était vrai, nous n’aurions pas le plein emploi ! La société numérique crée des emplois par ses effets sur la majeure partie des activités économiques, en transformant le rapport au temps, en offrant de prodigieux nouveaux outils d’analyse, en délestant les créatifs et les managers de quantité de tâches ingrates, en favorisant tous les métiers qui reposent sur les qualités proprement humaines, celles auxquelles la machine n’a pas accès. David Autor donne cet exemple : la multiplication des distributeurs de billets n’a pas fait baisser le nombre des employés de banque; les simples guichetiers sont devenus ou ont été remplacés par des interlocuteurs capables d’aider les clients à réaliser des opérations plus complexes.

Gordon et Cohen jugent aussi que le progrès technique nouvelle manière explique la baisse du taux de croissance des économies développées. « Si les emplois qui survivent sont ceux que le progrès technique épargne, que devient le potentiel de croissance ? » demande Cohen. Mais bien sûr le progrès technique n’est pas le seul facteur influant sur la croissance. Si le taux de croissance est à la baisse, ne faudrait-il pas en rechercher les causes aussi du côté de l’inversion progressive du rapport entre actifs et retraités et de l’irrésistible expansion des coûts de santé ? Par ailleurs il ne faut peut-être pas se précipiter de jeter le bébé avec l’eau du bain. Le taux de croissance américain est à 3,7%, ce qui n’est pas si mal pour la première économie du monde.

Le plus frappant peut-être dans cette affaire est le désaccord entre les économistes. Un désaccord dont ils admettent eux-mêmes qu’il est étroitement corrélé à la position de chacun sur l’éventail de l’optimisme et du pessimisme. C’est un sujet d’étude pour les psychologues et les sociologues : en quoi le tempérament, avec toutes ses composantes génétiques et environnementales, influe sur les résultats de la « science ». L’un des plus jolis passages du livre de Cohen est celui où il écrit : « L’économiste David Autor le souligne avec ironie : la plupart des économistes clament, selon une enquête, que l’ “automation” n’est pas responsable du chômage, pour 63% d’entre eux, mais que pourtant 43% sont d’accord (et 30% incertains) avec l’idée que les nouvelles technologies de l’information et de la communication sont responsables de la stagnation des salaires aux Etats-Unis ». Si « la plupart » signifie 63%, cela veut dire que 37% sont d’un avis différent quant à l’impact de l’automation sur l’emploi. Pour ce qui est de l’effet sur la stagnation des salaires – encore un autre sujet–, on n’est pas loin du 50-50. C’est bien compliqué tout ça.

 

Olivier Postel-Vinay

Cet article est paru dans Libération le 9 septembre 2015.

1. Journal of Economic Perspectives, été 2015.

2. Le monde est clos et le désir infini, Albin Michel.

Une « sixième extinction » en trompe-l’œil

L’homme est-il vraiment en train de provoquer la « sixième extinction » ? La formule s’est imposée dans les médias. Elle fait le titre d’un livre rédigé par une journaliste du New Yorker, Elizabeth Kolbert (1). De fait, elle est employée par une bonne partie de la communauté scientifique travaillant sur la biodiversité. L’idée est simple. La Terre a connu cinq épisodes majeurs d’extinction des espèces. La dernière, celle qui a fait disparaître les dinosaures, remonte à 66 millions d’années. La sixième serait d’un genre inédit : due à Homo sapiens.

A première vue, ce n’est pas invraisemblable. Nous sommes de redoutables prédateurs. Au Paléolithique, nous avons peut-être détruit définitivement la mégafaune. Avec l’invention de l’agriculture, nous avons transformé l’environnement. Avec l’industrialisation, l’explosion démographique et les transports, nous avons achevé de bouleverser la plupart des écosystèmes.

Outre les amphibiens, qui « ont le triste honneur d’être reconnus comme la classe d’animaux la plus menacée du monde », écrit Kolbert, « on estime qu’un tiers de tous les coraux bâtisseurs de récifs, un tiers de tous les mollusques d’eau douce, un tiers des requins et des raies, un quart de tous les mammifères, un cinquième de tous les reptiles et un sixième de tous les oiseaux sont en voie d’extinction ». Or, « chaque fois que l’on pousse l’analyse assez loin, on finit par retomber immanquablement sur le même coupable : la fameuse “chétive espèce” de notre commencement ». D’autant que le réchauffement climatique n’annonce rien de bon . « En 2050, il aura condamné à mort un million d’espèces », clamèrent la BBC et bien d’autres médias en rendant compte d’un article publié dans Nature en 2004.

« Des études plus récentes ont donné des résultats divergents », note Kolbert. Mais dans l’ensemble, elle n’évoque pas les nombreux articles de scientifiques qui mettent en garde contre les jugements à l’emporte-pièce. Le lecteur naïf achèvera son livre avec le sentiment que le sujet fait consensus. C’est tout à fait inexact. La journaliste mentionne mais pour s’en débarrasser aussitôt l’idée soutenue par des chercheurs peu suspects de climatoscepticisme que le réchauffement global devrait tendre à accroître et non réduire la biodiversité. Autre exemple, elle reprend à son compte le point de vue qu’en raison de l’« acidification des océans » les récifs coralliens auront disparu avant la fin du siècle, et avec eux la riche biodiversité qu’ils entretiennent. Elle ne cite pas les avis contraires, comme cette méta-analyse parue en 2009, selon laquelle « il est douteux que la diversité marine sera impactée de manière significative au vu des taux d’acidification prévus pour le 21ème siècle ».

Ceux que le sujet intéresse devraient lire un article publié au printemps dernier sur l’excellent magazine en ligne Aeon (2). Son auteur est Stewart Brand, un vieux briscard de l’écologisme américain. Articles scientifiques à l’appui, il affirme : « L’idée que nous nous dirigeons vers une extinction massive n’est pas seulement fausse, c’est une recette pour la panique et la paralysie. » Le vrai problème, selon lui, n’est pas la disparition d’espèces entières, mais « le déclin des populations animales sauvages », qui porte atteinte à la santé des écosystèmes Il montre la grande incertitude dans laquelle sont en réalité les scientifiques à propos de la « sixième extinction ». Il se moque d’une synthèse récente de Nature où l’on peut lire : « la sixième extinction pourrait survenir dans deux siècles ou quelques millénaires ». Nous ne connaissons aucun exemple d’espèce marine qui se soit éteinte au cours des cinquante dernières années.

Steward Brand évoque aussi le nombre croissant de spécialistes d’écologie pour qui les efforts de conservation et de restauration menés en divers endroits du monde ont d’ores et déjà supprimé le risque d’extinction pour de nombreuses espèces. C’est en particulier le cas pour plus de 800 îles, dont la Nouvelle-Zélande. L’écologiste Stuart Pimm à l’université Duke estime que le taux d’extinction global a déjà été réduit de75%. Un autre paradoxe de la situation actuelle est que le rythme de découverte de nouvelles espèces serait trois fois supérieur au rythme d’extinction.

Steward Brand s’indigne des simplifications véhiculées par les médias. Mais ceux-ci ne sont que partiellement responsables, car les simplifications sont souvent générées et entretenues par les scientifiques eux-mêmes.

Olivier Postel-Vinay

Cet article est paru dans Libération le 2 septembre 2015.

 1. Vuibert, 2015.

2. Rethinking extinction, 21 avril 2015.

L’immigration en débats

Défiant l’Europe, la Hongrie construit un mur pour détourner de son sol le flot des migrants. A en croire les sondages, c’est le rêve de beaucoup de Français. 90% d’entre eux se disent hostiles à l’idée d’en accueillir davantage. Comme sur quelques autres sujets (la libéralisation de la marijuana, par exemple), 90% des Français se trompent. Pas simple, la démocratie.

A leur décharge, c’est un beau casse-tête. Comme sur les drogues ou encore la question de l’école, sensibilités et opinions s’opposent à tout va. Aucune solution ne semble s’imposer, même à qui prétend garder la tête froide et aspire à faire le tour des problèmes posés. Ces sujets hautement politiques ont d’autres points communs. Si l’on veut être positif, il en est de stimulants : car ces matières invitent à agiter des idées hétérodoxes. Et se prêtent à expérimentation.

En 2010, l’économiste américain Gary Becker avait proposé une « solution radicale » : que les Etats d’accueil fixent un prix du visa qui se rapproche le plus possible du jeu de l’offre et de la demande. Concernant les Etats-Unis, par exemple, un prix de 50 000 dollars apporterait 50 milliards à l’Etat fédéral, pour une entrée d’un million de personnes par an (à peu près le nombre annuel de nouveaux détenteurs de la « carte verte »). Ce serait aussi une façon de sélectionner les entrants en fonction de leurs moyens financiers, les plus riches étant souvent aussi les mieux formés. Pour les candidats jugés intéressants mais incapables de payer une telle somme, Becker proposait un dispositif d’aide de l’Etat comparable aux prêts accordés aux étudiants par les universités.

Le prix Nobel s’était fait renvoyer dans les cordes par son collègue de Columbia Jagdish Bhagwati. Celui-ci opposait des arguments qui résonnent fortement au regard de l’actualité européenne : la solution de Becker ne peut concerner les réfugiés ni par définition les immigrants illégaux ; d’autre part les pays d’émigration seraient en droit de réclamer une compensation, vu les dépenses engagées pour former les partants ; enfin cela revient à sacrifier la dimension éthique d’un problème sur l’autel de l’économie.

Mais Becker mettait le doigt sur une question fondamentale. Si on laisse de côté le cas des réfugiés politiques, qui vaut d’être traité à part, la proposition du Nobel s’inscrit dans le débat beaucoup plus général sur les avantages comparés de la prohibition et de la régulation par le prix. Où l’on retrouve la discussion sur la légalisation des drogues. Contrairement à ce qu’opposait Bhagwati, l’idée de Becker aurait un fort impact sur la forme aujourd’hui la plus vicieuse de l’immigration illégale. Si en effet le prix du visa était élevé mais inférieur à celui exigé par les passeurs, ceux-ci trouveraient moins de clients. Concernant l’Europe, il ne serait pas illogique de s’engager dans une voie de ce genre. Notre continent a en effet un besoin aigu de nouvelles forces de travail. Le ratio entre les 65 ans et plus et les 20-64 ans est en train de se rapprocher dangereusement de la barre des 50% (et devrait même la dépasser en Allemagne d’ici quinze ans). Ce n’est pas seulement par souci éthique qu’Angela Merkel conduit aujourd’hui une politique si favorable à l’immigration. Les gouvernements plus frileux comme la France et le Royaume-Uni en paieront le prix.

Des chercheurs européens, y compris en France, explorent depuis quelque temps la piste Becker, revue et corrigée. Libération en a fait état (entretien avec Emmanuelle Auriol, 21 avril dernier). Dans l’esprit de ces spécialistes, une libéralisation assortie d’un prix de visa élevé devrait s’accompagner de la mise en place d’une politique beaucoup plus répressive à l’égard des passeurs et du travail au noir. Mais surtout, comme dans le domaine scolaire, des idées de ce genre présentent l’avantage de pouvoir être testées sans lancer d’emblée un grand débat national, voué à l’échec. On peut d’une part réserver dans un premier temps ce type de mesure à un ou deux pays d’émigration en particulier, d’autre part réserver l’accueil des migrants en question à une ou deux régions candidates. On pourrait même concevoir d’en profiter pour moduler la valeur du SMIC dans ces régions, afin d’y faciliter l’insertion des immigrés, tout en faisant baisser le taux de chômage. Mais là on touche à un autre tabou !

Olivier Postel-Vinay

Ce texte est paru dans Libération le 26 août 2015.

Incertaines éoliennes

Le lobby éolien se frotte les mains : « Suite à l’adoption de la loi de transition énergétique, les professionnels de l’éolien saluent un texte qui va dans le sens d’une plus grande prise en compte de l’urgence climatique », lit-on sur le site de France Energie Eolienne. Transparaît cependant une certaine inquiétude : « des incertitudes n’ont pas été levées, notamment sur les contraintes d’implantation et l’intégration future au marché de l’électricité ». Le lobby aurait pu évoquer deux autres motifs d’inquiétude, moins connus. L’éolien est en effet loin d’être une technologie performante pour lutter contre les émissions de gaz à effet de serre. Cela finira par se savoir. Surtout, le solaire, moins efficace encore, a néanmoins des chances de l’emporter sur l’éolien.

Le problème numéro un posé par ces sources d’énergie est leur intermittence. Le rendement des centrales solaires et des fermes éoliennes dépend bien sûr de la zone où elles sont implantées, mais en moyenne l’éolien fonctionne à 25 % de sa capacité, le solaire à 15 %. Si l’on veut alimenter en continu les activités d’un pays, il faut donc compter sur les centrales classiques. Ce fait complique beaucoup la tâche de calculer le coût relatif réel des différentes technologies capables de diminuer les émissions de gaz à effet de serre. L’exercice a été mené à bien en 2014 par un économiste de la Brookings Institution, Charles R. Frank. Ses conclusions semblent aujourd’hui validées. Elles sont claires : si l’on tient compte de l’intermittence et de tous les coûts associés aux différents types de centrale, les plus efficaces sont le gaz à cycle combiné, ensuite le nucléaire, puis l’hydroélectrique. L’éolien est loin derrière, le solaires plus loin encore. Si nous vivions dans un monde rationnel, il faudrait donc privilégier systématiquement les centrales au gaz à cycle combiné (qui récupère la chaleur des fumées) et les centrales nucléaires. Rien à voir avec les objectifs affichés par la plupart des Etats engagés dans la lutte contre le réchauffement climatique, qui mettent en avant les énergies dites renouvelables et les subventionnent lourdement : 260 milliards de dollars par an.

Dans notre monde irrationnel, la compétition s’exerce donc entre l’éolien et le solaire. Or, bien que ce dernier affiche aujourd’hui la plus faible efficacité, c’est lui qui a paradoxalement les meilleurs atouts. Alors que la technologie et le coût des éoliennes a peu de chances d’évoluer de manière significative, l’industrie solaire se transforme à grande vitesse et sur plusieurs fronts. Le prix des panneaux solaires a été divisé par cinq en six ans et de nouvelles technologies rendent n’importe quelle surface créée par l’homme utilisable pour générer de l’énergie photovoltaïque (une autoroute, par exemple). Le solaire est aussi de plus en plus aisément exploitable par des particuliers ou des communautés locales. En outre, les habitants des pays riches sont devenus très sensibles aux dommages environnementaux causés par les éoliennes. Les installations photovoltaïques, elles, sont de plus en plus discrètes – et sans risque pour les oiseaux.

D’ici quelques années, Charles R. Frank sera donc peut-être amené à revoir sérieusement ses calculs, du moins pour ce qui est des énergies les moins performantes. Le solaire pourrait passer devant l’éolien – tout en restant loin derrière le gaz à cycle combiné et le nucléaire.

Cependant l’élément le moins bien intégré dans ces calculs est aussi le plus impondérable : le risque. Frank inclut dans le coût du nucléaire le démembrement des centrales, le stockage des déchets et le coût assuranciel pour un possible accident grave. Mais le risque est d’abord affaire de perception. La raison pour laquelle le nucléaire n’est pas considéré comme une technologie prioritaire pour réduire les émissions de gaz à effet de serre est qu’un tel choix de le faire aurait un coût politique jugé à tort ou à raison exorbitant. Et si l’on veut être rationnel jusqu’au bout, force est de constater que les décisions stratégiques qui sont prises ou annoncées en la matière reposent sur l’évaluation d’un risque mal évalué. Au sens scientifique du terme, il n’est pas même démontré. Peut-on vraiment exclure que l’idée d’un réchauffement de la planète provoqué par l’augmentation des émissions de gaz à effet de serre rejoigne un jour le grand musée des illusions collectives ?

Olivier Postel-Vinay

Ce texte est paru dans Libération le 29 juillet 2015.

Dans le cerveau des terroristes

« Ils se sont retourné le cerveau » commente un musulman à propos de ces jeunes Français arrêtés avant d’avoir perpétré leur attentat. Mais que se passe-t-il au juste dans le cerveau d’un jeune prêt à risquer sa vie pour tuer ? Pour les musulmans comme pour tout un chacun, le plus troublant est que la plupart ne sont pas des marginaux. Que ce soit en Europe où dans les pays musulmans, qui fournissent le gros des troupes, ils appartiennent à la classe moyenne, ont plutôt bien réussi leur scolarité et ne souffrent pas de troubles mentaux. Comme le savent les chercheurs qui travaillent sur la question depuis maintenant une dizaine d’années, ils n’ont pas non plus subi de traumatisme exceptionnel durant l’enfance. Quand ils peuvent être interrogés directement, les terroristes ou apprentis terroristes (ceux qui ont été arrêtés avant de passer à l’acte) font certes parfois remonter leur engagement à un incident de leur enfance. Comme ce Français interrogé par l’Américain Scott Atran, de l’université du Michigan : sa sœur a heurté un homme dans une rue de Paris et celui-ci lui a lancé : « Sale Arabe ». « C’est à ce moment-là que j’ai su ce que j’allais devenir », raconte-t-il. Mais la plupart de ceux qui éprouvent ce genre d’incident ne deviennent pas des djihadistes. Un processus complexe doit se mettre en œuvre, que les chercheurs pensent être en mesure aujourd’hui de décrire avec une certaine précision.

A l’origine, il y a un désenchantement, une indignation morale, un jugement dur porté sur les valeurs pratiquées par la société. Un découragement aussi face à l’absence de clés permettant de déchiffrer la complexité des choses. Et la recherche d’un ailleurs, d’un point d’ancrage propre à satisfaire un besoin d’idéal et d’outils de compréhension simples. Rien de très différent des chemins qui mènent aux sectes et à différentes formes d’engagement au sein d’une communauté. Le déclic vient d’une rencontre avec un réseau social djihadiste. Les premiers contacts peuvent être sur Internet, mais une condition est que se noue une forte amitié avec au moins un autre jeune éprouvant les mêmes sentiments. Le reste est l’affaire de recruteurs qui exercent leur emprise localement, sans forcément recevoir d’instructions d’un centre éloigné.

Divers types de biais cognitifs tout à fait ordinaires sont mobilisés. Le politologue de Harvard Cass Sunstein les évoque dans un livre, Going To Extremes (non traduit en français). Les recruteurs et les leaders spirituels qui nourrissent les forums sur la Toile sont des « entrepreneurs en polarisation », écrit-il. Référence à la notion de « polarisation de groupe » : quel que soit le contexte, une discussion de groupe conduit habituellement les participants à finir par exprimer des positions plus extrêmes que celles qu’ils avaient au départ. Les recruteurs djihadistes créent des « enclaves de gens qui pensent la même chose ». Ils se séparent du reste de la société. Ils tombent droit dans le piège de la dissonance cognitive, n’allant voir sur Internet que les sites qui les renforcent dans leurs convictions, les autres étant jugés manipulés par la propagande occidentale. Ils « votent avec leur souris ». Ils cèdent à la théorie du complot, scellée par la nécessité du secret. Les membres du groupe sont les seules personnes dignes de confiance. Une confiance absolue. Ils deviennent une nouvelle famille, plus forte que la famille.

Une fois ancrée l’adhésion à la sharia, aller jusqu’au sacrifice de sa vie exige la mobilisation d’autres biais cognitifs, pas moins ordinaires. «L’optimisme irréaliste » est celui des conducteurs automobiles, dont 90% croient être plus sûrs que le conducteur moyen et avoir moins de chances d’être impliqués dans un accident grave. Le biais de « disponibilité cognitive » fait croire à l’efficacité démontrée du terrorisme, au vu d’événements récents. Un biais narcissique entre aussi en jeu, qui conduit à se vivre soudain en héros. Sans parler de la croyance en l’accès immédiat au paradis, pour ceux qui s’engagent dans l’attentat suicide.

Pour Sunstein et la plupart des chercheurs impliqués, les terroristes sont des acteurs aussi rationnels que nous tous. C’est-à-dire pas tant que ça…

Olivier Postel-Vinay

Ce texte est paru dans Libération le 22 juillet 2015.

Menaces nucléaires

La dette grecque représente à peu près exactement le montant que les Etats-Unis envisagent de dépenser pour moderniser leur arsenal nucléaire au cours des dix prochaines années. La comparaison n’est pas destinée à minimiser le problème financier posé à la Grèce et à ses créanciers, mais à attirer l’attention sur un sujet méconnu : la montée du risque d’un conflit nucléaire.

Nous fêtons demain le soixante-dixième anniversaire de l’explosion de la première bombe A, au Nouveau Mexique. A la veille du dixième anniversaire de cet avènement, en 1955, John von Neumann, mathématicien génial impliqué dans la conception des bombes A et H, publiait un article resté célèbre intitulé : « Pouvons-nous survivre à la technologie ? ». Il se donnait 1980 comme horizon. Il serait sans doute heureux de voir que nous avons survécu, à cette technologie comme à d’autres. Satisfait aussi de voir que si nous avons survécu, c’est sans doute pour une bonne part grâce aux raisons qu’il invoquait. « Un élément décisif doit être pris en considération, écrivait-il. Les techniques qui génèrent dangers et instabilités sont utiles en elles-mêmes, ou étroitement liées à une utilité. En fait, plus elles sont potentiellement utiles, plus leurs effets peuvent être déstabilisateurs ». La « crise » ainsi créée à l’échelle mondiale « ne sera pas résolue en interdisant telle ou telle forme de technologie jugée particulièrement odieuse […]. On ne peut éradiquer le progrès […]. Seule une sécurité relative est accessible, et elle repose sur l’exercice intelligent du jugement, au fil des jours ». Von Neumann est mort en 1957. Il aurait été intéressé d’apprendre, comme nous le savons aujourd’hui, à quel point l’humanité a en réalité parfois frôlé une déflagration nucléaire.

En avril 2009 le nouveau président Obama, tout à son « rêve », a proclamé à Prague sa conviction que le monde allait pouvoir renoncer aux armes nucléaires en moins d’une génération. Ce discours étrangement naïf lui valut de recevoir l’un des prix les plus naïfs qui soit accordé sur la planète, le Nobel de la paix. Comme l’aurait certainement prédit von Neumann, il a dû déchanter. Les causes d’instabilité sont sur une pente ascendante. Les technologies liées à l’arme nucléaire n’ont cessé de progresser, de même que le nombre de dictatures ayant accès aux technologies de pointe et au savoir-faire nécessaire pour fabriquer et moderniser des armes nucléaires et des lanceurs appropriés. La Corée du Nord, une dictature ubuesque, a quelques têtes nucléaires et désormais des missiles lui permettant en théorie d’atteindre la Californie. Le Pakistan, une dictature infiltrée par l’islamisme radical, amasse des armes nucléaires à la frontière de son voisin indien, qui a son propre arsenal. En Iran le dictateur religieux Ali Khamenei s’oppose toujours aux conditions posées par les négociateurs occidentaux pour l’inspection de ses installations nucléaires. L’Iran est en mesure de se constituer un arsenal en moins d’un an et sera en mesure de le faire en une semaine d’ici quinze ans, en raison des nouvelles centrifugeuses dont il est en train de se doter. Si Téhéran le fait, l’Arabie saoudite, autre dictature, fera de même. Israël ayant l’arme nucléaire depuis longtemps, les conditions d’un conflit nucléaire local seront réunies. Un engrenage du même type peut se produire en Asie, si le Japon et la Corée du Sud en viennent à juger que les Etats-Unis ne leur garantissent plus une protection suffisante. Si les islamistes radicaux parviennent à se ménager un accès au savoir-faire pakistanais, la menace d’un terrorisme nucléaire prendra corps.

L’instabilité est avivée parce que deux grandes puissances nucléaires, membres du Conseil de sécurité, sont aussi des dictatures. L’une et l’autre font bon marché des traités internationaux, ne cachent pas leurs ambitions militaires et se plaisent à défier la prétention de l’Occident à vouloir régir les affaires de la planète.

Comme l’écrivait von Neumann, l’évaluation des risques est affaire de spéculation. Sur l’échelle des risques, le premier reste celui d’une mise en défaut de « l’exercice intelligent du jugement ». Témoin l’affaire grecque, qui n’en serait pas arrivée là si les créanciers d’Athènes avaient plus tôt mis la pression pour obtenir des réformes structurelles.

Olivier Postel-Vinay

Cet article est paru dans Libération le 15 juillet 2015.

 

 

 

L’économie, une fausse science ?

Comparez ces deux phrases. « La victoire du oui signifierait s’enfoncer dans une dépression presque sans fin. » Et : « En cas de victoire du non la Grèce continuera de régresser et s’enfoncera dans une récession de plus en plus sévère ». Elles émanent l’une et l’autre d’un prix Nobel d’économie, quelques jours avant le référendum. Si l’on pense qu’un prix Nobel d’économie sait de quoi il parle quand il s’agit d’économie, les Grecs étaient donc condamnés par avance, quel que soit leur choix. Mais un prix Nobel d’économie sait-il forcément de quoi il parle ? Il y a un doute. La première phrase est de l’Américain Joseph Stiglitz, Nobel 2001. La seconde du Chypriote grec Christopher Pissarides, Nobel 2010. Le premier expliquait pourquoi il fallait voter non, le second pourquoi il fallait voter oui. Ils invoquaient la même raison : un scénario catastrophe, dans le cas d’une victoire du oui pour le premier, dans le cas d’une victoire du non pour le second. Le même scénario catastrophe : la Grèce allait s’enfoncer dans une récession de plus en plus profonde. Notez qu’il n’y a aucun moyen de les départager, puisque le verdict des urnes ne permet jamais de savoir ce qui se serait passé en cas de résultat opposé.

Comme l’a fait remarquer l’économiste britannique Robert Skidelsky, auteur d’une imposante biographie de Keynes, aucun prix Nobel d’économie n’avait anticipé la crise financière de 2008 et la profonde récession qui s’en est suivie. Ni Stiglitz, ni Krugman (qui a aussi appelé les Grecs à voter « non »), ni aucun autre. A vrai dire, soulignait-il, « les seuls livres qui annonçaient clairement la crise n’ont pas été écrits par des économistes professionnels ». Echec d’une science ?

Parler de science économique est un abus de langage, soutient Jeff Madrick, un Américain vétéran du journalisme économique, dans un livre récent. « La preuve expérimentale en économie accède rarement au niveau des critères requis par une science véritable », écrit-il. Ce qui n’empêche pas les professeurs d’économie de faire croire à leurs étudiants qu’ils étudient une science, et les médias d’accorder aux Nobels d’économie une autorité comparable à celles des Nobels de physique. C’est d’autant plus exagéré que l’appellation « prix Nobel d’économie » est aussi un abus de langage. Ce n’est guère qu’un prix accordé par la Banque centrale de Suède.

On peut bien sûr discuter de la notion de science. On parle de science politique, sans trop savoir ce que l’on entend par là. Mais les économistes, qui aiment les mathématiques et les modèles sophistiqués, se plaisent à aligner leur discipline sur les critères de validité des sciences expérimentales. Qu’aurait pensé Galilée d’une science qui n’est en mesure ni d’anticiper et de prévoir, ni, le plus souvent, d’expérimenter et de procéder à des vérifications empiriques ? Qui plus est, d’une science dont les hérauts se distinguent principalement par leur positionnement politique ? « Comme Madrick, je suis depuis longtemps affligé par l’étroite corrélation entre les vues politiques des économistes et les résultats censément objectifs de leurs recherches », écrit dans la New York Review of Books Alan Blinder, professeur d’économie à Princeton. Madrick et Blinder décrivent avec humour le parti que les hommes politiques tirent des travaux des économistes. Ils ne s’appuient que sur ceux allant dans leur sens (politique). Les politiciens exploitent « les résultats de recherche à la façon dont un ivrogne utilise un lampadaire : pour s’appuyer dessus, pas pour s’éclairer », écrivait l’économiste Jared Bernstein. On pourrait en dire autant des médias, selon qu’ils se situent à droite ou à gauche. Quant à l’influence réelle des économistes sur la politique, on l’exagère souvent, mais il ne faut pas non plus la sous-estimer : elle est   « maximale sur les sujets qu’ils maîtrisent le moins et à propos desquels ils se disputent le plus », écrit Blinder. Keynes, lui aussi, la jugeait problématique : « Les idées des économistes et des philosophes de la politique ont plus d’impact que ce que l’on croit généralement ; aussi bien quand elles sont justes que quand elles sont fausses, écrivait-il en 1936, avec le recul fourni par la Grande Dépression. Ce sont les idées, non les intérêts particuliers, qui sont dangereuses pour le bien ou le mal ». Qu’aurait-il dit de l’idée de l’euro ?

Olivier Postel-Vinay

Ce texte est paru dans Libération le 8 juillet 2015.

 

 

 

 

Uber face aux taxis

Le mot allemand über est passé dans l’anglais populaire, avec ou sans tréma, par la grâce des jeux vidéo. Et du coup en français : Uber Pokemon est « le plus haut tier jouable »… , vous explique-t-on au pays de Malherbe. On s’en doute, il n’est pas encore entré dans le dictionnaire de l’Académie. Si l’on tape uber dans son moteur de recherche, on découvre un « Rapport sur les prix de vertu » lu en séance publique par Ernest Lavisse en 1916 : « L’Allemagne use à tout propos du mot über ; elle a inventé le surhomme, le surpeuplé, le peuple “au-dessus” ». Mais voilà, par la grâce d’une start-up américaine, uber est d’un coup de baguette magique entré dans toutes les têtes. Que vous le vouliez ou non, c’est un cas (pendable) de « disruption » – et pas seulement sémantique.

Le mot « disruption » est entré simultanément dans les langues française et anglaise en 1997. A cette date paraît (en français) Disruption, un ouvrage du publicitaire Jean-Marie Dru, aujourd’hui chairman de TBWA. Sous-titre : « Briser les conventions et redessiner le marché ». Le succès marketing d’une entreprise, explique-t-il, tient à sa capacité de développer une idée « en rupture » avec les pratiques du moment. Exemples phare : Nike, Ikea, et bien sûr Apple. Au même moment paraît aux Etats-Unis un livre d’un professeur à la Harvard Business School, Clayton Christensen, « Le dilemme de l’innovateur ». Bestseller mondial – bien que non traduit en français -, ce livre fera de la disruption, en anglais, une tarte à la crème des discours et cours de management dans les pays anglosaxons. Mais paradoxalement pas en France, où le mot n’a jamais pris.

Alors que Jean-Marie Dru mettait l’accent sur la dimension marketing du processus, Christensen, lui, insistait sur la rupture technologique. Son constat de base : le géant industriel le mieux établi avance comme un paquebot sur son aire, il ne voit pas arriver le produit ou service malin qui exploite une technologie nouvelle et quand celui-ci commence à inonder le marché il est trop tard pour réagir. Typiquement : l’ordinateur portable face à IBM et DEC, le MP3 et les maisons de disques, la photo numérique, Kodak et Polaroïd, le iPhone et les fabricants de mobiles. Le lien entre marketing et technologie est souvent plus qu’intime, comme en témoigne le iPhone, dont d’ailleurs Christensen, sacré en 2013 « penseur business » le plus influent du monde, avait prédit l’échec… En outre, témoin Amazon, la technologie n’est souvent qu’un moyen au service d’une idée organisationnelle. C’est précisément le cas d’Uber, qui exploite la téléphonie Internet pour « disrupter » l’industrie des taxis.

Uber s’est installé dans plus de 300 villes dans une soixantaine de pays et la valeur de l’entreprise pourrait atteindre prochainement les 50 milliards de dollars. Partout elle se heurte aux traditions et réglementations locales et parfois doit faire marche arrière, mais sa force d’attraction et la souplesse géniale du concept devraient lui garantir un succès mondial. D’autant qu’il ne s’agit pas seulement des taxis : c’est tout le marché des transports et des livraisons à la demande qui est visé.

Un élément essentiel d’une « disruption » réussie est l’ampleur de l’écart avec le service rendu par les entreprises ainsi bousculées. Le choc créé par Uber sur la communauté des taxis parisiens est plus fort qu’à Londres, parce que la qualité de nos taxis est inférieure à celle des cabs. A Tokyo, la qualité des taxis est telle qu’Uber a choisi de s’associer avec eux.

Mais bien sûr la supériorité du service rendu n’implique pas forcément un gain de qualité à tous égards. Le grand commerce a largement tué le commerce de proximité et donc une forme de qualité de vie. Amazon est l’ennemi numéro un des librairies de quartier. La presse écrite s’est trouvée confrontée à deux formes de disruption : l’écart du service rendu, pour les annonceurs, entre le papier et le numérique, et, pour les internautes, entre les moteurs de recherche et le papier. Résultat : une menace globale sur la qualité de l’information. La disruption ne s’en prend donc pas seulement aux rentes de situation et aux esprits poussiéreux. Comme toute technologie nouvelle, elle peut aussi dégrader ou détruire. Du coup, elle invite à réagir, à innover, c’est-à-dire à disrupter, mais en sens inverse… Uberdisrupter, peut-être ?

Olivier Postel-Vinay

Ce texte est paru dans Libération le 2 juillet 2015.

 

Accéder au Danemark

« Comment accéder au Danemark ? » demande Francis Fukuyama dans le premier volume de son livre « Les origines de l’ordre politique » (2011) – toujours non traduit en français. « Les Danois eux-mêmes ne le savent pas », ajoute-t-il. « Accéder au Danemark » (get to Denmark) est la métaphore que le politologue a choisi pour illustrer le mouvement allant historiquement du tribalisme à l’instauration d’un Etat moderne fondé sur des institutions efficaces, le respect du droit et un gouvernement tenu de rendre des comptes.

Le Danemark est une métaphore mais aussi une réalité, qui vaut d’être interrogée. Michael Booth, un essayiste britannique marié à une Danoise, l’a fait récemment. Adoptant le genre classique de la satire bienveillante, il pilonne les clichés avec allégresse. Les Danois sont premiers au hit-parade du bonheur dans les classements internationaux, mais aussi les plus gros consommateurs d’antidépresseurs au monde après les Islandais. Le niveau de confiance et de cohésion sociale est élevé mais la productivité est faible et le taux d’endettement privé atteint des sommets. Fiers de leurs éoliennes ils donnent des leçons d’écologisme, mais brûlent beaucoup de charbon, gavent leurs 22 millions de porcs d’antibiotiques et sont au bout du compte les quatrièmes plus gros pollueurs de la planète par habitant, devant les Etats-Unis. Ils se targuent de l’excellence de leurs services publics, mais selon le classement Pisa leurs écoles sont en dessous du niveau britannique et selon le World Cancer Research Fund ils ont la plus forte incidence de cancers au monde ; les trains ne sont pas à l’heure et la compagnie nationale des chemins de fer a frôlé la banqueroute. Dans ce pays phare de la social-démocratie l’inégalité sociale a fortement crû ces dernières années et la proportion de gens vivant en dessous du seuil de pauvreté a doublé en dix ans, pour approcher les 8%. Copenhague est une ville chic, mais allez donc en province voir comment vivent les immigrés, les chômeurs et les handicapés. Les Danois sont chauvins, « brandissent le dannebrog rouge et blanc à la première occasion », et les dessins racistes sont fréquents dans la presse.

Si l’on ajoute que la pression fiscale est supérieure de près de quatre points à celle de la France, on peut comprendre la percée du parti populiste aux dernières élections.

Mais comme souvent dans ce genre d’exercice, la tentation est forte de gommer les faits qui militent en sens inverse. Le taux de participation à ces élections était de 85%. Exceptionnel ? Pas au Danemark. Il n’est jamais descendu en dessous de 80% depuis 1945. Selon Tansparency International, c’est le pays le moins corrompu du monde. Le taux de chômage est à 4,8% : plus de deux fois plus faible qu’en France. Alors que l’Europe est plombée par le problème de l’euro, monnaie imposée et gérée par des technocrates, les Danois ont été consultés par référendum et ont choisi de garder leur couronne. L’accès aux soins et à l’université est gratuit et le système de retraites est considéré comme l’un des plus performants au monde. L’égalité des sexes sidère les étrangers, peu habitués à voir considérer comme impoli de retenir la porte pour laisser passer une femme. Le résultat des dernières élections a valeur d’avertissement, mais les sociaux-démocrates restent le premier parti du pays ; malgré trois ans d’une politique d’austérité difficilement imaginable en France ils ont même progressé, pour la première fois depuis longtemps.

Cela vaut donc la peine de revenir aussi sur la métaphore. Fukuyama voit dans l’Angleterre et le Danemark les deux premiers pays où la démocratie moderne s’est implantée, indépendamment l’un de l’autre. Le modèle danois est secoué par des tensions (pourrait-il en être autrement ?) , mais le royaume – car c’en est un -, est clairement l’un des lieux de la planète où il fait le meilleur vivre. A l’heure où la Chine promeut non sans effronterie un modèle alternatif, où dans la vieille Europe la Russie continue de se moquer des règles du droit, il importe de suivre de près les Etats, même petits, où la démocratie fonctionne le mieux, ou le moins mal.

Olivier Postel-Vinay

Ce texte est paru dans Libération le 24 juin 2015.

 

 

Oiseaux vs. générations futures

L’économiste américain William Nordhaus a une nouvelle idée pour le climat : créer un club des Etats vertueux, qui excommunierait les Etats non vertueux. Actuellement le prix réel estimé d’une tonne de CO2 est d’environ 1 dollar, estime Nordhaus. Si l’on voulait sérieusement réduire les émissions, il faudrait le faire passer à 40. On n’en prend pas le chemin. Comme un nombre croissant d’observateurs, l’économiste pense que la conférence de Paris sera un échec, parce que bien des Etats sont en réalité décidés à n’en faire qu’à leur tête. Il en résulte un savant brouillard sur les objectifs et un torrent d’ambiguïtés dans les prises de position affichées. Nordhaus réfléchit donc déjà à l’après Paris. En se fondant sur le résultat de modèles économétriques, il propose que les Etats vraiment motivés se liguent autour de cet objectif de 40 dollars la tonne et le mettent en pratique. En assortissant cette décision vertueuse d’une sévère punition pour les récalcitrants : imposer un tarif élevé sur leurs exportations. Bref, sacrifier le libre-échange sur l’autel du climat. Nordhaus l’admet : son concept d’un « Club du Climat », comme il l’appelle, a une dimension utopique. Mais selon lui il n’y a pas d’alternative.

Pour Jonathan Franzen, ce n’est pas seulement la conférence de Paris qui est vouée à l’échec, mais toute politique du climat à venir. Le romancier s’est fait sa religion en lisant un livre du philosophe new yorkais Dale Jamieson intitulé « La raison en cette période sombre », dont le sous-titre l’avait frappé : « Pourquoi la lutte contre le changement climatique a échoué, et ce que cela signifie pour notre avenir ». Jamieson est un habitué des conclaves sur le climat. Paru au printemps 2014, son livre tirait un trait sur l’espoir d’une solution politique. A lire Jamieson, ce ne sont pas les lobbies des énergies fossiles qui sont en cause, mais la démocratie elle-même. En bon Américain, il se concentre sur les Etats-Unis : l’intérêt des électeurs est d’avoir accès à l’énergie la moins chère possible ; les sondages en témoignent, ils n’entendent pas se sacrifier au bénéfice des générations futures. Les hommes politiques font ce que leur demandent les électeurs.

Franzen en tire une conclusion radicale. Laissons les puritains ressasser leur complexe de culpabilité à l’égard de la planète, broyer du noir sur l’avenir lointain et prêcher dans le désert. Prenons plutôt exemple sur saint François d’Assise, occupons-nous des êtres vulnérables qui sont devant nos yeux, ici et maintenant. Franzen est un militant écologiste de longue date. Sa grande passion, ce sont les oiseaux. « Je suis quelqu’un qui se soucie plus des oiseaux que de l’homme de demain », a-t-il osé écrire ce printemps dans un article du New Yorker – provoquant le scandale escompté. Il avait été outré de voir la puissante ONG Audubon affirmer que le changement climatique est « la plus grande menace » qui pèse sur les oiseaux américains et que « près de la moitié » des espèces aviaires d’Amérique du Nord risquent de perdre leur habitat naturel d’ici 2080. Il s’est moqué des médias qui ont «  retransmis avec crédulité » ce qui relève à ses yeux de l’intox pure et simple, alimentée par des modèles simplistes. Il met en avant les facultés d’adaptation des oiseaux : la plupart des espèces d’Amérique du Nord peuvent s’accommoder de températures plus élevées ou s’installer un peu plus au nord, tandis que des espèces plus méridionales feront leur apparition. La menace qui pèse sur la gent aviaire du fait du changement climatique est vague et incertaine. Elle n’est rien en comparaison des maux qu’ils affrontent aujourd’hui : « alors que la littérature scientifique revue par les pairs évalue à plus de trois milliards le nombre d’oiseaux tués par collision ou par des chats chaque année aux Etats-Unis, aucun décès d’oiseau n’a pu être attribué avec certitude au changement climatique ».

Franzen voit dans ce dernier un « “mème” prêt à l’emploi », d’autant plus séduisant pour les ONG que « c’est la faute de chacun d’entre nous, c’est-à-dire de personne ». Il génère de la bonne conscience à bon compte. Il procure une stratégie d’évitement qui nous exonère de l’urgente nécessité de nous consacrer aux problèmes très concrets qui nous entourent.

La position de Nordhaus et celle de Franzen ont de quoi irriter. Elles ont un mérite : elles traduisent une réflexion personnelle, éloignée de la novlangue climatique qui nous inonde.

Olivier Postel-Vinay

Ce texte est paru dans Libération le 17 juin 2015.