Pierre Joly

Café de la prospective du 10 mai 2017 – Pierre Joly

Café de la prospective du 10 mai 2017 – Pierre Joly

Présentation de la réunion et de l’intervenant par Marc Mousli 

Nous avons le grand plaisir d’accueillir Pierre Joly, inspecteur général de l’Insee, qui a un long passé de statisticien et d’économiste à l’Insee puisqu’après l’École polytechnique il a étudié à l’Ensae, puis travaillé sur à peu près tout ce qu’on peut imaginer en matière de prévision.

Notre thème d’aujourd’hui est « prospective et prévision », et pour des prospectivistes, c’est souvent prospective versus prévision. J’ai mis sur la page Facebook du Café un lien vers le livre de Michel Godet, publié il y a 40 ans tout juste, en 1977 : Crise de la prévision, essor de la prospective. Il opposait les deux. Et l’esprit de ce livre, qui était d’ailleurs la thèse de Michel, a perduré.

En fait, quand on regarde la réalité, les prospectivistes font comme tout le monde, ils ont beaucoup recours aux prévisions, dont ils se servent en permanence. Et ils les prennent très au sérieux, surtout celles qui sont élaborées par l’Insee, institut reconnu dans le monde entier pour son sérieux et sa rigueur.

En six années de Café de la prospective nous n’avions jamais consacré une séance à la prévision. Il nous fallait combler cette lacune, et personne n’est mieux placé pour le faire que Pierre Joly, qui a beaucoup travaillé cette discipline à des niveaux qui exigent une excellente connaissance de l’économie, de la créativité et beaucoup de rigueur.

Pierre Joly

Merci de m’avoir invité, je suis content d’être parmi vous. Il est vrai que j’ai été amené, dans ma carrière, à faire des projections économiques dont je vais vous parler. J’ai aussi dirigé une école d’ingénieurs et j’ai été directeur régional de l’Insee en Languedoc-Roussillon. Je suis maintenant à l’inspection générale de l’Insee, où je travaille surtout à des problèmes d’organisation de l’Institut.

Mon expérience des questions de prévision est donc un peu datée mais elle n’est pas inutile pour avoir un débat.

Modélisation et prospective, tendances et ruptures

Je ne me considère pas comme un prospectiviste : je ne me suis jamais penché sur les méthodes prospectives, mes fonctions à l’Insee m’ayant plutôt amené à répondre à des questions sur des horizons de court et moyen terme, rarement de long terme. Pour cela, j’ai travaillé avec des outils qui permettaient de représenter les évolutions : des modèles.

Il y a une opposition traditionnelle entre modélisation  et  prospective : les prospectivistes critiquent les modèles, et les modélisateurs ne savent pas toujours comment utiliser l’information des prospectivistes dans les modèles, qui utilisent des valeurs économiques quantitatives et ne disent rien de ce qui est en dehors de l’économie. Ils raisonnent sur des moyennes plus souvent que sur des dispersions ; et ne tiennent pas compte d’éléments de qualité de vie même si on commence à faire des efforts de ce côté.

Ce qu’on reproche souvent aux modèles, c’est d’être figés, et d’avoir donc du mal à rendre compte des ruptures, sur lesquelles ils font plus ou moins l’impasse. Ce n’est pas tout à fait exact ;  je reviendrai là-dessus… En revanche, le prospectiviste, lui, imagine bien un monde dans lequel il va y avoir des ruptures. Je ne suis pas sûr qu’il sache toujours les anticiper, mais il sait qu’il y en aura.

Il est également vrai que l’exercice de prévision se termine par un scénario, ou éventuellement quelques scénarios, sans que l’on tienne compte de tous les facteurs d’incertitude. Dans ces exercices, à un moment donné on fait des choix qui ne rendent pas compte de la diversité des possibles. En même temps, si on commence à rendre compte de la diversité des possibles, on se retrouve devant un univers qui ne convient pas nécessairement au commanditaire du travail, qui demande un éclairage lui permettant de prendre des décisions.

Pour illustrer ces points, je vais m‘appuyer sur trois exercices où l’on a utilisé des modèles. Nous parlerons surtout des travaux du Plan mais cela vaut également pour le ministre de l’Économie et des Finances, qui doit présenter une loi de Finances et qui a donc besoin de prévisions ; de même les organismes internationaux ont besoin des prévisions pour alimenter leur vision du futur.

L’Insee, la Direction du Trésor, l’OFCE, la Commission européenne, l’OCDE, le FMI, un très grand nombre d’organismes ont besoin de modèles, qui sont, en fait, des représentations simplifiées de l’économie.

Je parle d’une époque où les outils n’étaient pas très faciles à mettre en œuvre. Aujourd’hui, c’est très simple, en fait, de construire un modèle, et il y en y a beaucoup plus… les banques ont leurs propres outils de modélisation, ainsi que les universités et de nombreux autres organismes.

Les modèles mettent en relation les grandeurs économiques que l’on cherche à mesurer et ils écrivent ces relations. Deux catégories de variables sont concernées : les exogènes, que le modèle n’a pas prétention à décrire, par exemple, dans un modèle national, la croissance des pays voisins est considérée comme exogène, tout comme la démographie : le modèle ne va pas rendre compte de l’évolution démographique. Ensuite, il y a des équilibres comptables qui imposent que la demande soit égale à l’offre. On a donc des équations comptables qui en rendent compte. Il va falloir expliquer le déficit de l’État, qui est un résultat comptable, et la balance commerciale, qui est de même nature. Et puis, il y a un certain nombre de variables pour lesquelles on va décrire des comportements et c’est là où il peut y avoir le plus de discussions : la consommation, l’investissement et même le commerce extérieur.

La prospective, elle, s’intéresse aux états du monde sur le long terme, un horizon où les modèles n’ont pratiquement plus aucune validité parce que, par définition, ils ont été construits à partir de ce que l’on connaît, à un moment donné, de l’évolution de l’économie, en se basant donc sur des données généralement plus anciennes. Donc, s’il y a des ruptures à venir, on ne pourra pas en rendre compte avec ces outils.

Par exemple, les conséquences des nouvelles technologies, si elles sont tendancielles, seront probablement prises en compte partiellement dans les modèles. Par contre, si elles constituent des ruptures majeures, elles ne seront pas envisagées. De même, pour l’emploi, on peut avoir des évolutions fortes dans les modes de fonctionnement du marché, alors qu’on va décrire l’évolution de l’emploi telle qu’on l’avait constatée dans le passé.

L’un des points sur lesquels on a le plus de problèmes, ce sont les gains de productivité, souvent considérés comme des variables exogènes dans les modèles. Ces gains de productivité, ce qu’on appelle le progrès technique, c’est un trend qui a connu des ruptures. On met souvent des inflexions dans les modèles quand c’est nécessaire, mais on n’a pas beaucoup d’informations alors que les variations sont assez fortes et que ce sont les gains de productivité qui donnent la dynamique du modèle. Alors, on essaie parfois de les décrire un peu plus précisément mais ça demeure un point délicat. Aujourd’hui, on a du mal à évaluer la croissance potentielle longue, parce qu’il faut faire une hypothèse sur les gains de productivité futurs, et qu’avec les nouvelles technologies, on ne les voit pas bien. C’est peut-être là que le prospectiviste, peut apporter des éléments pour améliorer ces connaissances.

De même, il y a des aspects nouveaux comme la dimension environnementale, qui prend de plus en plus de place dans la décision publique, alors que les modèles sont faits pour répondre à des questions du moment. Il faut donc améliorer les outils pour pouvoir dire des choses sur l’évolution de l’environnement et sur la production de CO2, en relation avec la croissance économique.

 Quelques mots  sur trois domaines d’application de la modélisation : l’exercice de planification, l’élaboration des lois de finance, l’énergie.

Les exercices de planification débouchaient sur une loi décrivant ce que pourraient être les cinq années à venir.  Elle était votée par le Parlement, avec des engagements de la puissance publique sur les moyens nécessaires à l’atteinte des objectifs visés. Dans ce cadre, il y avait des réflexions sur tous les domaines, à la fois sur les aspects sociaux, l’emploi, les problèmes sectoriels, en particulier l’agriculture, l’énergie, les transports, les problèmes territoriaux. Ces travaux s’appuyaient sur des études macroéconomiques menées parallèlement par le service économique, dont j’ai fait partie. On faisait travailler l’Insee pour qu’il nous fournisse des projections, des scénarios. Le Commissariat général du Plan fournissait des hypothèses et on faisait tourner un modèle macroéconomique, le modèle DMS (Dynamique Multisectoriel), un modèle assez lourd, parce qu’il voulait décrire l’économie de manière précise. Il y avait onze branches, dont trois pour l’industrie et en plus les industries agroalimentaires, le transport et l’énergie. Paradoxalement, le secteur des services était peu détaillé, alors qu’il est devenu un secteur particulièrement important. Et pour décrire cette économie, il y avait 1 900 équations dont 250 « de comportement », des équations économétriques estimées sur le passé. On était dans les années 80, et le modèle était estimé sur la période 1960-1980, donc sur une vingtaine d’année. L’estimation posait problème, car elle prenait en compte une partie des Trente Glorieuses, alors que la productivité s’était affaissée dans certains secteurs. Enfin il y avait 400 variables exogènes décrivant l’environnement international, la politique budgétaire, fiscale et monétaire, et des secteurs comme l’agriculture ou les grandes entreprises nationales, pour lesquelles on avait des informations sur les 4 à 5 ans à venir, que nous introduisions directement dans le modèle.

Le modèle était néokeynésien, avec une structure qui faisait qu’à court terme c’était la demande qui imposait son rythme. On partait donc des dépenses publiques, de la demande venant de l’extérieur, qui sollicitaient l’appareil de production, entraînant la production, l’emploi, les revenus, donc la consommation, etc. Tout cela rebouclait bien.

Le modèle étant keynésien sur le court terme, les meilleures mesures de politique économique étaient de faire de la dépense publique car les prix et les salaires, plus rigides, n’étaient pas immédiatement tirés par la croissance. À moyen terme, la croissance provoquée par une dépense des administrations relançait la production, l’emploi et entraînait des hausses de salaires, ce qui avait des conséquences sur les prix, ce qui affectait la compétitivité de l’économie ; donc, à moyen terme, on perdait un peu par rapport à ce qu’on imaginait avoir gagné à court terme. D’autant que les entreprises s’en sortaient moins bien, investissaient moins, et les capacités pour exporter étaient réduites.

Mais ce qui explique pourquoi c’est compliqué pour des hommes politiques de prévoir des mesures structurelles favorables à la croissance, c’est qu’elles mettent beaucoup de temps à produire des effets. Ce n’est pas le modèle qui est en cause, c’est la réalité. Tous les modèles rendent compte de ça : vous avez des mécanismes qui ont rapidement des résultats parce qu’ils jouent sur la demande, mais les mesures structurelles cherchant à améliorer la compétitivité et la qualification des hommes, mettent 4 ou 5 ans à produire des effets. Et en général, 4 ou 5 ans, c’est la durée des mandats politiques.

L’avantage de ce modèle, c’est qu’il explicitait ces phénomènes et alimentait la réflexion pour la construction du Plan, qui se faisait avec des partenaires : les syndicats, les entreprises, les universitaires, des associations. À ces partenaires il fallait présenter les scénarios que l’on construisait, les faire discuter, leur faire accepter ou éventuellement les modifier. En fin de parcours on pouvait avoir un certain consensus sur un certain nombre de scénarios.

Ces scénarios avaient été alimentés par les autres services du Commissariat pour tout ce qui était exogène, ce qui ne pouvait pas être calculé par le modèle dans des domaines comme l’industrie ou l’agriculture, ou encore des données sur lesquelles les points de vue n’étaient pas cohérents avec ce qu’on imaginait. On pouvait donc, à la marge, améliorer les scénarios qui, in fine, devenaient l’outil de référence pour tous ces services et les partenaires.

L’intérêt des modèles, dans cette démarche, était d’être un outil que tout le monde pouvait utiliser, un instrument de dialogue entre les différents services du Plan, qui permettait de créer une culture économique commune entre des acteurs qui n’avaient pas, au départ, une connaissance minimale des mécanismes économiques. Quand un décideur nous disait « On n’a qu’à faire ceci », nous répondions : « Ok, on regarde. » Il lui arrivait souvent d’oublier que décider une dépense publique c’est bien mais ça pose un problème d’endettement, par la suite, et que cela peut dégrader la compétitivité.

Le modèle DMS avait une force : il était assez gros et répondait donc à bon nombre de questions. Par exemple, un secteur ne pouvait pas dire : « Vous n’avez pas tenu compte du fait que les biens de consommation ce n’est pas la même chose que les biens intermédiaires… »  Ils étaient séparés. Donc, le fait d’avoir pas mal de secteurs c’est aussi une qualité qui était appréciée.

Par ailleurs, des documents expliquaient avec précision comment il était écrit, comment il fonctionnait. On faisait des « cahiers de variantes» et on étudiait les propriétés du modèle quand on modifiait des variables exogènes ; ses propriétés étaient connues, ce qui rassurait les partenaires sur l’outil.  D’une part, on ne les « truandait » pas, et d’autre part, ça leur permettait, avec le temps, de s’approprier l’outil.

Il y avait des défauts. La taille du DMS nécessitait une équipe assez importante à l’Insee, dont j’ai fait partie avant d’aller au Plan. C’est pour cela qu’il n’y a plus aujourd’hui de tels modèles. Il était lourd à cause du nombre d’équations, de l’importance des données exogènes. La prise en compte de la croissance internationale était un point fort : pour peu que vous sachiez décrire la croissance de l’Europe, celle de la France n’était pas trop différente, sauf si la compétitivité se dégradait. Donc, une fois qu’on avait introduit les données exogènes de croissance internationale on en avait déjà dit beaucoup sur ce que pouvait espérer la France en termes de croissance.

Cela dit, les hypothèses de productivité étaient faiblement expliquées et uniquement par l’estimation du passé. On utilisait, dans les années 80, des comptes nationaux 1950-1980, datant pour une grande part d’avant la crise pétrolière, une époque où la productivité était de 5 % par an. Aujourd’hui, on n’est pas du tout à ce rythme-là et même dans les années 80, elle avait sacrément baissé. On ne savait pas quel serait le futur, et on a toujours eu tendance à être optimistes. Pour un Plan, ce n’est pas une mauvaise chose, ça donne du courage à tout le monde.

Et puis, il y avait bien sûr le problème des ruptures de comportement ; j’ai parlé de la productivité, mais ça pouvait se faire dans d’autres domaines. On peut perdre de la compétitivité sur la qualité, et nous nous intéressions uniquement à la compétitivité prix et aux capacités de production, alors que certains concurrents se spécialisaient dans des produits à haute rentabilité, des spécialités. La concurrence allemande par exemple, n’était pas décrite aussi bien qu’elle l’a été plus tard… Alors, on n’arrêtait pas de dire : « Il faut faire de la formation, si on forme les gens, ils seront plus compétitifs. » Mais le problème c’est que la formation, c’était de la dépense, il fallait embaucher des enseignants… Enfin voilà, on faisait des hypothèses de ce type, mais le modèle ne pouvait pas nous dire : « Ah oui, mais ces gens sont formés donc ils vont être plus efficaces et améliorer la compétitivité ». On voit les limites de ce type d’outil.

Il y a enfin un dernier point, le côté boîte noire. Bien que tout ait été documenté et que donc on puisse avoir accès à l’information, pour la plupart des utilisateurs la documentation était aride : des équations, des coefficients, des choses peu plaisantes quand on n’est pas du métier ; il y avait donc malgré tout un côté boîte noire.

Pour terminer dessus, je parlerai de deux cas sur lesquels j’ai été amené à travailler.

Le premier est un test sur la durée au travail. C’était après le huitième Plan, François Mitterrand est élu Président de la République. Un Plan était en cours d’examen au Parlement. Les socialistes ont décidé un Plan intérimaire dans lequel ont été mises les 121 mesures du programme du candidat. On a donc refait des scénarios assez rapidement. Dans les mesures proposées, il avait les 35 heures après négociation avec les partenaires sociaux et le développement du travail en équipe de façon à être plus efficaces.

Quand on faisait tourner le modèle DMS, baisser à 35 heures, à court terme, c’était bien parce que ça créait de l’emploi, mais à moyen terme il y avait des effets négatifs : de l’inflation, parce que le chômage baissant, les salaires augmentaient, et une dégradation des capacités de production des entreprises qui n’arrivaient pas immédiatement à recruter des salariés qualifiés en nombre suffisant.

Donc ces effets n’étaient pas favorables. On a cherché pourquoi.  Le principal handicap était que les capacités de production étaient insuffisamment utilisées. On s’est dit : « Ce qu’on va faire en même temps, c’est développer, le travail en équipe. » On a donc introduit l’idée de développer le travail en équipe et des décrets sont même passés pour le favoriser. Nous avons introduit une nouvelle variable, qui n’existait pas dans le modèle : la durée d’utilisation du capital.

Si on augmentait la durée d’utilisation du capital, les 35 heures pouvaient être assez vertueuses. On devenait plus compétitifs en faisant tourner 24 heures des usines qui tournaient 8 heures jusque là.  Avec les 35 heures, les entreprises étaient de toute façon obligées de se réorganiser donc c’était plus facile pour elles de passer à ce cap-là, et on avait un effet efficace.

On a donc montré qu’il y avait un côté vertueux. Le seul problème était celui de la compensation salariale. Ce que disait le modèle, c’est qu’il ne fallait pas compenser à 100 % les 35 heures. Du coup, la décision politique a été de passer à 39 heures d’abord, avec compensation intégrale. Il n’y a donc pas eu autant d’effet qu’on l’imaginait sur l’emploi, et le gouvernement n’est pas allé plus loin. Voilà le type de mesures pour lesquelles on a utilisé le modèle.

Le deuxième cas c’est la mise en œuvre des 121 mesures. Ce n’est pas tombé au bon moment : la conjoncture extérieure n’était pas très bonne et du coup on s’est retrouvés dans une situation effroyable, avec trois points de PIB de déficit public et un peu moins de deux points de déficit extérieur. Aujourd’hui, ça fait rigoler mais à l’époque, c’était gigantesque par rapport à ce qu’on connaissait. Donc, immédiatement, il y a eu un changement de politique et on est partis sur un contrôle des salaires beaucoup plus fort parce que l’inflation montait très vite par rapport à nos voisins. La stratégie de désinflation compétitive a d’ailleurs été particulièrement efficace.

Je travaillais, à ce moment-là, sur le modèle DMS à l’Insee et on a été obligés en 1 mois, 1 mois et demi, de refaire tous les scénarios en se passant des équations de salaires, qui étaient normalement économétriques, et en prenant comme hypothèse qu’il n’y avait plus d’indexation sur les prix, ou une demi-indexation, et on a réécrit un scénario.

Le modèle DMS, donc, était très lourd. Il y a eu des versions plus légères, comme Mini DMS Énergie, avec très peu de secteurs mais un secteur énergétique assez développé parce qu’au Commissariat du Plan, les problèmes de long terme, c’était l’agriculture et surtout l’énergie et les transports, deux secteurs dans lesquels les investissements sont longs et lourds, ce qui oblige à les prévoir longtemps à l’avance.

Par la suite, l’Insee a abandonné le modèle DMS et est passé à un modèle plus léger, AMADEUS avec beaucoup moins de secteurs, et qui pouvait être mis en œuvre par des équipes plus légères.

A partir du 10e Plan, on a commencé à utiliser les modèles d’autres organismes : l’OFCE et COE-Rexecode avaient construit leurs propres outils, avec des point de vue politiques différents : l’OFCE très keynésien, COE-Rexecode qui ne regardait que le côté de l’offre et l’Insee décrivant une situation intermédiaire.

Sont ensuite arrivés des modèles multinationaux pour la construction de scénarios dont NiGEM, un modèle que les Anglais avaient mis à disposition de tous ceux qui souhaitaient l’utiliser, et qu’on utilise toujours.

Deux sujets dans lesquels j’ai été  un peu moins impliqué : la loi de finances et l’énergie.

La Loi de Finances doit s’appuyer sur une vision, mais à plus court terme que le Plan. C’est la Direction du Trésor qui est chargée de fournir un scénario, une prévision qui est celle retenue. Pour ce faire, elle a trois types d’outils : un qui présente le très court terme, c’est-à-dire les trimestres qui viennent. L’Insee produit ces prévisions, mais les gens du Trésor ne veulent pas être en retard, et ils en réalisent donc en parallèle avec leur propre outil. C’est une enquête assez lourde, et ils espèrent qu’à la fin l’Insee dira la même chose qu’eux.

Ensuite, ils ont, pour les deux années en cours, un modèle qui s’appelle Opale et qui réalise des prévisions à 1 ou 2 ans avec cinq secteurs institutionnels.

Les modèles pour ces utilisations sont trimestriels avec des ajustements de court terme sur certaines variables, et ils comportent une équation de long terme (modèle à correction d’erreur), qui permet de s’assurer de la cohérence à long terme.

Et puis, ils ont un modèle plus connu, Mésange, partagé avec l’Insee, qui est un modèle macroéconomique standard néokeynésien à 500 équations et 3 branches modélisées. Il leur sert à faire des variantes parce que les comportements économiques sont beaucoup plus travaillés que dans le modèle Opale. L’intérêt d’Opale est qu’il peut être mis en œuvre très rapidement : le Ministre veut qu’on change quelque chose, ça va très vite. Alors que Mésange est moins facile à maîtriser : il comporte beaucoup plus d’économétrie et dès qu’on commence à modifier quelque chose ça peut altérer tout le scénario global.

La Direction du Trésor fait d’abord un compte technique « brut » qui est présenté au Ministre et à son cabinet. Il y a des discussions, le Ministre peut dire « Je pense qu’on devrait pouvoir faire mieux, faire encore ceci. ». Les économistes réagissent et on arrive sur ce qu’on appelle un compte « normé » qui sera présenté au Parlement.

Entre temps, ces comptes sont examinés par le « Groupe technique de la commission économique de la nation ». Ce groupe – j’ai eu l’occasion d’y participer quand j’étais au Conseil d’Analyse Économique – regroupe les instituts qui travaillent sur la conjoncture : non seulement l’OFCE, COE-Rexecode, des universitaires, mais aussi les banques, qui ont toutes leurs scénarios. Il y a donc une confrontation. C’est très impressionnant : chacun donne ses hypothèses, ses résultats pour l’année en cours et l’année suivante . Cela oblige le Ministère à justifier ses choix ou ses résultats.

Ce qui est nouveau, c’est que ces prévisions sont ensuite présentées au Haut Conseil des finances publiques, créé pour éviter que le gouvernement ne prenne des hypothèses trop favorables pour présenter des comptes en équilibre ; si vous mettez plus de croissance, vous arrivez plus facilement à régler vos problèmes de solde budgétaire. Le Haut Conseil des finances publiques porte un avis sur la qualité et la probabilité du scénario qui est présenté.

Sur l’énergie, France Stratégie s’est intéressé aux problèmes de l’environnement et de la COP21, pour évaluer les impacts, proposer les mesures à prendre en termes de fiscalité du CO2, d’investissement dans l’isolation, enfin de dépenses possibles pour améliorer la situation. Souvent les outils utilisés décrivent bien le secteur en tant que tel mais ne parlent pas des conséquences globales pour l’économie ; c’est-à-dire qu’on subventionne un secteur pour qu’il soit meilleur, plus efficace mais une subvention reste une subvention, et dans un modèle macroéconomique c’est une dépense. Alors, il peut y avoir des effets bénéfiques mais en même temps, il y aura probablement des retombées économiques et l’État devra payer. Il peut y avoir des effets de substitution qui méritent d’être décrits.

Ils ont donc demandé à des équipes de modélisation (avec les modèles Mésange, Némésis (de l’école Centrale), et un autre modèle développé par l’ADEME et l’OFCE, de voir quelles étaient les conséquences macroéconomiques, des mesures en faveur de l’environnement. Évidemment, ces modèles disent que quand vous taxez, par exemple, le CO2, c’est un impôt donc ce n’est pas bon pour la croissance ni pour l’emploi. Mais en général ça fait des recettes pour l’État, qui peut les réallouer pour rééquilibrer.

Ils ont découvert que finalement les modèles sont assez proches pour ce qui concerne les économies de CO2 —pas Mésange : ce n’est pas du tout son truc, alors que les autres sont plus adéquats. En termes de PIB et d’emploi, ils ont trouvé, en gros, que quand vous mettez un point de PIB de taxation sur le carbone, vous gardez, plus ou moins, un point de PIB, à terme, de croissance parce que vous avez taxé mais vous avez enrichi le budget de l’État ; à lui d’utiliser le montant de la taxe à bon escient.

Le débat

Participant

Bonsoir, merci pour cet exposé. J’avais une question sur le niveau de fiabilité des modèles. Lorsqu’on utilise les séries longues, en économétrie, comment peut gérer les changements de définition fréquents sur le PIB, le calcul de l’inflation, le taux de chômage et autres qui sont quand même des données importantes ?

Pierre Joly :

Effectivement, on revoit les bases régulièrement, tous les 5-10 ans, et c’est terrible pour les modèles parce qu’une fois qu’on a changé les bases on ne peut plus travailler sur les anciennes et il faut réestimer l’ensemble du modèle. Par exemple, les chocs pétroliers ont modifié assez sensiblement la structure des prix. DMS a dû intégrer l’augmentation du prix de l’énergie et dans ce cas-là, vous avez des impacts sur un certain nombre de coefficients, qui peuvent altérer le modèle.

Mais les modèles sont basés sur une version datée de Comptabilité nationale, ils doivent le préciser dans leur notice et ils restent cohérents au moins pendant cette période parce que le PIB ne change de concept qu’à l’occasion d’une remise à niveau pour une nouvelle campagne. Récemment on a introduit dans le PIB de nouvelles grandeurs, d’autres ont été retirées, tout ça souvent pour respecter des règles internationales. C’est très organisé. On n’a pas une liberté absolue, en fait les pays sont obligés de tous faire la même chose et en plus nos comptes sont expertisés par les autres pays. Entre autres, les comptes de déficit public, d’endettement, sont discutés au niveau européen. C’est l’Insee qui fait les calculs et qui fournit les données, mais il faut que le PIB soit mesuré de la même manière pour tous, pour les raisons liées à la base de la fiscalité européenne mais aussi parce que déficits et endettement publics sont rapportés au PIB en valeur.

Participant 

On a quand même des différences de comptabilisation avec le reste de l’Europe, par exemple sur la manière dont on enregistre la valeur créée par les activités illégales, et puis aussi lorsqu’on regarde l’inflation, selon ce qu’on utilise ou pas comme produit de substitution dans les familles, qui permettent de mesurer l’évolution du prix, on arrive très vite, en fait, à créer des écarts de 1 ou 1,5 %, ce qui est énorme aujourd’hui compte tenu du niveau de l’inflation et du niveau de croissance. Est-ce que au final on peut encore avoir une fiabilité permettant de prendre des décisions ?

Pierre Joly

Sur le PIB en valeur, vous avez raison, il y a des pays qui prennent en compte la prostitution et d’autres la drogue. Vous avez aussi tout ce qui est le PIB informel, il y a des méthodes pour essayer de l’évaluer et chaque pays fait de son mieux. Par contre, pour les prix, c’est un souci ; il n’y a pas de méthodologie générale. On parle toujours de l’électronique, par exemple, où les prix devraient baisser très nettement parce qu’on vend au même prix des produits qui ont beaucoup progressé. Pour en rendre compte on utilise des techniques qui s’appellent « le prix hédonique » et tous les pays ne le font pas au même niveau. Donc, on peut avoir un impact différent d’un pays à l’autre.

Quand je dis que c’est normalisé, je dirais : le cadre est normalisé, les concepts doivent être proches enfin, il y a des règles qui sont définies ; après, dans la manière de le mesurer, chaque pays a sa méthode, et donc là, il peut y avoir des variantes. En France, on a toujours mis beaucoup de moyens sur l’information statistique. Il y a de plus petits pays, qui n’ont pas les moyens de mettre autant de ressources, sans parler des Grecs, par exemple, avec la mesure de leur PIB qui a quand même posé un sacré problème. Vous avez raison, il peut y avoir des écarts.

Participant :

Est-ce qu’il n’y a pas des pays, aussi, comme les États-Unis qui sont devenus des champions du tuning des modèles et de l’interprétation de certains concepts, notamment autour de l’inflation, pour pouvoir communiquer des données lissées un peu comme on en a envie ?

Pierre Joly :

L’inflation est souvent calculée par les Banques centrales. Aux États-Unis, la Banque centrale (FED) est indépendante. Vous ne pouvez pas changer le président du conseil des gouverneurs de la FED comme le directeur du FBI. Les Banques centrales font elles-mêmes des calculs, elles utilisent comme beaucoup des informations primaires réunies par les organismes. Par exemple, la loi numérique oblige l’Insee à mettre à disposition du public toujours plus de données ; le citoyen va pouvoir dire : « Moi, je veux ça ». Vous pouvez avoir la base Sirene par exemple, vous pouvez la télécharger, elle est désormais gratuite…

Et puis il y a un article qui est en notre faveur (c’est nous qui l’avons demandé). Il oblige les entreprises, en particulier celles du commerce et des télécom, à mettre à disposition de l’Insee leur base de données numériques sur leurs ventes de façon à pouvoir construire des indices de prix à un niveau beaucoup plus fin. Pour l’Insee ça fait une super économie : ça évite d’envoyer des enquêteurs pour aller chercher l’information, et on va avoir une base plus large. Il y a une obligation, pour les entreprises d’y participer. On espère réussir à les convaincre. En revanche, je ne suis pas sûr que les Allemands y arrivent.

Participante :    

J’ai une question double. Comment évaluez-vous les modèles que vous utilisez, par rapport aux autres pays européens ? Comment tout cela fonctionne, fonctionnait et fonctionnera ? Est-ce qu’on va pouvoir avoir une vision européenne fiable et comment ce groupe de pays fonctionne, est-ce qu’il y en a qui sont plus évolués que la France ?

Pierre Joly :

La Commission a un modèle macroéconomique qui s’appelle Qwest et qui décrit, pour chacun des pays, des éléments de croissance. Et le FMI a un modèle, Multimod, qui décrit aussi chacun des pays.

Les modèles nationaux peuvent être gémellaires : vous décrivez de la même manière les comportements dans les deux pays, et dans ce cas, quand vous faites un choc dans un pays il se passera des choses relativement voisines dans l’autre. La deuxième possibilité est qu’il y ait des différences de comportement d’un pays à l’autre.

La formation des salaires en Allemagne et en France, par exemple : c’était un sacré problème parce que les équations étaient très différentes. Les Allemands étaient très sensibles à l’emploi. On voyait bien que chez eux c’était le plus important et que les mécanismes économiques jouaient toujours en faveur de l’emploi alors qu’en France on avait le salaire minimum, qui atténue l’impact du chômage sur le niveau des salaires alors que chez les Allemands cet impact était beaucoup plus fort. Quand on faisait des variantes, on avait donc des effets extrêmement contrastés.

Ça ne répond peut-être pas complètement à votre question mais il n’y avait pas de bonne solution. Si on prenait exactement la même structure des descriptions de l’économie, on se tromperait un peu sur la France, un peu sur l’Allemagne mais les propriétés paraîtraient relativement homogènes. Mais ces modèles différenciés étaient bons parce qu’on voit bien qu’entre la France et l’Allemagne nous n’avons pas le même système de régulation et que ça a un impact : cela a joué contre eux à une époque, et ça joue plutôt contre nous à présent.

Participant

Je compléterais bien par une question sur les doctrines. Tu disais : «DMS était néokeynésien.» Alors aujourd’hui, dans les modèles, on a souvent un mix avec du classique et du keynésien, en fait du néoclassique et du néokeynésien. Quelles peuvent être demain les doctrines par pays ? Quels choix politiques ?

Pierre Joly 

Un modèle c’est de la responsabilité de ceux qui le font, déjà. Donc, c’est eux qui vont mettre les hypothèses qu’ils jugent bonnes. Ce sont des économistes, des gens sérieux qui vont y mettre ce qu’ils jugent bon.

Pour faire court, quand on était au Commissariat du Plan, on savait que le modèle de l’OFCE était keynésien. C’est moins vrai maintenant j’ai vu leur dernier modèle ils ont un petit peu amélioré, enfin, en gros il faut toujours faire de la dépense publique, alors que d’autres vont dire : « C’est efficace à court terme mais ça va dégrader terriblement la compétitivité. » Alors, c’est là qu’il peut y avoir, effectivement, une dose différente de description des comportements d’offre.

Je pense que la partie keynésienne des modèles, c’est la comptabilité nationale qui dit que le PIB c’est la consommation plus l’investissement plus les exportations et moins les importations puis après vous avez la distribution des revenus, l’emploi… Tout le monde décrit plus ou moins la même chose parce que ce n’est pas facile, en tout cas à court terme, de se différencier sur ces points-là.

Par contre, après, vous pouvez être plus ou moins précis sur l’offre et vous pouvez faire jouer un rôle plus important, par exemple, à l’investissement. L’investissement va affecter les équations de l’exportation et de l’importation. Si les entreprises investissent moins parce qu’elles ont moins de profit, elles vont dégrader leur compétitivité vis-à-vis de l’extérieur, en plus des prix. Si on imaginait un modèle dans lequel on dirait : « L’éducation, la formation des gens, ça compte. », il faudrait l’écrire et réussir à l’estimer. Il y a une règle chez les modélisateurs, c’est qu’ils estiment l’équation de comportement, et ne se permettent donc pas de garder des variables non significatives. Il y a un système de tests, une méthodologie que les économistes doivent respecter. Les grosses différences sur les modèles, enfin sur ce type de modèle néokeynésien c’est comment est traitée l’offre. Parce que la première partie, celle de court terme, n’a pas de raison d’être très différente d’un modèle à l’autre.

Par contre, il existe d’autres types de modèles, des modèles d’équilibre général. Je ne vais pas en dire plus mais ils sont également utilisés et sont plus intéressants pour faire de la prévision longue. Ils introduisent des principes d’équilibre de long terme basés sur des comportements respectant la théorie macroéconomique. Le problème, c’est que leurs résultats ne sont pas toujours facilement utilisables par les décideurs publics.

Participant

Je voudrais revenir sur un aspect de la modélisation. D’une génération de modélisateurs à une autre, y a-t-il des représentations, des modélisations qui diffèrent parce que, à un moment, on considère que le modèle a fait son temps, indépendamment des aspects doctrinaires que vous avez évoqués ? Est-ce qu’il y a des évolutions qui interviennent par sauts ou simplement parce que la puissance informatique offre des capacités de raffinement qu’on n’avait pas autrefois.

Est-ce que vous introduisez dans ces modèles, de façon explicite, des variables aléatoires comme on peut le faire dans des disciplines comme la Finance. Dans la banque, on a introduit explicitement l’incertitude dans les modèles. Sous quelle forme ça existe dans ce que vous évoquez ? Et puis, une dernière question : quid de l’intelligence artificielle, qui aura certainement à moyen terme des effets de substitution probablement assez importants sur le travail. Est-ce que ces éléments-là sont pris en compte ?

Pierre Joly :

C’est vrai qu’aujourd’hui, on ne fabrique plus de très gros modèles économétriques. Il y en a, en revanche, pour travailler sur les problèmes d’environnement. Némésis, qui ressemble beaucoup à DMS, est utilisé pour des contrats avec la Commission européenne parce que les Français sont plutôt bons, ils ont de bons outils.

Quant au calcul stochastique, on ne l’introduit pas tellement parce que les utilisateurs n’aiment pas avoir un produit qui, suivant que vous le faites tourner à deux heures, à trois heures ou à quatre heures, vous donne des résultats différents. On peut dire : « Sur des données exogènes, je mets de l’aléa et puis je fais un très grand nombre de simulations et après je regarde les résultats. Je ne suis plus suffisamment dans l’opérationnel pour savoir si ça se fait. Ça doit être assez coûteux, je comprends que ça puisse servir dans les métiers de la Finance mais les outils dont je vous ai parlé ont vocation à répondre à des demandes publiques importantes. Je ne sais pas comment vous pourriez expliquer à un ministre qu’on a mis des aléas et que suivant les aléas, il faudrait prendre des mesures différentes…

Quant à l’intelligence artificielle, il est certain qu’elle va prendre de la place. Personnellement, je suis un peu choqué de voir utiliser des techniques, pour mesurer des grandeurs, consistant à dire : « Je prends toutes les variables existantes, je fais tourner l’ordinateur et je regarde celles qui sortent. » Je fais partie d’une école où l’on voulait comprendre les mécanismes, pouvoir les expliquer, pouvoir dire : « La consommation augmente de telle manière parce que les prix baissent, ou les prix baissent parce que le taux de chômage a augmenté ». Enfin, on voulait pouvoir tenir, derrière des chiffres, un raisonnement économique.

C’est pour ça que je dirai que l’intelligence artificielle est une facilité, qui dégrade, à mon avis, le principe même d’essayer de comprendre les mécanismes.

Pierre Joly

Il faut savoir comment les big data vont être utilisées. Les jeunes de l’Ensae vont se régaler avec les modèles qu’on va construire. À un moment on avait intégré ce qu’on appelait les modèles VAR (vectoriels autorégressifs). c’était des modèles purement statistiques où on expliquait une variable par rapport à son passé. Il y avait plusieurs types de modèles VAR. C’était assez compliqué mais ça faisait des super courbes statistiques à l’Ensae. Mais derrière on se demandait : « A la limite, pourquoi on ne tire pas une droite. C’est dix fois plus simple que de faire des maths de haut niveau. » Donc, je pense que l’avenir ça sera ça.

Il y a juste une chose que je voudrais mettre en avant, par rapport à ces outils. Ces modèles ont quand même des cadres comptables stricts, qui constituent des forces de rappel importantes pour tempérer les opinions des décideurs. Quand on dépense de l’argent il faut le retrouver quelque part et lorsqu’on prend une mesure de politique économique elle peut impacter à la fois les taux de change, l’emploi, la consommation, l’investissement… Elle va jouer sur de nombreux domaines et ça rappelle à tout le monde que des équilibres vont être affectés et qu’on ne peut pas imaginer une mesure dans l’absolu sans regarder toutes les conséquences induites. C’est le problème des modèles non bouclés. Les modèles macroéconomiques sont tous bouclés et c’est leur force et leur utilité « sociale » alors que des modèles, par exemple, sur l’environnement, sont plutôt techniques ; ils expliquent bien comment des mesures vont influer d’un secteur sur l’autre mais derrière on ne décrit pas ce que ça signifie pour le consommateur, ce qu’il va payer, ce qu’il ne va pas payer. L’État subventionne, mais avec quel argent ? Donc, les modèles du genre de Némésis ont l’intérêt d’être bouclés. Ils décrivent plutôt mieux la réalité, et ils ont des appendices qui permettent de dire en plus que quand un secteur fonctionne, il produit tant de carbone ; à la limite c’est une variable accessoire, elle n’a pas d’impact économique direct, sauf si on met une taxe sur le carbone. Là, on peut dire : « Ça aura tel impact sur tels secteurs. ».

Participant

Moi aussi, je suis un grand amateur des modèles qui bouclent mais est-ce que dans le monde d’aujourd’hui, dans l’économie d’aujourd’hui, on peut encore envisager des modèles qui bouclent là où on a des économies beaucoup plus ouvertes qu’autrefois ; lorsqu’on était dans le Plan, c’était le circuit du Trésor, le contrôle des changes. Aujourd’hui, on a non seulement des économies beaucoup plus ouvertes mais aussi des systèmes financiers complètement ouverts avec des masses énormes de capitaux qui peuvent impacter l’économie réelle. Est-ce que dans ce contexte-là, on peut encore imaginer un niveau de bouclage qui inclut cette partie financière ?

Pierre Joly

Tout à fait. Dans les modèles dont je parlais, dont on se servait au Plan, c’était le début de la libéralisation financière, avec tous ses impacts et on décrivait la partie financière  de manière presque exogène. L’état fixait les taux des livrets, les taux d’intérêt, la masse monétaire. Tout était sous contrôle. Et puis on a eu l’euro d’un côté, et la libéralisation du secteur financier. Les financements peuvent aller partout. Ça a un avantage pour le modélisateur, qui peut tabler sur la rationalité de ceux qui déplacent ces sommes et en rendre compte dans le modèle alors que ce qui est contrôlé par un État, vous ne pouviez que le considérer comme exogène.

Donc, ça a une vertu pour les modélisateurs. En même temps, les modèles actuels ont des équations sur les changes vis-à-vis des zones non-euro. Mais dans la zone euro, il n’y a pas de différences de change entre ses membres.

Le fait, par exemple, que des entreprises vont choisir de s’installer à un endroit ou à un autre n’est pas remarquablement décrit, mais ce qu’on dit sur l’investissement va toutefois en rendre compte : si les conditions économiques sont plutôt favorables, les entreprises vont s’installer et l’investissement va croître. C’est à travers des règles de ce genre qu’on pourra dire que des conditions d’installation favorables ont un impact favorable sur la croissance du pays. A l’opposé, si les conditions sont moins bonnes, il y aura moins d’investissements. Mais c’est l’entreprise qui prend une décision d’investissement, et les modèles ne vont pas à ce niveau de finesse sur le comportement de chaque type d’entreprise.

Participant :

Avec les raisonnements qui dépassent le cadre économique classique, on a vu des quantités monstrueuses de capitaux qui, au lieu d’être utilisés en investissements productifs ont été utilisés pour racheter des actions afin de doper les cours, parce qu’il y avait un afflux de capitaux sans commune mesure avec ce qui existait auparavant. Et là, on perturbe de manière négative — et imprévisible par les modèles classiques — les décisions d’investissement qui font tourner l’économie réelle.

Pierre Joly :

Je pense en effet que les modèles n’en rendent pas bien compte.

Participant :

On a parlé de modèles puisque c’est la base des prévisions macroéconomiques, mais à côté il y a toujours eu des monographies, des études spécifiques. Les gens du Plan (ou maintenant d’un service quelconque de prévision) vont voir le Ministre en disant : « Voilà le modèle et puis à côté on a fait quand même un petit travail sur les comportements.» Je regardais, par exemple, récemment le financement des start-ups en France. Nous sommes les champions du financement de la phase de démarrage et des deux premiers tours de table. A partir du moment où on arrive dans la phase de croissance forte, on est nuls, on n’a pas assez d’investisseurs et les entrepreneurs sont forcés de traverser l’Atlantique. C’est complexe comme mécanisme, on ne peut pas facilement le rendre par une variable d’investissement. Donc, il faut bien, à côté, qu’il y ait des monographies.

Pierre Joly :

Sur un sujet comme celui-là, à la Direction du Trésor, ils ont un modèle mais c’est une toute petite partie de leur production. Ils travaillent sur les secteurs, ils lisent les monographies, ils font des maquettes, il y a toute une production économique qui peut passer par des outils ad hoc ou simplement par la lecture d’études. Mais c’est vrai que le Trésor a toujours envie de revenir à des chiffres.

Du côté des modèles macroéconomiques, les start-ups c’est le petit côté des entreprises. Ce n’est pas le problème du modélisateur, qui décrit certes les grandes entreprises, les entreprises de taille intermédiaire et les PME. Mais en termes d’emploi et d’investissement, les grandes entreprises c’est gigantesque. On dit que small is beautiful mais en réalité ce sont les grandes entreprises qui ont la plus grosse partie de l’emploi, la plus grosse partie de l’investissement, qui sont présentes à l’exportation, à l’importation. On espère que les petites entreprises vont se développer, que quelques-unes vont devenir Google. Mais pour le modélisateur qui doit prévoir le PIB et l’emploi, elles ne méritent pas qu’il s’y investisse particulièrement!

Participant :

À propos des start-ups, leur impact immédiat va être très faible dans l’économie réelle, mais l’aspect financier, avec les fonds qui vont amener des survalorisations peut, en revanche, avoir un impact non négligeable sur les cours de bourse et sur des indices purement financiers.

Pierre Joly

En fait, on n’en tient pas tellement compte, le financement des entreprises, en général, c’est des descriptions relativement sommaires, avec les outils dont je vous ai parlé. Il y a des services, à la Direction du Trésor, plus spécialisés sur ces questions, et je ne connais pas bien leurs outils. Ce sont le plus souvent des énarques, et je ne sais pas s’ils sont aussi modélisateurs, ils sont moins « Insee » que dans l’autre partie du Trésor, qui est plutôt du côté de la modélisation. Mais, pour faire court, en-dessous du milliard d’euros, ça n’intéresse pas tellement le modélisateur, cela relève de la maquette. Les scénarios sont un outil qui peut aussi être utilisé pour aller un peu plus dans le détail de ce qui se passe dans une région ou dans un secteur particulier ; ils ont l’avantage de donner un cadrage qui peut être pertinent.

Pierre Joly :

Encore un point que j’aurais pu évoquer… la conjoncture utilisait beaucoup, à une époque, le modèle METRIC dont Patrick Artus était l’un des fondateurs, et on s’en servait aussi au Plan. Le problème des modèles c’est qu’ils lissent beaucoup et donc pour de la conjoncture ce n’est pas terrible. Quand il y a eu les grands ralentissements en 1990, nous avions rencontré, avec le Commissaire général du Plan, le patron du Medef, qui disait : « Mais vous ne vous rendez pas compte. » On voyait bien qu’il y avait un ralentissement, mais lui nous disait : « Mais ça s’effondre ! » Effectivement même les conjoncturistes avaient du mal à le percevoir parce qu’ils utilisaient des outils où l’on voyait que ça baissait, mais qui faisaient jouer des forces de rappel, minimisant beaucoup la crise. Les chefs d’entreprise disaient : « Mais attendez, c’est la « cata », ça ne marche plus du tout. » Leur diagnostic était juste, et là il y a eu presque un conflit au sein de l’équipe, entre ceux qui défendaient la manière traditionnelle et ceux qui dénonçaient cet aspect négatif des modèles. Finalement, maintenant, on utilise beaucoup plus les enquêtes de conjoncture, qui sont nettement plus réactives ; on leur donne plus de poids pour décrire la conjoncture. A l’opposé, si vous prenez le modèle Mésange, il est utilisé une fois que la conjoncture est passée pour essayer de comprendre, parce qu’il apporte des éléments de compréhension globaux sur les comportements économiques à l’œuvre et qu’il peut aider à les décrypter ex-post. Il y a donc une inversion de l’utilisation de ces outils.

Marc Mousli 

Merci beaucoup, Pierre. Grâce à toi nous avons fait une plongée dans un domaine que nous n’avions jamais exploré jusqu’ici et qui est considérable. Il y resterait beaucoup à dire sur la façon dont les clients de l’Insee prennent leurs décisions. Quand on a donné les prévisions au Ministre, qu’est-ce qu’il en fait ? C’est autre chose, d’extrêmement intéressant d’ailleurs. Nous en avons un peu parlé au Café avec Stéphane Cordobès, de la DATAR, et Bruno Hérault, du Centre de prévision du Ministère de l’Agriculture : comment faire accepter des résultats à un décideur ? Mais ce n’est plus la responsabilité des modélisateurs. Merci beaucoup pour cette séance.