Tous les articles par cafedelaprospective

Café de la prospective du 16 mai 2018 – Fabrice Roubelat

Café de la prospective du 16 mai 2018 – Fabrice Roubelat

Le 16 mai 2018,  le Café de la prospective recevait Fabrice Roubelat pour une séance consacrée à la prospective de la stratégie internationale.

Nous avons beaucoup parlé de porte-avions, et scénarios et de paradigmes. Une excellente séance dont vous pourrez retrouver l’écho dans l’article de Fabrice, « Prospective, mondialisation et stratégie internationale », publié dans le n° 8 de la revue Prospective et stratégie, accessible sur Cairn.info.

Café de la prospective du vendredi 9 mars 2018, au CNAM

Café de la prospective du vendredi 9 mars 2018, au CNAM

Le Café de la prospective s’est mis au régime sec vendredi matin : pas de bière, pas de petit blanc (j’ai beaucoup regretté le Quincy du Café de la Mairie). En revanche, en nombre d’intervenants, c’était l’abondance dans cet amphi très traditionnel du Cnam. Une belle masterclass… merci à Régine Monti et à Philippe Durance de nous y avoir associés.

Café de la prospective du 24 janvier 2018 : Jacques de Courson et François Rousseau

Café de la prospective du 24 janvier 2018 : Jacques de Courson et François Rousseau

 

Le mercredi 24 janvier, le Café de la prospective a reçu Jacques de Courson et François Rousseau.
On peut lire en ligne le livre de Jacques de Courson : L’appétit du futur, voyage au coeur de la prospective » sur le site des éditions Charles Leopold Mayer :
http://www.eclm.fr/ouvrage-308.html

 

Café de la prospective du 13 décembre 2017 – Stéphane Cordobes

Café de la prospective du 13 décembre 2017 – Stéphane Cordobes

Le 13 décembre 2017 le Café de la prospective a reçu Stéphane Cordobes, responsable de la prospective au Commissariat général à l’égalité des territoires (CGET, ex-DATAR), enseignant au Cnam et ami du Café depuis sa création.

Stéphane a piloté des travaux passionnants par leurs réalisations et par les perspectives qu’ils ouvrent. Grâce à eux, la prospective territoriale a fait une entrée remarquée dans les classes et le monde de l’éducation nationale. Elle figure maintenant en bonne place dans les programmes de géographie des collèges et lycées d’enseignement général et professionnel. Anticipant ce mouvement, plusieurs académies, dont Lyon, Aix-Marseille et Lille, ont lancé depuis 3 ans des expérimentations et obtenu des résultats extrêmement encourageants. Cette dernière académie a été accompagnée par l’IFE (institut français de l’éducation) et le CGET dans le cadre d’un partenariat reconnu comme LéA (Lieu d’éducation associé). Les pratiques innovantes ont donné lieu à capitalisation pour bénéficier à l’ensemble des enseignants intéressés. Outre la mise en ligne d’un site national de ressources pédagogiques (http://ife.ens-lyon.fr/geo-et-prospective/), un dialogue constructif a été engagé entre praticiens scolaires, territoriaux et chercheurs. Car la prospective en classe ne transforme pas uniquement l’enseignement de la géographie, elle interpelle également la manière de mener les démarches et la réflexion prospective dans les territoires, en obligeant à considérer l’ingénierie sous un angle inaccoutumé, comme une véritable pédagogie de l’Habiter.

L’intervention de Stéphane Cordobes nous a permis  de débattre des apports de ces expériences et des interrogations sur la prospective territoriale qui en ressortent.

 

Café de la prospective du 8 novembre 2017 – Régine Monti et Philippe Durance

Café de la prospective du 8 novembre 2017 – Régine Monti et Philippe Durance

RéginephilippeLe mercredi 8 novembre,  le Café de la prospective a reçu Régine Monti et Philippe Durance.

Philippe Durance est professeur du Conservatoire national des arts et métiers (CNAM), titulaire de la chaire « Prospective et développement durable ».  Régine Monti est professeur associée. Ils ont participé activement à la création du Café de la prospective, qu’ils contribuent à faire vivre depuis 2011.

Ils se sont posé  une triple question : « Comment les entreprises intègrent-elles le long terme dans leurs processus de décision ? Quelle place y tient l’anticipation ? Et comment s’articule-t-elle avec l’action ? » et pour y répondre, ils ont mené une série d’entretiens avec les dirigeants de onze grandes entreprises, dont Danone, Michelin, Saint-Gobain, SPIE, Veolia, la Caisse des dépôts, Malakoff Médéric, etc.

Les réponses de ces dirigeants sont toutes différentes, mais elles illustrent bien comment chacun d’entre eux, avec son histoire et sa philosophie, anticipe, pratique la prospective et conçoit la stratégie de société ou de son groupe.

On en retire la conviction — réconfortante pour des prospectivistes — que la pérennité de ces entreprises centenaires s’explique largement par leur capacité d’anticipation. Parce qu’elles ont appris à faire face à l’inattendu, voire à l’imprévisible, en développant des stratégies permettant d’absorber les crises, elles ont su renouveler leurs modèles et apprendre de leur histoire, qui fait partie intégrante du « temps long » dans lequel elles savent se situer.

Ce rapport à l’histoire est l’un des enseignements de ce travail, qui s’est concrétisé par un livre publié chez Odile Jacob : « Le long terme comme horizon ».

Café de la prospective du 4 octobre – Raphaële Bidault-Waddington

Café de la prospective du 4 octobre – Raphaële Bidault-Waddington

Le mercredi 4 octobre à 19 heures, le Café de la prospective a reçu  Raphaële Bidault-Waddington.
Raphaële est artiste, chercheure et prospectiviste. Elle appartient à de nombreux réseaux académiques et artistiques dans lesquels elle apporte sa sensibilité, son imagination et ses compétences d’économiste et de prospectiviste.  Diplômée d’économie de l’immatériel, elle est membre du New Club of Paris, un réseau d’expert internationaux en politique d’innovation, du Prospective Lab (Cnam, Futuribles) et du collectif d’artistes et d’auteurs D-Fiction (d-fiction.fr ). En 2000 elle a créé le LIID Future Lab qui développe des labs à la croisée des sphères culturelle, académique, économique et urbaine, et prototype des méthodologies expérimentales qui peuvent inclure des formats artistiques (installations, architectures d’images, fictions).

Parmi de nombreuses collaborations en France et à l’étranger, elle réalise depuis 2012 avec l’agence Peclers, le cahier annuel Futur(s) qui ausculte les mutations du monde contemporain selon une méthode de signaux faibles, et à l’échelle internationale. Elle était venue nous présenter cette prospective du design et de la mode dans la 1ère saison du Café (2011 – 2012).

LIID pilote depuis 2008 le lab « Paris Galaxies, une vision pour le Grand Paris », hébergé depuis 2012 au sein de l’Institut ACTE (Art, Création, Théorie, Esthétique) de l’Université Paris 1 Panthéon Sorbonne, et lauréat à deux reprises (2013-14 puis 2015-16) du programme de recherche Paris 2030 de la Ville de Paris.
Ce projet modélise la métropole par le prisme de ses constellations, telle que celle cartographiant les lieux créatifs au-delà du Périphérique, où s’invente une métropole « bottom-up ».  Le projet inclut de nombreuses étapes telles que le workshop Grand Paris Futur (à horizon 2035). La dernière phase de recherche de ce projet,  sur laquelle s’est concentrée notre séance, est une expérience de Design Fiction qui prend la forme d’un récit « Paris Ars Universalis, scénario-fiction d’un futur Grand Paris », publié chez L’Harmattan en 2017.
Ars L’hypothèse des JO 2024 et de l’Expo Universelle 2025 sert de clé de voûte à l’analyse des transformations et à la projection future de toutes les strates de la métropole : gouvernance, urbanisme, économie, soft-power, culture, frivolité, religion, digital. Le Grand Paris devient alors le laboratoire de réflexions prospectives plus universelles et qui nous concernent tous.
Nous avons débattu avec Raphaële de (presque) tous ces sujets… et de quelques autres. Une séance passionnante totalement dans l’esprit du Café de la prospective.

Café de la prospective du 21 juin 2017 – Le syndrome de Cassandre – Marc Mousli

Café de la prospective du 21 juin 2017 – Le syndrome de Cassandre – Marc Mousli

Marc MousliMarc Mousli, économiste et prospectiviste,  est un des fondateurs du Café de la prospective, Il va ce soir vous présenter un travail en cours qu’il a appelé  le syndrome de Cassandre ou, de façon moins raffinée, Cause toujours !

J’ai constaté — comme beaucoup avant moi — que les catastrophes n’existaient pas. Des événements surviennent, et ils deviennent catastrophiques quand les hommes s’en mêlent … c’est-à-dire, le plus souvent, qu’ils préparent le terrain, faisant ce qu’il faut pour qu’un événement naturel ait de terribles conséquences alors qu’on aurait pu éviter qu’il se produise, ou du moins en limiter considérablement les effets négatifs.

Très souvent, on voit arriver la catastrophe, on dit qu’elle va se produire, et elle se produit quand même.

Pourquoi « le syndrome de Cassandre » ?

Apollon, dieu des arts et de la divination, était amoureux de Cassandre, la fille divinement belle de Priam, roi de Troie. Pour séduire la princesse, le fils aîné de Zeus lui avait fait un cadeau d’une grande valeur : le don de voyance. Il lui avait même permis de dire l’avenir en s’exprimant clairement, contrairement à la Pythie de Delphes, qui énonçait ses prophéties sous la forme d’énigmes absconses. La jeune beauté avait accepté le cadeau, mais s’était refusée au dieu. Pour se venger, Apollon l’avait condamnée à ne jamais être crue. La belle princesse est morte depuis trente siècles, mais la malédiction d’Apollon a continué à frapper ses compagnes et compagnons d’infortune, les milliers de chercheurs, d’experts, de techniciens, de journalistes et de « lanceurs d’alerte ». Ils décrivent la catastrophe qui s’approche, et personne ne les écoute.

Prévoir une catastrophe, puis la regarder se produire

L’un de nos grands prédécesseurs, Pierre Massé, expliquait que la bonne prévision n’est pas celle qui se réalise mais celle qui conduit à l’action, et que « prévoir une catastrophe est conditionnel ; c’est prévoir ce qui arrivera si nous ne faisons rien pour l’empêcher ».

Pierre Massé, Commissaire général du Plan du Général de Gaulle, énonçait ce qui était une évidence à ses yeux d’X-Ponts et de haut fonctionnaire : un dirigeant apprenant qu’une catastrophe va se produire fera tout ce qui est en son pouvoir pour l’empêcher. Donc, si un événement provoquant des dégâts considérables et faisant des centaines de morts se produit, c’est qu’il était imprévisible. Si les dirigeants n’ont pas réussi à l’empêcher de se produire, ou à en limiter les conséquences, c’est qu’ils ne savaient pas.

Bien entendu, tout cela est faux. De nombreux événements sont prévisibles, voire carrément prévus, et en tout cas clairement annoncés. Certains étaient évitables, et ils se sont produits quand même (les attentats du 11 septembre[1], la crise des subprimes, la chute de la Barings Bank ou l’affaire Kerviel). D’autres, notamment les cataclysmes naturels, ne sont guère évitables, mais on aurait pu éviter qu’ils ne deviennent des catastrophes, en protégeant mieux les installations et les hommes (Fukushima, Katrina), ou en prévoyant et en organisant correctement les moyens de secours (Titanic, Katrina, 11 septembre).

Entendons-nous sur le terme « catastrophe », un mot très fort (en grec καταστροφή : destruction, anéantissement). Un tremblement de terre de magnitude 8,9 sur l’échelle de Richter n’est pas une catastrophe, s’il se produit au milieu du Sahara, à des centaines de kilomètres de toute présence humaine. C’est un événement naturel. Si en revanche il se produit sur la côte nord-est du Japon, où l’on trouve deux centrales nucléaires en bord de mer, et qu’il se combine avec un tsunami, c’est un incident sérieux pour la centrale nucléaire de Fukushima Daini, qui devra être arrêtée et subira quelques avaries, et c’est une catastrophe nationale, avec d’incalculables répercussions dans le monde entier, pour Fukushima Daiichi, l’autre centrale, située à 12 kilomètres de Daini.

La catastrophe de Fukushima Daiichi était prévisible, prévue et évitable à peu de frais. Nous pourrons y revenir, mais je préfère parler de deux cas moins techniques : la crise dite « de 2008 » et l’ouragan Katrina.

Katrina, archétype de la catastrophe prévue.

« Un ouragan observé de très près qui a frappé là et quand les prévisionnistes avaient dit qu’il frapperait » Rapport du Sénat des États-Unis[2]

Le vent destructeur et l’eau imparable

Le 29 août 2005, l’ouragan Katrina dévaste la côte sud-est des États-Unis, du Mississippi à la Louisiane, sur une surface équivalant à la moitié́ du territoire français. La violence du vent provoque, comme d’habitude, de gros dégâts.

Mais dans La Nouvelle-Orléans, le pire ennemi des villes vient s’ajouter aux toitures détruites, aux voitures soulevées de terre, aux arbres arrachés : une inondation hors de tout contrôle. Bordée par le Mississippi et par le lac Pontchartrain, constituée pour moitié de plans d’eau et située en-dessous du niveau de la mer, la capitale du jazz est protégée depuis le 18e siècle par un système complexe, hétéroclite, d’efficacité très inégale, de digues (les « levées »)[3], et drainée par des pompes installées dans les années 1920.

Katrina ouvre des brèches graves dans les levées, très mal entretenues, et les pompes sont vite noyées. L’eau s’engouffre, détruisant tout sur son passage. Les quatre cinquièmes de la ville sont inondés (sous sept mètres d’eau à certains endroits) et tous les réseaux vitaux – électricité, eau potable, télécommunications – sont détruits. Sur les 28 hôpitaux, 25 sont privés d’électricité́, car les groupes électrogènes, placés en sous-sol, sont hors d’usage.

Les pompiers, les policiers, les transports publics, sont totalement désorganisés, les bâtiments de la garde nationale et de la police ont été envahis par les eaux, les matériels de secours sont détruits ou rendus inaccessibles.

Un ouragan terrible, mais annoncé et pas exceptionnel

Tous les habitants qui le peuvent évacuent la ville. Un tiers de la population ne reviendra pas de son exil forcé. Mais le sort le plus terrible est celui des 100 000 personnes restées dans les zones dévastées. Elles vont vivre une semaine de cauchemar. On comptera 1836 morts, 705 disparus, 100 milliards de dollars de dégâts matériels.

Tout cela alors que Katrina était un ouragan dangereux mais pas exceptionnel : de force variable[4] selon les moments, il a été classé comme le 10e, le 4e ou le 3e cyclone de la saison 2005. Et fort heureusement, son épicentre ne se trouvait pas au cœur de la ville, mais à 100 km à l’est. Comme trop souvent, le bilan très lourd est dû à l’incurie et au comportement aberrant des autorités locales, qui savaient pourtant ce qui allait se passer :

« Avant l’arrivée de Katrina, les dirigeants prennent clairement conscience qu’ils vont au drame. Ensuite, il leur faut une journée pour prendre acte de la réalité de ce qui ne faisait pour eux aucun doute [5]».

Un drame prévu, décrit et modélisé

L’un des rapports d’enquête publiés interroge :

« Pourquoi sommes-nous à chaque fois en retard d’une crise ? […] On a du mal à comprendre comment un gouvernement peut réagir de façon aussi inefficace à une catastrophe anticipée depuis des années, et pour laquelle des avis de sinistre précis avaient été lancés quelques jours plus tôt. Le drame n’était pas seulement prévisible, il était prévu ».

Des scénarios très réalistes : la série d’articles dans National Geographic, le mensuel de la Société nationale de géographie

Les documents prévoyant la catastrophe sont nombreux. L’un des plus impressionnants est la série de quatre articles que publie Joel Bourne à partir d’octobre 2004 :

« Des milliers de personnes noyées dans l’infecte boue liquide empoisonnée par les égouts et les rejets industriels. Des milliers d’autres, ayant survécu à l’inondation, sont morts de déshydratation et de maladie pendant qu’elles attendaient d’être secourues. Il a fallu deux mois pour pomper toute l’eau qui avait envahi la ville, au bout desquels la Nouvelle-Orléans était recouverte d’une épaisse couche de sédiments putrides. Un million de personnes étaient sans abri et 50 000 étaient mortes. La pire catastrophe naturelle de l’histoire des Etats-Unis.[6] »

Joel Bourne prévoyait un nombre de victimes supérieur à ce qu’il a vraiment été, car il situait le cœur du cyclone en pleine ville, alors que celui de Katrina se trouvait à 100 km à l’est. À ce détail près, on aurait pu, un an plus tard, faire passer ces quatre articles prémonitoires pour un reportage dans La Nouvelle-Orléans sinistrée.

Un exercice simulant l’ouragan, par la Protection civile fédérale

Les services fédéraux de la protection civile étaient aussi inquiets que les journalistes locaux. Ils avaient organisé en Louisiane, en juillet 2004, un exercice simulant un cyclone aux caractéristiques très proches de celles de Katrina. Ils avaient eux aussi surestimé le nombre de morts, mais vu juste en prévoyant que 100 000 personnes n’évacueraient pas la ville. L’exercice avait révélé une mauvaise préparation à̀ ce type de catastrophe, mais aucune mesure n’avait été prise pour remédier aux failles détectées.

Les ultimes avertissements, quelques jours avant la catastrophe

Enfin, quelques jours avant le 29 août 2005, le directeur du Centre national d’étude des ouragans (National Hurricane Center) multiplie les coups de téléphone aux responsables politiques locaux pour les avertir de l’arrivée de Katrina et de sa dangerosité. Il ne parvient pas à toucher le maire. Ses avis sont relayés par les nombreuses chaînes de télévision consacrées à la météo, mais la population ne réagit pas : « Comme le maire n’a rien dramatisé, personne ne prenait Katrina au sérieux[7] ».

Seule la gouverneure de la Louisiane s’alarme. Elle demande au maire de recommander l’évacuation de la ville et fait mettre en sens unique les autoroutes.

Refusant de recourir à Amtrak[8], le maire laisse un train vide quitter la ville en direction de McComb dans le Mississippi, et quand il se décide enfin à réquisitionner les bus, on ne trouve plus de conducteurs : ils sont déjà partis avec leurs familles.

(Absence de) morale de l’histoire

Ray Nagin, le maire démocrate afro-américain de La Nouvelle-Orléans depuis 2002, très critiqué pour sa gestion des secours, a été réélu le 20 mai 2006 avec 52,3 % des voix.

Le journaliste du Monde saluait cette réélection en expliquant que « la ville est au bord de la faillite, l’électricité́ et l’eau sont loin d’être rétablies partout, les digues ne sont pas encore réparées et la saison des ouragans (juin à septembre) va commencer » (Le Monde, 22/05/2006)

 

La crise de 2008, un krach prévisible et prévu

J’ai commencé à m’intéresser aux catastrophes prévisibles à l’été 2007. En vacances à Zurich, j’ai trouvé dans une librairie[9] un livre de Paul Jorion : Vers la crise du capitalisme américain[10]. Cet anthropologue, ancien trader, y décrivait le mécanisme des subprimes, expliquait en détail les pratiques frauduleuses des courtiers qui poussaient des ménages insolvables à contracter des emprunts, et annonçait la crise.

J’ai été impressionné par la justesse de la prévision, dans un livre publié en janvier 2007. En fait, j’ai appris un peu plus tard en bavardant avec Paul Jorion qu’il avait fini de l’écrire en 2004 et cherché un éditeur pendant deux ans !

Parfaite Cassandre, il s’imaginait que sa description solide et argumentée de la réalité allait susciter un écho.

Les dimensions de la crise de 2008.

On considère habituellement que c’est BNP Paribas qui a donné le signal de la crise « des subprimes » le 9 août 2007, en bloquant l’activité de trois de ses fonds de placement comportant des obligations hypothécaires subprime.

Pendant les dix années qui vont suivre, les pays développés seront plongés dans la plus grande dépression depuis celle des années 1930.

Aux États-Unis, plus de quatre millions de ménages modestes ont été chassés de leurs maisons saisies par leurs créanciers entre 2007 et 2012. Des centaines de petites banques (et une demi-douzaine de grandes) ont fait faillite, et la crise économique qui a suivi a mis au chômage plus de 35 millions de travailleurs dans le monde.

Le mécanisme bien huilé du marché immobilier résidentiel

À l’origine de cette catastrophe monstrueuse, il y a le marché immobilier résidentiel américain.

Ce marché fonctionnait selon une routine bien établie : un jeune couple achetait une maison avec un apport initial modeste et un prêt hypothécaire sur 20 ou 30 ans. Il revendait son bien, dix ans plus tard, avec une plus-value qui lui permettait d’acheter plus grand ; il renouvelait l’opération une ou deux fois au cours de sa vie, puis, quand ses enfants avaient quitté le foyer, le couple revendait sa grande maison, en achetait une plus petite et disposait de la plus-value pour sa retraite.

Le grain de sable des subprimes

Ce mécanisme bien rodé a été fragilisé quand le gouvernement, désireux d’accroître le nombre des propriétaires, a encouragé les prêts à des populations aux revenus très modestes. Les courtiers ont proposé une formule attractive : pendant les deux premières années, l’emprunteur n’avait à rembourser que les intérêts, calculés à un taux bas (et fixe). À partir de la troisième année, les remboursements réels commençaient, avec un taux variable et plus élevé que celui des prêts ordinaires. Grâce à la croissance très rapide de la valeur du bien, l’hypothèque garantissait le risque de défaut de l’emprunteur. Malgré cette garantie, ce type de prêt dit subprime était plus risqué que la moyenne (le « prime », consenti à un public solvable) et les banquiers s’y engageaient avec une certaine prudence.

Une innovation financière géniale : la titrisation

Une innovation financière ingénieuse, la titrisation, va complètement dérégler le système : au lieu de garder la créance dans ses comptes, le prêteur la revend à une grande banque qui la combine avec des centaines d’autres présentant différents niveaux de risque, pour fabriquer des titres composites proposés aux investisseurs. Les banques font habilement noter ces titres AAA ou AA par les agences de notation, qui n’y voient que du feu.

La titrisation transforme les prêts subprime, très rentables mais risqués, en une excellente affaire, puisqu’elle supprime les risques, qui sont noyés dans les titres, véritables millefeuilles de contrats, et dispersés aux quatre coins du grand marché mondial. Du coup, le montant des contrats subprime s’envole : 30 milliards de dollars en 1990, 625 milliards en 2005. Tout est en place, la crise peut exploser. Il suffit de mettre le feu au cordon bickford. La mise à feu va être réalisée par la baisse du marché immobilier, jusqu’ici inconcevable par le grand public américain, mais aussi par de nombreux banquiers et financiers. L’augmentation entre 1997 et 2005 était aberrante, mais n’était en fait que la prolongation d’un demi-siècle de hausse des prix de l’immobilier résidentiel, qui avaient déjà crû sans aucune pause depuis l’après-guerre jusqu’en 1996, à l’exception d’une légère baisse en Californie et au Texas au début des années 1990.

La très mauvaise surprise : les arbres ne montent pas jusqu’au ciel

Jusqu’ici, la poursuite de la forte progression de la valeur des biens, d’une part, et la faiblesse des remboursements pendant les deux premières années, d’autre part, limitaient le nombre de défauts.

Mais au printemps 2007 le marché immobilier se retourne. La baisse des prix ne permet plus de compter sur des hypothèques toujours plus élevées, les débiteurs voient donc se dérober la planche de salut qu’était la garantie hypothécaire, et une proportion importante d’entre eux fait défaut lorsqu’ils sont confrontés au choc de la troisième année.

De la crise des subprimes à la crise financière

La valeur des titres contenant des subprimes baisse, puis s’effondre. Ce qui serait un coup dur pour les marchés, mais pas une catastrophe si ces titres étaient bien identifiés. Mais la titrisation rend opaques les titres composites, et les investisseurs comprennent assez vite qu’on ne peut pas faire confiance aux AAA ou AA fantaisistes des agences de notation. La méfiance s’étend comme une traînée de poudre et toutes les transactions sont bloquées.

La crise financière fait des ravages. Elle atteint son summum le 15 septembre 2008 quand Lehman Brothers, quatrième banque d’investissement américaine par la taille, se déclare en faillite. Les États-Unis, et avec eux la moitié du monde, s’installent dans la crise économique.

 

Les Cassandre

En novembre 2009, la reine d’Angleterre reçoit des économistes. Elle leur demande : « pourquoi n’avez-vous pas prévu la crise ? » Elizabeth II se trompe : des économistes avaient parfaitement prévu et annoncé la crise, mais personne ne les avait écoutés.

 Gramlich, professeur d’économie et membre du Conseil des gouverneurs de la FED

Plusieurs universitaires avaient dénoncé en vain la bulle immobilière formée à partir de 1997 et qui a éclaté en 2007.  Certains d’entre eux avaient compris qu’une crise immobilière était en préparation. Citons le mieux placé pour agir : Edward J. Gramlich, professeur d’Université en économie, membre du Conseil des gouverneurs de la FED de 1997 à 2005.

En 2000, inquiet de voir les prêts risqués se multiplier, il avait demandé à son collègue Alan Greenspan, président de la FED, de lancer une enquête sur les pratiques des banques. Ce dernier avait refusé par pure idéologie : Greenspan était libertarien, et donc toujours partisan de laisser faire le marché au maximum. Placé dans un poste où il était le plus grand influenceur mondial des marchés — en quelque sorte un super-régulateur —, il était plus que sceptique sur l’effet des régulations.

La police

Nous ne développerons pas les craintes du FBI, qui avait averti la Chambre des représentants dès septembre 2004, en séance publique, de l’ « épidémie » de fraudes aux prêts immobiliers susceptible d’engendrer une « crise » financière si elle n’était pas endiguée à temps.

Nouriel Roubini

Nombre d’économistes avaient prévu plus ou moins clairement  la bulle immobilière, avec beaucoup d’approximations et d’incertitudes sur la date de son implosion. Très peu avaient vu arriver la crise financière. La pensée du mainstream était : « La chute de l’immobilier fera plonger les marchés, mais il ne faudra que quelques mois pour que tout rentre dans l’ordre ».

L’avertissement le plus spectaculaire par sa pertinence et sa précision a été lancé le 7 septembre 2006 par un professeur de sciences économiques à l’Université de New York, Nouriel Roubini, devant des économistes du Fonds Monétaire International. Il dresse un tableau exhaustif et précis de la catastrophe qui va éclater onze mois plus tard. Tout y est : le fiasco de la politique du logement, la crise financière, la faillite des deux grandes entreprises semi-publiques chargées de réguler le marché hypothécaire et la distribution des crédits immobiliers (Fannie Mae et Freddie Mac), la récession sévère de l’économie américaine, la propagation de la crise aux autres pays développés, les réactions de la FED, qui a en quelques mois abaissé son taux directeur de 5 % à 0. Il a même prévu, alors que les prix du pétrole étaient en hausse régulière, la troisième crise pétrolière.

Lorsque Roubini quitte la tribune, le modérateur de la conférence, rigolard, lance : « Eh bien, après cela, nous allons sans doute tous avoir besoin d’un petit remontant ! »

Les traders qui avaient tout compris

Lorsque Roubini annonce la catastrophe il ne court que le risque d’être surnommé « Doctor Doom » (Docteur Catastrophe). C’est effectivement le sobriquet qu’il a définitivement gagné !

Des traders ayant, avant lui, vu venir la catastrophe ont, eux, risqué non seulement leur réputation (un capital extrêmement précieux dans la finance) mais aussi leur argent (beaucoup). Dès le printemps 2005, ils ont anticipé la baisse du marché immobilier et calculé que les défauts des emprunteurs se multiplieraient à partir de 2007. En spéculant contre les subprimes, ils ont gagné des milliards de dollars. Michael Lewis a raconté quelques-unes de leurs histoires dans un livre : The Big Short (Le Casse du siècle)[11], porté à l’écran en 2015, sous le même titre, par Adam McKay. L’histoire la plus pittoresque est celle de Michael Burry, qui a fait créer un instrument financier, les CDS, spécialement pour spéculer contre les subprimes.

Gregory Zuckerman a raconté, dans The Greatest Trade Ever comment un autre gestionnaire de fonds, John Paulson, a mené à bien en 2007 la plus grande spéculation de l’histoire : il a gagné 15 milliards de dollars pour son fonds d’investissement (et 4 milliards de dollars pour lui) en pariant, comme Michael Burry et avec le même outil : le CDS, contre les titres subprime[12].

Dans la même veine, plusieurs banques ont joué un double jeu, poussant d’un côté leurs clients à acheter des titres contenant des obligations hypothécaires subprime, tandis que de l’autre elles réduisaient leur exposition au risque de ces mêmes prêts, parfaitement conscientes de la prochaine baisse des prix de l’immobilier. Citibank, par exemple, a commencé à spéculer contre les subprimes en 2006, tout en continuant jusqu’en 2007 à vendre des titres pourris à ses investisseurs. On peut également citer Bank of America, JP Morgan-Chase, Deutsche Bank, etc.

La Securities and Exchange Commission (SEC, leur Autorité des Marchés Financiers) et l’US Department of Justice n’ont pas passé l’éponge sur ce double jeu. Ils ont infligé des amendes colossales aux plus grands escrocs : 16,65 Mds à la Bank of America, 13,4 Mds à JP Morgan Chase, 7,7 Mds à Citigroup, 7,2 Mds à la Deutsche Bank, 5,2 Mds au Crédit suisse, 5,06 Mds à Goldman Sachs et 5 Mds à Morgan Stanley.

Débat

Participant

Comment le système des subprimes a-t-il pu prendre cette ampleur, et quel a été le rôle des mafias dans la crise ?

Marc Mousli

Les Américains n’avaient pas besoin de mafias pour fabriquer cette crise. Ils ont l’habitude de faire de la « cavalerie » en payant le solde d’une carte de crédit avec une autre carte de crédit, et dans toutes les villes américaines il y a des boutiques signalées par une enseigne « Change » où les immigrés illégaux peuvent encaisser leur chèque de paie sans avoir de compte en banque…Ils sont donc habitués à manipuler de l’argent sous de multiples formes. Et tout le monde a participé à la crise : financiers réputés, courtiers véreux … et victimes. Dans le film Cleveland contre Wall Street, certains emprunteurs reconnaissent leur complicité : le système était tellement séduisant qu’ils avaient acheté plusieurs logements ! Ils étaient persuadés de ne rien risquer grâce au parachute de l’hypothèque.

Quant aux pouvoirs publics, le système a été lancé par Reagan, et tous les présidents jusqu’à George W Bush ont suivi. C’est une combinaison fantastique de générosité et d’astuce : générosité des hommes politiques qui ont voulu rendre propriétaires des gens qui n’en avaient pas les moyens, et astuce des banquiers qui ont su diversifier les risques et les répartir sur les marchés. Voilà comment on fabrique une catastrophe avec de la générosité et de l’intelligence astucieuse.

Régine Monti

Les deux exemples questionnent la posture des experts que l’on n’écoute pas… ce qui est fréquent en prospective.

Marc Mousli

Dans le cas de Katrina, il y avait d’une part des professionnels dont c’était le métier de surveiller les ouragans (les météorologues) et d’entretenir les installations de sécurité (les ingénieurs). Ce n’était pas des experts extérieurs dont on se méfie toujours un peu : l’État les payait pour ce travail, ils étaient sur leur terrain d’action habituel et ils connaissaient bien sûr les dangers et les risques mieux que personne.

Quant à la crise de 2008, l’un des protagonistes était Ben Bernanke, Président du conseil des gouverneurs de la FED après avoir dirigé le groupe des conseillers économiques du président[13]. Il connaissait très bien G.W. Bush, qu’il voyait à peu près chaque jour. Ils parlaient de la situation, mais son approche était biaisée par la doctrine : imprégné (comme son prédécesseur Alan Greenspan) d’idéologie libérale, il intervenait le moins possible. Il lançait une bouée quand une banque était au bord de la faillite, en cherchant à ce que ladite bouée ne porte pas les couleurs du drapeau américain : son objectif premier était de faire sauver l’établissement qui coulait par un autre établissement financier privé.

Participant

Ce qui frappe ce sont les difficultés à réagir face à des événements graves. En Guyane, personne n’a vu venir la concurrence faite par SpaceX à l’Aérospatiale. Un an avant l’élection présidentielle, personne n’avait vu arriver Emmanuel Macron. Et en Martinique, nous avons 50% des jeunes sans emploi, on n’arrive pas à se faire entendre et un jour ou l’autre ça va péter, malgré tous nos efforts !

Marc Mousli

Je me suis concentré sur des cas dans lesquels les enjeux étaient considérables. Cela permet hélas de constater que les décideurs privilégient toujours le court terme, sans tenir compte des enjeux, qu’ils semblent incapables de comprendre. L’exemple type, c’est Fukushima, dont les conséquences ont été mondiales, portant un coup très rude à l’industrie nucléaire. Je ne dirai rien de SpaceX, qui disrupte de façon assez classique l’Aérospatiale. Mais si on prend l’exemple de Katrina, on comprend bien que le maire de La Nouvelle Orléans, confronté à ces problèmes considérables de maintenance, se soit dit « les levées sont là depuis le 18e siècle, elles peuvent bien attendre encore deux ans ». Si j’avais été son conseiller, je lui aurais dit : « tu ne remettras pas en état les 190 km de digues en deux ans, mais tu peux commencer les travaux, motiver et inciter des propriétaires privés à faire de même, et surtout t’intéresser aux moyens de secours en cas d’inondation – fréquentes dans cette ville — afin de limiter les dégâts : faire déplacer les groupes électrogènes qui sont dans les sous-sols, vérifier l’organisation des services de transport s’il faut évacuer des habitants, vérifier les accès aux matériels de secours, etc.

Quant à l’élection d’Emmanuel Macron, on trouve dans un livre de Michel Houellebecq paru en 2015, Soumission, une description fort convaincante de sa future prise de pouvoir : Mohammed Ben Abbes est jeune, intelligent et cultivé. Il crée un nouveau parti et remporte l’élection au second tour face au FN, rassemblant des électeurs (et des élus) de tous les partis républicains, qui implosent. Et il s’allie avec François Bayrou, dont le soutien est décisif. Le livre a eu un succès considérable (600 000 exemplaires vendus en France dans le mois qui a suivi sa sortie, et meilleures ventes de l’année 2015). Des millions de gens (le livre a aussi eu un succès considérable dans de nombreux pays, notamment en Allemagne et en Italie) avaient donc lu le récit de l’accession à la présidence du pays d’un homme encore jeune (43 ans pour Ben Abbes, 39 ans pour Macron), fin stratège et remarquablement intelligent.

Participant

Ne serait-il pas intéressant de faire un catalogue des catastrophes à venir ? Il y a deux ans, une crue proche de la crue centennale s’est produite à Paris, et à ma connaissance on n’a rien fait depuis pour mieux protéger la capitale. De la même façon, la Californie est sous la menace du Big one. Un film, San Andreas, raconte l’ouverture de la faille de San Andreas, qui longe la côte du Pacifique du Canada au sud du Chili, et la catastrophe qui s’ensuit.

Il serait donc intéressant de dresser une liste des catastrophes prévisibles pour lesquelles on ne fait rien.

Marc Mousli

Pour ce qui concerne les inondations catastrophiques dans notre pays, j’ai regardé d’assez près la tempête qui a touché la côte Atlantique à la fin février 2010, provoquant la mort de 59 personnes dont 47 en France. La commune la plus sinistrée a été celle de La Faute-sur-Mer, avec 29 morts.

La majorité des victimes ont été touchées entre le 27 et le 28 février, alors que les services météo avaient régulièrement lancé des alertes à partir du 23 février au soir, annonçant une dépression qui risquait de se transformer en tempête, et la Charente maritime, la Vendée, les Deux-Sèvres et la Vienne avaient été placés en alerte rouge. Plusieurs digues ont rompu, provoquant de fortes inondations.

Un rapport sévère de la Cour des comptes dénonce un laxisme criminel des maires : de 1999 à 2006, près de 100.000 logements ont été construits en zone inondable dans 424 communes françaises. Ce que ne dit pas la Cour des comptes, c’est que ce laxisme a été couvert, voire encouragé par la plus haute autorité de la République : en avril 2009, Nicolas Sarkozy déclarait : « Le problème c’est la réglementation. Pour libérer l’offre il faut déréglementer, élever les coefficients d’occupation des sols et rétablir la continuité du bâti dans les zones denses, permettre à chaque propriétaire d’une maison individuelle de s’agrandir, d’ajouter une pièce ou un étage, rendre constructible les zones inondables pour des bâtiments adaptés à l’environnement et au risque, utiliser les interstices, les délaissés d’infrastructures… Il faut changer nos procédures, notre façon d’appliquer le droit, sortir du respect passif d’une réglementation de plus en plus pesante ».

Pour le dossier le plus scandaleux, celui de La Faute-sur-Mer, une information judiciaire a été ouverte et le maire de la Faute-sur-Mer a été jugé et condamné.

Il est probable que l’affaire Xynthia se reproduira demain à l’identique. « L’Observatoire national sur les effets du réchauffement climatique a chiffré à plusieurs dizaines de milliards d’euros d’ici 2100 la destruction de logements que provoquera le recul de la côte pour la seule région Languedoc-Roussillon ». La seule solution est de construire en retrait des côtes. On voit mal les « petits » maires des communes littorales s’y résoudre !

Quant au Big One, la Californie est traversée par plusieurs failles (notamment San Andreas et Puente Hills), et les sismologues prévoient avec une très forte probabilité, à un horizon de 25 à 30 ans, un séisme majeur d’une intensité supérieure 7,5 sur l’échelle de Richter.

Je connais bien l’état de préparation à Los Angeles : les Angelenos prennent très au sérieux les tremblements de terre. Les bâtiments sont régulièrement remis aux normes antisismiques les plus sévères, la conduite à tenir en cas de séisme est connue de tous et les systèmes d’alerte collectifs et individuels sont sans cesse perfectionnés. Caltech[14] vient de mettre au point un « earthquake early warning » (EEW), avec une application que chacun peut télécharger dans son smartphone, et qui prévient dans la minute qui précède le tremblement de terre[15]. On ne peut pas sauver tous ses biens, mais on peut se jeter sous une table ou se placer dans un encadrement de porte.

Participant

On a une lecture a posteriori des événements. Mais dans les salles de marché, par exemple, on entend des milliers d’avis d’experts qui nous expliquent que la prochaine bulle ou le prochain krach est pour bientôt. Comment faire le tri ?

Lors de la crise des subprimes : la complexité des instruments était très grande : titrisation, swaps, CDO (Collateralized Debt Obligations), ABS (Asset Based Securities), CDS (Credit Default Swap), options diverses, etc. Est-ce que cela n’a pas limité les possibilités de réaction de certains acteurs ?

Sur ces sujets, on peut conseiller trois livres : Les Décisions absurdes, de Christian Morel, La soumission librement consentie, de Jean-Louis Bourgois et Pour un catastrophisme éclairé, de Jean-Pierre Dupuy.

Marc Mousli

Sur la première question, qui est sans aucun doute le point le plus crucial de ma recherche. Il y a des milliers de prévisions et d’avertissements, plus ou moins étayés, plus ou moins sérieux. Quand un avertissement est lancé par un expert sérieux, avec des arguments solides, on peut tendre l’oreille. Pour passer à la phase suivante : prendre des mesures, il y a un critère évident : les enjeux.

Parmi les exemples que j’ai donnés j’ai une certaine admiration pour les traders qui n’ont pas hésité à engager leurs propres fonds sur la crise de 2007, sûrs d’eux et de leurs analyses. Ils avaient su observer et étudier la conjoncture et, parmi tous les bruits de bulle immobilière, reconnaître la vraie opportunité et déduire le bon délai — ce qui est de loin la prévision la plus difficile à faire.

Quant à la complexité des instruments financiers et leur rôle dans la crise, il est clair que c’était, pour une partie de ces montages, une opacité voulue, une tactique des banques pour tromper les Agences de notation — qui se sont laissées faire, et ont donné des AA et des AAA à des titres pourris.

Participant

Il y a eu un faible écho médiatique aux 296 tremblements de terre à Yellowstone, la semaine dernière. On a là une menace énorme, pourtant.

La façon d’aborder le futur a beaucoup évolué à travers les âges. Autrefois il fallait pérenniser la civilisation dans des environnements très difficiles, et on travaillait à la fois sur la productivité et la résilience. La complexification des systèmes semble nous avoir focalisés sur l’efficacité, la productivité au détriment de la résilience. N’a-t-on pas négligé les gros problèmes — qui ont toujours existé — avec la circonstance aggravante de la complexité, qui multiplie les effets pervers et inattendus.

Marc Mousli

Rassurons-nous : les tremblements de terre de Yellowstone ne sont pas liés à la faille de San Andreas. Quant à l’appréhension des catastrophes au fil des siècles, entendons-nous d’abord sur le terme « catastrophe », un mot très fort (en grec καταστροφή : destruction, anéantissement). Un tremblement de terre de magnitude 8,9 sur l’échelle de Richter n’est pas une catastrophe, s’il se produit au milieu du Sahara, à des centaines de kilomètres de toute présence humaine. C’est un événement naturel. Si en revanche il se produit sur la côte nord-est du Japon, où l’on trouve deux centrales nucléaires en bord de mer, et qu’il se combine avec un tsunami, c’est un incident sérieux pour la centrale nucléaire de Fukushima Daini, qui devra être arrêtée et subira quelques avaries, et c’est une catastrophe nationale, avec d’incalculables répercussions dans le monde entier, pour Fukushima Daiichi, l’autre centrale, située à 12 kilomètres de Daini.

Les phénomènes provoqués par les humains sont en principe relativement maîtrisés. C’est lorsqu’on ne parvient plus à maîtriser des réactions en chaîne, comme dans la crise des subprimes, qu’une catastrophe survient. Pour les événements naturels, le facteur le plus important est la démographie : la population mondiale a été inférieure à un milliard jusqu’au début du XIXe siècle. En 2017, elle est supérieure à 7 milliards, et l’ONU prévoit qu’elle sera de 9,8 milliards en 2050. Il y a de moins en moins de chances pour qu’un grave événement naturel ne touche personne ! Et vous avez raison sur la résilience : la complexité de nos modes de vie peut nous sauver dans certains cas — grâce aux EEW qui nous préviendront de l’imminence d’un grave séisme, par exemple — et aggraver les dégâts dans de nombreux autres cas.

Régine Monti

Dans ta présentation, on voit des individus, et on ne voit pas le collectif, et ses représentants, agir.

Marc Mousli

Dans les cas que j’ai rapidement racontés, qui est le « collectif » ? Il y a des groupes de pression, des associations d’intérêts parfaitement antagoniques. Et ces « collectifs » ont-ils une efficacité plus grande que les dirigeants économiques ou politiques dont j’ai parlé ? Comme tout un chacun, je suis l’action contre les conséquences du changement climatique. Elle est menée par des ONG puissantes, censées représenter le collectif, et même l’avant-garde du collectif ! Mais je remarque dans ces organisations une versatilité qui n’empêche pas l’arrogance des militants persuadés d’avoir raison. J’ai dirigé il y a vingt ans un service de marketing stratégique. Nous nous sommes, un temps, intéressés à la biomasse, aux biocarburants … Nous étions à la pointe de l’écologie, puis, en quelques années, nous avons vu les carburants agricoles voués aux gémonies. Nous connaissons des épisodes comparables d’emballement suivi de fortes réserves pour les différentes techniques d’énergie solaire et éolienne, sans parler des véhicules électriques ou de l’économie collaborative (variante avancée, dans de nombreux cas, de l’économie de la fonctionnalité). On a l’impression qu’à chaque fois le collectif exacerbe les passions et les excommunications ! Et surtout, dans tous les cas dont j’ai parlé il existe une dimension « court terme versus long terme » et à ce jeu le collectif est très mauvais : il verse souvent dans le populisme !

Cela dit, l’important pour la population c’est l’information. Si des groupes ou des organisations vont chercher l’information, la diffusent, font comprendre les enjeux (si j’ai répété dix fois ce mot, c’est parce que c’est le talon d’Achille de toute la communication, qu’elle soit politique ou médiatique : on n’explique jamais les vrais enjeux). Prenons un exemple de « collectif » amorphe ou complice : les habitants de La Faute-sur-mer. Ils n’ont pas su (ou pas voulu) empêcher le maire de distribuer des permis de construire à volonté dans des zones inondables. Et pourtant les anciens savaient tout sur la question : ils mettaient naguère leur bétail à paître dans ces prés, ce qui est une utilisation intelligente : le jour où les terrains étaient inondés, les paysans mettaient simplement leurs bêtes ailleurs ou les gardaient à l’étable. Il n’y avait de dommage pour personne.

Participant

Des catastrophes avaient été clairement prévues et on n’a rien fait. Comment se fait-il que les gens intelligents aient aussi peu d’influence sur les événements ? La prospective peut-elle peser sur le  cours du monde ?

On a un peu parlé de guerre des idées ; il faut aller plus loin, et lutter aussi contre des croyances. On gagnerait donc à aller chercher un soutien du côté de la psychologie de la connaissance, de la sociologie de la connaissance, voire des travaux de Chaïm Perelman sur la rhétorique et l’argumentation, l’art de convaincre des personnes qui ne sont pas forcément rationnelles.

Marc Mousli

La prospective sait mettre à la disposition des dirigeants des scénarios très parlants. Ensuite, c’est à eux de s’en servir pour communiquer. Mais on a vu avec le cas de Katrina que l’on pouvait diffuser des scénarios durs, cruels, et non seulement pertinents mais, ce qui est beaucoup plus rare, précis, sans que la municipalité ou la population ne réagisse. Il est difficile d’influencer la décision publique dans ce sens : les dirigeants (élus) ont horreur des ruptures. Évoquer une rupture c’est annoncer des choses très désagréables. De plus, en entendant parler d’une perspective inquiétante, une grande partie du public, donc des électeurs, ne comprend rien : ils ne saisissent pas qu’il s’agit d’hypothèses. Leur réaction est : «Comment, le maire (ou le président) veut nous infliger ça ! ». On a clairement un problème de méconnaissance des cygnes noirs et de haine des ruptures.

——————–
[1]  Avec quelques réserves : l’attentat était évitable, mais il aurait fallu bousculer les administrations américaines, et disposer de plusieurs semaines de plus.
[2] Hurricane KatrinaA Nation Still Unprepared. Report, US Senate, May 2006.
[3] Schématiquement, la levée est haute d’un peu plus de 4 m, avec une largeur variant de 5 à 100 m dans la ville, de 4 à 5 m dans la campagne. Elle s’étend jusqu’à Plaquemines, à 190 kilomètres en amont de La Nouvelle-Orléans. Pour une description et un historique complet, Cf. Isabelle Maret et Romain Goeury, La Nouvelle-Orléans et l’eau : un urbanisme à haut risque, in Environnement Urbain Vol. 2/ 2008, en ligne le 09/09/2008. http://eue.revues.org/867
[4] Niveaux 3 à 5 sur l’échelle de Saffir-Simpson, qui en comporte 5.
[5] A failure of initiative, Final Report of the Select Bipartisan Committee to Investigate the Response to Hurricane Katrina, Feb. 2006.
[6] Joel Bourne, Gone with the Water, National Geographic, 10/2004.[7] Romain Huret, Katrina 2005, éd. EHESS, 2010.
[8] Amtrak est la principale compagnie ferroviaire américaine de transport de voyageurs. Je n’ai pas encore trouvé pourquoi le maire avait refusé de faire monter ses administrés dans un train.
[9] J’étais à Zurich en juillet 2017, et j’ai constaté une autre catastrophe : la librairie (Payot) a disparu, remplacée par une bête boutique de vêtements.
[10] Jorion Paul, Vers la crise du capitalisme américain, éd. La Découverte, 2007.
[11] Lewis Michael, Le casse du siècle, plongée au cœur de la crise financière, coll. Points, éd. Sonatine, 2010.
[12] Zuckerman Gregory, The Greatest Trade Ever – How John Paulson bet against the markets and made $20 billion, ed. Penguin, New York, 2009.
[13] Ben Bernanke a été, de juin 2005 à janvier 2006, Chairman of the Council of Economic Advisers of the President.
[14] California Institute of Technology.
[15] https://itunes.apple.com/fr/app/equake-earthquake-alerts-sensor-network/id1022523338?mt=8

Crise de la prévision, essor de la prospective

Crise de la prévision, essor de la prospective

Il y a juste quarante ans, en 1977, paraissait aux PUF « Crise de la prévision, essor de la prospective », un livre de 188 pages tiré par Michel Godet de sa thèse de doctorat en sciences économiques. Michel a 29 ans. Il est ingénieur en chef à la SEMA, florissante société d’études dirigée par Jacques Lesourne.

Le quatrième de couverture


« 
L’histoire économique récente est marquée par de fréquentes erreurs de prévisions ; la répétition de ces erreurs et notamment l’absence de prévision des crises économiques expliquent la crise de la prévision et l’essor de la prospective. Les praticiens des entreprises et des administrations, les universitaires et plus généralement tous ceux qui doivent sinon établir des prévisions du moins s’en servir ou y réfléchir sont amenés un jour ou l’autre à se poser les questions suivantes :

  • quelles sont les causes des erreurs de prévision ?
  • que peut-on attendre des modèles économétriques ?
  • en quoi la prospective diffère-t-elle de la prévision ? – où en sont les nouvelles méthodes prospectives (analyse structurelle, impacts croisés, scénarios) et quel est leur apport ?
  • une synthèse est-elle possible entre les approches « littéraire » et « formalisée » ?
  • que faut-il penser des modèles mondiaux ?
  • finalement quel est l’avenir de la prospective ?

A toutes ces questions ce livre apporte des réponses d’autant plus pertinentes qu’elles sont le fruit d’une longue pratique des études prospectives dans des domaines aussi divers que l’énergie, le transport, l’agriculture, les relations internationales, etc.

Au-delà de la réflexion théorique et de l’exposé méthodologique, cet ouvrage comprend aussi des études de cas et propose notamment une nouvelle lecture rétrospective et prospective de la crise énergétique à la lumière de la stratégie des acteurs en présence.

L’appréciation de Pierre-Frédéric Gonod

(P-F. Gonod & J-L. Gurtler, Évolution de la prospective, Revue OCL, vol. 9. n° 5. 09/2002).
« Crise de la prévision, essor de la prospective joua un rôle positif, il était à contre-courant de la vague économétrique dont la sophistication mathématique était (et reste) inversement proportionnelle à la pauvreté́ de l’analyse. »

La critique d’Alfred Sauvy

(Le Monde, 14/06/ 1977)
« Depuis un siècle, ceux qui essaient de supputer les conséquences à venir des rouages présents cherchent une terminologie propre à conjurer la réputation contestable des prophètes. La science a un tel souci d’écarter la divination que la prospective est aujourd’hui dans le ton. Peu importent du reste les termes ; seules comptent les méthodes, sinon les résultats.

Que l’avenir multiple soit une clé d’explication du présent, nous l’acceptons volontiers ; que le refus du déterminisme ne contredise pas le principe de causalité n’est que trop évident. Il s’agit, en définitive, de tracer plusieurs trajectoires vers plusieurs avenirs, sans exercer nécessairement de choix. Les démographes ont agi il y a plus d’un demi-siècle en ce sens, à l’époque même d’André Breton, souvent évoqué ici, et de Paul Valéry, également cité, auteur de l’Imprévisible.

Nous en venons tout naturellement à considérer des  » systèmes « , ou plutôt nous les prenons pour point de départ, et ils nous conduisent au séduisant domaine des scénarios, où  » l’imagination doit s’exprimer librement  » ; soit.

Deux exemples sont donnés : le transport aérien dans la région parisienne (que n’avons-nous New-York ?) et l’énergie, selon les projets de divers acteurs (Nord, Sud, Nord-Sud, etc.). En fin de compte, le prospectus (ou prospectiviste) en vient à fixer d’abord l’avenir, c’est-à-dire à se proposer un objectif, puis à chercher le cheminement qui permettra de le réaliser. Tel est le cas, notamment de la dernière étude mondiale de M. Léontief, pour les Nations unies. Nous sommes, en effet, à l’opposé de la prévision classique.

Et, avec plus d’ingénuité que de malice, l’ingénieur de la SEMA et de Matra conclut sur « l’avenir de la prospective ». »

La recension de Paul Longone

(Population, 33e année, n°4-5, 1978. p. 1041).
L’auteur, praticien réputé́ en prospective, vulgarise avec précision et clarté́ les méthodes d’appréhension de l’avenir. La prévision classique est impuissante ou présomptueuse dans le domaine social où tout bouge à la fois. La prospective grâce à son caractère global, qualitatif, à la prise en compte de la complexité́ des systèmes et à la combinaison d’une approche « littéraire » comme dit l’auteur et mathématique du sujet, réduit le champ des erreurs grossières tout en élargissant celui du possible. La méthode des scénarios, l’analyse structurelle des systèmes sont clairement exposées et complétées par l’étude prospective de deux cas concrets : l’avenir énergétique mondial et celui des transports aériens en région parisienne.

G., enthousiaste de sa spécialité́, conclut que « la prospective met l’imagination au pouvoir » et qu’elle est donc révolutionnaire, contrairement à Marx qui écrivait que « quiconque compose un programme de société́ future est réactionnaire ».

 

Café de la prospective du 10 mai 2017 – Pierre Joly

Café de la prospective du 10 mai 2017 – Pierre Joly

Présentation de la réunion et de l’intervenant par Marc Mousli 

Nous avons le grand plaisir d’accueillir Pierre Joly, inspecteur général de l’Insee, qui a un long passé de statisticien et d’économiste à l’Insee puisqu’après l’École polytechnique il a étudié à l’Ensae, puis travaillé sur à peu près tout ce qu’on peut imaginer en matière de prévision.

Notre thème d’aujourd’hui est « prospective et prévision », et pour des prospectivistes, c’est souvent prospective versus prévision. J’ai mis sur la page Facebook du Café un lien vers le livre de Michel Godet, publié il y a 40 ans tout juste, en 1977 : Crise de la prévision, essor de la prospective. Il opposait les deux. Et l’esprit de ce livre, qui était d’ailleurs la thèse de Michel, a perduré.

En fait, quand on regarde la réalité, les prospectivistes font comme tout le monde, ils ont beaucoup recours aux prévisions, dont ils se servent en permanence. Et ils les prennent très au sérieux, surtout celles qui sont élaborées par l’Insee, institut reconnu dans le monde entier pour son sérieux et sa rigueur.

En six années de Café de la prospective nous n’avions jamais consacré une séance à la prévision. Il nous fallait combler cette lacune, et personne n’est mieux placé pour le faire que Pierre Joly, qui a beaucoup travaillé cette discipline à des niveaux qui exigent une excellente connaissance de l’économie, de la créativité et beaucoup de rigueur.

Pierre Joly

Merci de m’avoir invité, je suis content d’être parmi vous. Il est vrai que j’ai été amené, dans ma carrière, à faire des projections économiques dont je vais vous parler. J’ai aussi dirigé une école d’ingénieurs et j’ai été directeur régional de l’Insee en Languedoc-Roussillon. Je suis maintenant à l’inspection générale de l’Insee, où je travaille surtout à des problèmes d’organisation de l’Institut.

Mon expérience des questions de prévision est donc un peu datée mais elle n’est pas inutile pour avoir un débat.

Modélisation et prospective, tendances et ruptures

Je ne me considère pas comme un prospectiviste : je ne me suis jamais penché sur les méthodes prospectives, mes fonctions à l’Insee m’ayant plutôt amené à répondre à des questions sur des horizons de court et moyen terme, rarement de long terme. Pour cela, j’ai travaillé avec des outils qui permettaient de représenter les évolutions : des modèles.

Il y a une opposition traditionnelle entre modélisation  et  prospective : les prospectivistes critiquent les modèles, et les modélisateurs ne savent pas toujours comment utiliser l’information des prospectivistes dans les modèles, qui utilisent des valeurs économiques quantitatives et ne disent rien de ce qui est en dehors de l’économie. Ils raisonnent sur des moyennes plus souvent que sur des dispersions ; et ne tiennent pas compte d’éléments de qualité de vie même si on commence à faire des efforts de ce côté.

Ce qu’on reproche souvent aux modèles, c’est d’être figés, et d’avoir donc du mal à rendre compte des ruptures, sur lesquelles ils font plus ou moins l’impasse. Ce n’est pas tout à fait exact ;  je reviendrai là-dessus… En revanche, le prospectiviste, lui, imagine bien un monde dans lequel il va y avoir des ruptures. Je ne suis pas sûr qu’il sache toujours les anticiper, mais il sait qu’il y en aura.

Il est également vrai que l’exercice de prévision se termine par un scénario, ou éventuellement quelques scénarios, sans que l’on tienne compte de tous les facteurs d’incertitude. Dans ces exercices, à un moment donné on fait des choix qui ne rendent pas compte de la diversité des possibles. En même temps, si on commence à rendre compte de la diversité des possibles, on se retrouve devant un univers qui ne convient pas nécessairement au commanditaire du travail, qui demande un éclairage lui permettant de prendre des décisions.

Pour illustrer ces points, je vais m‘appuyer sur trois exercices où l’on a utilisé des modèles. Nous parlerons surtout des travaux du Plan mais cela vaut également pour le ministre de l’Économie et des Finances, qui doit présenter une loi de Finances et qui a donc besoin de prévisions ; de même les organismes internationaux ont besoin des prévisions pour alimenter leur vision du futur.

L’Insee, la Direction du Trésor, l’OFCE, la Commission européenne, l’OCDE, le FMI, un très grand nombre d’organismes ont besoin de modèles, qui sont, en fait, des représentations simplifiées de l’économie.

Je parle d’une époque où les outils n’étaient pas très faciles à mettre en œuvre. Aujourd’hui, c’est très simple, en fait, de construire un modèle, et il y en y a beaucoup plus… les banques ont leurs propres outils de modélisation, ainsi que les universités et de nombreux autres organismes.

Les modèles mettent en relation les grandeurs économiques que l’on cherche à mesurer et ils écrivent ces relations. Deux catégories de variables sont concernées : les exogènes, que le modèle n’a pas prétention à décrire, par exemple, dans un modèle national, la croissance des pays voisins est considérée comme exogène, tout comme la démographie : le modèle ne va pas rendre compte de l’évolution démographique. Ensuite, il y a des équilibres comptables qui imposent que la demande soit égale à l’offre. On a donc des équations comptables qui en rendent compte. Il va falloir expliquer le déficit de l’État, qui est un résultat comptable, et la balance commerciale, qui est de même nature. Et puis, il y a un certain nombre de variables pour lesquelles on va décrire des comportements et c’est là où il peut y avoir le plus de discussions : la consommation, l’investissement et même le commerce extérieur.

La prospective, elle, s’intéresse aux états du monde sur le long terme, un horizon où les modèles n’ont pratiquement plus aucune validité parce que, par définition, ils ont été construits à partir de ce que l’on connaît, à un moment donné, de l’évolution de l’économie, en se basant donc sur des données généralement plus anciennes. Donc, s’il y a des ruptures à venir, on ne pourra pas en rendre compte avec ces outils.

Par exemple, les conséquences des nouvelles technologies, si elles sont tendancielles, seront probablement prises en compte partiellement dans les modèles. Par contre, si elles constituent des ruptures majeures, elles ne seront pas envisagées. De même, pour l’emploi, on peut avoir des évolutions fortes dans les modes de fonctionnement du marché, alors qu’on va décrire l’évolution de l’emploi telle qu’on l’avait constatée dans le passé.

L’un des points sur lesquels on a le plus de problèmes, ce sont les gains de productivité, souvent considérés comme des variables exogènes dans les modèles. Ces gains de productivité, ce qu’on appelle le progrès technique, c’est un trend qui a connu des ruptures. On met souvent des inflexions dans les modèles quand c’est nécessaire, mais on n’a pas beaucoup d’informations alors que les variations sont assez fortes et que ce sont les gains de productivité qui donnent la dynamique du modèle. Alors, on essaie parfois de les décrire un peu plus précisément mais ça demeure un point délicat. Aujourd’hui, on a du mal à évaluer la croissance potentielle longue, parce qu’il faut faire une hypothèse sur les gains de productivité futurs, et qu’avec les nouvelles technologies, on ne les voit pas bien. C’est peut-être là que le prospectiviste, peut apporter des éléments pour améliorer ces connaissances.

De même, il y a des aspects nouveaux comme la dimension environnementale, qui prend de plus en plus de place dans la décision publique, alors que les modèles sont faits pour répondre à des questions du moment. Il faut donc améliorer les outils pour pouvoir dire des choses sur l’évolution de l’environnement et sur la production de CO2, en relation avec la croissance économique.

 Quelques mots  sur trois domaines d’application de la modélisation : l’exercice de planification, l’élaboration des lois de finance, l’énergie.

Les exercices de planification débouchaient sur une loi décrivant ce que pourraient être les cinq années à venir.  Elle était votée par le Parlement, avec des engagements de la puissance publique sur les moyens nécessaires à l’atteinte des objectifs visés. Dans ce cadre, il y avait des réflexions sur tous les domaines, à la fois sur les aspects sociaux, l’emploi, les problèmes sectoriels, en particulier l’agriculture, l’énergie, les transports, les problèmes territoriaux. Ces travaux s’appuyaient sur des études macroéconomiques menées parallèlement par le service économique, dont j’ai fait partie. On faisait travailler l’Insee pour qu’il nous fournisse des projections, des scénarios. Le Commissariat général du Plan fournissait des hypothèses et on faisait tourner un modèle macroéconomique, le modèle DMS (Dynamique Multisectoriel), un modèle assez lourd, parce qu’il voulait décrire l’économie de manière précise. Il y avait onze branches, dont trois pour l’industrie et en plus les industries agroalimentaires, le transport et l’énergie. Paradoxalement, le secteur des services était peu détaillé, alors qu’il est devenu un secteur particulièrement important. Et pour décrire cette économie, il y avait 1 900 équations dont 250 « de comportement », des équations économétriques estimées sur le passé. On était dans les années 80, et le modèle était estimé sur la période 1960-1980, donc sur une vingtaine d’année. L’estimation posait problème, car elle prenait en compte une partie des Trente Glorieuses, alors que la productivité s’était affaissée dans certains secteurs. Enfin il y avait 400 variables exogènes décrivant l’environnement international, la politique budgétaire, fiscale et monétaire, et des secteurs comme l’agriculture ou les grandes entreprises nationales, pour lesquelles on avait des informations sur les 4 à 5 ans à venir, que nous introduisions directement dans le modèle.

Le modèle était néokeynésien, avec une structure qui faisait qu’à court terme c’était la demande qui imposait son rythme. On partait donc des dépenses publiques, de la demande venant de l’extérieur, qui sollicitaient l’appareil de production, entraînant la production, l’emploi, les revenus, donc la consommation, etc. Tout cela rebouclait bien.

Le modèle étant keynésien sur le court terme, les meilleures mesures de politique économique étaient de faire de la dépense publique car les prix et les salaires, plus rigides, n’étaient pas immédiatement tirés par la croissance. À moyen terme, la croissance provoquée par une dépense des administrations relançait la production, l’emploi et entraînait des hausses de salaires, ce qui avait des conséquences sur les prix, ce qui affectait la compétitivité de l’économie ; donc, à moyen terme, on perdait un peu par rapport à ce qu’on imaginait avoir gagné à court terme. D’autant que les entreprises s’en sortaient moins bien, investissaient moins, et les capacités pour exporter étaient réduites.

Mais ce qui explique pourquoi c’est compliqué pour des hommes politiques de prévoir des mesures structurelles favorables à la croissance, c’est qu’elles mettent beaucoup de temps à produire des effets. Ce n’est pas le modèle qui est en cause, c’est la réalité. Tous les modèles rendent compte de ça : vous avez des mécanismes qui ont rapidement des résultats parce qu’ils jouent sur la demande, mais les mesures structurelles cherchant à améliorer la compétitivité et la qualification des hommes, mettent 4 ou 5 ans à produire des effets. Et en général, 4 ou 5 ans, c’est la durée des mandats politiques.

L’avantage de ce modèle, c’est qu’il explicitait ces phénomènes et alimentait la réflexion pour la construction du Plan, qui se faisait avec des partenaires : les syndicats, les entreprises, les universitaires, des associations. À ces partenaires il fallait présenter les scénarios que l’on construisait, les faire discuter, leur faire accepter ou éventuellement les modifier. En fin de parcours on pouvait avoir un certain consensus sur un certain nombre de scénarios.

Ces scénarios avaient été alimentés par les autres services du Commissariat pour tout ce qui était exogène, ce qui ne pouvait pas être calculé par le modèle dans des domaines comme l’industrie ou l’agriculture, ou encore des données sur lesquelles les points de vue n’étaient pas cohérents avec ce qu’on imaginait. On pouvait donc, à la marge, améliorer les scénarios qui, in fine, devenaient l’outil de référence pour tous ces services et les partenaires.

L’intérêt des modèles, dans cette démarche, était d’être un outil que tout le monde pouvait utiliser, un instrument de dialogue entre les différents services du Plan, qui permettait de créer une culture économique commune entre des acteurs qui n’avaient pas, au départ, une connaissance minimale des mécanismes économiques. Quand un décideur nous disait « On n’a qu’à faire ceci », nous répondions : « Ok, on regarde. » Il lui arrivait souvent d’oublier que décider une dépense publique c’est bien mais ça pose un problème d’endettement, par la suite, et que cela peut dégrader la compétitivité.

Le modèle DMS avait une force : il était assez gros et répondait donc à bon nombre de questions. Par exemple, un secteur ne pouvait pas dire : « Vous n’avez pas tenu compte du fait que les biens de consommation ce n’est pas la même chose que les biens intermédiaires… »  Ils étaient séparés. Donc, le fait d’avoir pas mal de secteurs c’est aussi une qualité qui était appréciée.

Par ailleurs, des documents expliquaient avec précision comment il était écrit, comment il fonctionnait. On faisait des « cahiers de variantes» et on étudiait les propriétés du modèle quand on modifiait des variables exogènes ; ses propriétés étaient connues, ce qui rassurait les partenaires sur l’outil.  D’une part, on ne les « truandait » pas, et d’autre part, ça leur permettait, avec le temps, de s’approprier l’outil.

Il y avait des défauts. La taille du DMS nécessitait une équipe assez importante à l’Insee, dont j’ai fait partie avant d’aller au Plan. C’est pour cela qu’il n’y a plus aujourd’hui de tels modèles. Il était lourd à cause du nombre d’équations, de l’importance des données exogènes. La prise en compte de la croissance internationale était un point fort : pour peu que vous sachiez décrire la croissance de l’Europe, celle de la France n’était pas trop différente, sauf si la compétitivité se dégradait. Donc, une fois qu’on avait introduit les données exogènes de croissance internationale on en avait déjà dit beaucoup sur ce que pouvait espérer la France en termes de croissance.

Cela dit, les hypothèses de productivité étaient faiblement expliquées et uniquement par l’estimation du passé. On utilisait, dans les années 80, des comptes nationaux 1950-1980, datant pour une grande part d’avant la crise pétrolière, une époque où la productivité était de 5 % par an. Aujourd’hui, on n’est pas du tout à ce rythme-là et même dans les années 80, elle avait sacrément baissé. On ne savait pas quel serait le futur, et on a toujours eu tendance à être optimistes. Pour un Plan, ce n’est pas une mauvaise chose, ça donne du courage à tout le monde.

Et puis, il y avait bien sûr le problème des ruptures de comportement ; j’ai parlé de la productivité, mais ça pouvait se faire dans d’autres domaines. On peut perdre de la compétitivité sur la qualité, et nous nous intéressions uniquement à la compétitivité prix et aux capacités de production, alors que certains concurrents se spécialisaient dans des produits à haute rentabilité, des spécialités. La concurrence allemande par exemple, n’était pas décrite aussi bien qu’elle l’a été plus tard… Alors, on n’arrêtait pas de dire : « Il faut faire de la formation, si on forme les gens, ils seront plus compétitifs. » Mais le problème c’est que la formation, c’était de la dépense, il fallait embaucher des enseignants… Enfin voilà, on faisait des hypothèses de ce type, mais le modèle ne pouvait pas nous dire : « Ah oui, mais ces gens sont formés donc ils vont être plus efficaces et améliorer la compétitivité ». On voit les limites de ce type d’outil.

Il y a enfin un dernier point, le côté boîte noire. Bien que tout ait été documenté et que donc on puisse avoir accès à l’information, pour la plupart des utilisateurs la documentation était aride : des équations, des coefficients, des choses peu plaisantes quand on n’est pas du métier ; il y avait donc malgré tout un côté boîte noire.

Pour terminer dessus, je parlerai de deux cas sur lesquels j’ai été amené à travailler.

Le premier est un test sur la durée au travail. C’était après le huitième Plan, François Mitterrand est élu Président de la République. Un Plan était en cours d’examen au Parlement. Les socialistes ont décidé un Plan intérimaire dans lequel ont été mises les 121 mesures du programme du candidat. On a donc refait des scénarios assez rapidement. Dans les mesures proposées, il avait les 35 heures après négociation avec les partenaires sociaux et le développement du travail en équipe de façon à être plus efficaces.

Quand on faisait tourner le modèle DMS, baisser à 35 heures, à court terme, c’était bien parce que ça créait de l’emploi, mais à moyen terme il y avait des effets négatifs : de l’inflation, parce que le chômage baissant, les salaires augmentaient, et une dégradation des capacités de production des entreprises qui n’arrivaient pas immédiatement à recruter des salariés qualifiés en nombre suffisant.

Donc ces effets n’étaient pas favorables. On a cherché pourquoi.  Le principal handicap était que les capacités de production étaient insuffisamment utilisées. On s’est dit : « Ce qu’on va faire en même temps, c’est développer, le travail en équipe. » On a donc introduit l’idée de développer le travail en équipe et des décrets sont même passés pour le favoriser. Nous avons introduit une nouvelle variable, qui n’existait pas dans le modèle : la durée d’utilisation du capital.

Si on augmentait la durée d’utilisation du capital, les 35 heures pouvaient être assez vertueuses. On devenait plus compétitifs en faisant tourner 24 heures des usines qui tournaient 8 heures jusque là.  Avec les 35 heures, les entreprises étaient de toute façon obligées de se réorganiser donc c’était plus facile pour elles de passer à ce cap-là, et on avait un effet efficace.

On a donc montré qu’il y avait un côté vertueux. Le seul problème était celui de la compensation salariale. Ce que disait le modèle, c’est qu’il ne fallait pas compenser à 100 % les 35 heures. Du coup, la décision politique a été de passer à 39 heures d’abord, avec compensation intégrale. Il n’y a donc pas eu autant d’effet qu’on l’imaginait sur l’emploi, et le gouvernement n’est pas allé plus loin. Voilà le type de mesures pour lesquelles on a utilisé le modèle.

Le deuxième cas c’est la mise en œuvre des 121 mesures. Ce n’est pas tombé au bon moment : la conjoncture extérieure n’était pas très bonne et du coup on s’est retrouvés dans une situation effroyable, avec trois points de PIB de déficit public et un peu moins de deux points de déficit extérieur. Aujourd’hui, ça fait rigoler mais à l’époque, c’était gigantesque par rapport à ce qu’on connaissait. Donc, immédiatement, il y a eu un changement de politique et on est partis sur un contrôle des salaires beaucoup plus fort parce que l’inflation montait très vite par rapport à nos voisins. La stratégie de désinflation compétitive a d’ailleurs été particulièrement efficace.

Je travaillais, à ce moment-là, sur le modèle DMS à l’Insee et on a été obligés en 1 mois, 1 mois et demi, de refaire tous les scénarios en se passant des équations de salaires, qui étaient normalement économétriques, et en prenant comme hypothèse qu’il n’y avait plus d’indexation sur les prix, ou une demi-indexation, et on a réécrit un scénario.

Le modèle DMS, donc, était très lourd. Il y a eu des versions plus légères, comme Mini DMS Énergie, avec très peu de secteurs mais un secteur énergétique assez développé parce qu’au Commissariat du Plan, les problèmes de long terme, c’était l’agriculture et surtout l’énergie et les transports, deux secteurs dans lesquels les investissements sont longs et lourds, ce qui oblige à les prévoir longtemps à l’avance.

Par la suite, l’Insee a abandonné le modèle DMS et est passé à un modèle plus léger, AMADEUS avec beaucoup moins de secteurs, et qui pouvait être mis en œuvre par des équipes plus légères.

A partir du 10e Plan, on a commencé à utiliser les modèles d’autres organismes : l’OFCE et COE-Rexecode avaient construit leurs propres outils, avec des point de vue politiques différents : l’OFCE très keynésien, COE-Rexecode qui ne regardait que le côté de l’offre et l’Insee décrivant une situation intermédiaire.

Sont ensuite arrivés des modèles multinationaux pour la construction de scénarios dont NiGEM, un modèle que les Anglais avaient mis à disposition de tous ceux qui souhaitaient l’utiliser, et qu’on utilise toujours.

Deux sujets dans lesquels j’ai été  un peu moins impliqué : la loi de finances et l’énergie.

La Loi de Finances doit s’appuyer sur une vision, mais à plus court terme que le Plan. C’est la Direction du Trésor qui est chargée de fournir un scénario, une prévision qui est celle retenue. Pour ce faire, elle a trois types d’outils : un qui présente le très court terme, c’est-à-dire les trimestres qui viennent. L’Insee produit ces prévisions, mais les gens du Trésor ne veulent pas être en retard, et ils en réalisent donc en parallèle avec leur propre outil. C’est une enquête assez lourde, et ils espèrent qu’à la fin l’Insee dira la même chose qu’eux.

Ensuite, ils ont, pour les deux années en cours, un modèle qui s’appelle Opale et qui réalise des prévisions à 1 ou 2 ans avec cinq secteurs institutionnels.

Les modèles pour ces utilisations sont trimestriels avec des ajustements de court terme sur certaines variables, et ils comportent une équation de long terme (modèle à correction d’erreur), qui permet de s’assurer de la cohérence à long terme.

Et puis, ils ont un modèle plus connu, Mésange, partagé avec l’Insee, qui est un modèle macroéconomique standard néokeynésien à 500 équations et 3 branches modélisées. Il leur sert à faire des variantes parce que les comportements économiques sont beaucoup plus travaillés que dans le modèle Opale. L’intérêt d’Opale est qu’il peut être mis en œuvre très rapidement : le Ministre veut qu’on change quelque chose, ça va très vite. Alors que Mésange est moins facile à maîtriser : il comporte beaucoup plus d’économétrie et dès qu’on commence à modifier quelque chose ça peut altérer tout le scénario global.

La Direction du Trésor fait d’abord un compte technique « brut » qui est présenté au Ministre et à son cabinet. Il y a des discussions, le Ministre peut dire « Je pense qu’on devrait pouvoir faire mieux, faire encore ceci. ». Les économistes réagissent et on arrive sur ce qu’on appelle un compte « normé » qui sera présenté au Parlement.

Entre temps, ces comptes sont examinés par le « Groupe technique de la commission économique de la nation ». Ce groupe – j’ai eu l’occasion d’y participer quand j’étais au Conseil d’Analyse Économique – regroupe les instituts qui travaillent sur la conjoncture : non seulement l’OFCE, COE-Rexecode, des universitaires, mais aussi les banques, qui ont toutes leurs scénarios. Il y a donc une confrontation. C’est très impressionnant : chacun donne ses hypothèses, ses résultats pour l’année en cours et l’année suivante . Cela oblige le Ministère à justifier ses choix ou ses résultats.

Ce qui est nouveau, c’est que ces prévisions sont ensuite présentées au Haut Conseil des finances publiques, créé pour éviter que le gouvernement ne prenne des hypothèses trop favorables pour présenter des comptes en équilibre ; si vous mettez plus de croissance, vous arrivez plus facilement à régler vos problèmes de solde budgétaire. Le Haut Conseil des finances publiques porte un avis sur la qualité et la probabilité du scénario qui est présenté.

Sur l’énergie, France Stratégie s’est intéressé aux problèmes de l’environnement et de la COP21, pour évaluer les impacts, proposer les mesures à prendre en termes de fiscalité du CO2, d’investissement dans l’isolation, enfin de dépenses possibles pour améliorer la situation. Souvent les outils utilisés décrivent bien le secteur en tant que tel mais ne parlent pas des conséquences globales pour l’économie ; c’est-à-dire qu’on subventionne un secteur pour qu’il soit meilleur, plus efficace mais une subvention reste une subvention, et dans un modèle macroéconomique c’est une dépense. Alors, il peut y avoir des effets bénéfiques mais en même temps, il y aura probablement des retombées économiques et l’État devra payer. Il peut y avoir des effets de substitution qui méritent d’être décrits.

Ils ont donc demandé à des équipes de modélisation (avec les modèles Mésange, Némésis (de l’école Centrale), et un autre modèle développé par l’ADEME et l’OFCE, de voir quelles étaient les conséquences macroéconomiques, des mesures en faveur de l’environnement. Évidemment, ces modèles disent que quand vous taxez, par exemple, le CO2, c’est un impôt donc ce n’est pas bon pour la croissance ni pour l’emploi. Mais en général ça fait des recettes pour l’État, qui peut les réallouer pour rééquilibrer.

Ils ont découvert que finalement les modèles sont assez proches pour ce qui concerne les économies de CO2 —pas Mésange : ce n’est pas du tout son truc, alors que les autres sont plus adéquats. En termes de PIB et d’emploi, ils ont trouvé, en gros, que quand vous mettez un point de PIB de taxation sur le carbone, vous gardez, plus ou moins, un point de PIB, à terme, de croissance parce que vous avez taxé mais vous avez enrichi le budget de l’État ; à lui d’utiliser le montant de la taxe à bon escient.

Le débat

Participant

Bonsoir, merci pour cet exposé. J’avais une question sur le niveau de fiabilité des modèles. Lorsqu’on utilise les séries longues, en économétrie, comment peut gérer les changements de définition fréquents sur le PIB, le calcul de l’inflation, le taux de chômage et autres qui sont quand même des données importantes ?

Pierre Joly :

Effectivement, on revoit les bases régulièrement, tous les 5-10 ans, et c’est terrible pour les modèles parce qu’une fois qu’on a changé les bases on ne peut plus travailler sur les anciennes et il faut réestimer l’ensemble du modèle. Par exemple, les chocs pétroliers ont modifié assez sensiblement la structure des prix. DMS a dû intégrer l’augmentation du prix de l’énergie et dans ce cas-là, vous avez des impacts sur un certain nombre de coefficients, qui peuvent altérer le modèle.

Mais les modèles sont basés sur une version datée de Comptabilité nationale, ils doivent le préciser dans leur notice et ils restent cohérents au moins pendant cette période parce que le PIB ne change de concept qu’à l’occasion d’une remise à niveau pour une nouvelle campagne. Récemment on a introduit dans le PIB de nouvelles grandeurs, d’autres ont été retirées, tout ça souvent pour respecter des règles internationales. C’est très organisé. On n’a pas une liberté absolue, en fait les pays sont obligés de tous faire la même chose et en plus nos comptes sont expertisés par les autres pays. Entre autres, les comptes de déficit public, d’endettement, sont discutés au niveau européen. C’est l’Insee qui fait les calculs et qui fournit les données, mais il faut que le PIB soit mesuré de la même manière pour tous, pour les raisons liées à la base de la fiscalité européenne mais aussi parce que déficits et endettement publics sont rapportés au PIB en valeur.

Participant 

On a quand même des différences de comptabilisation avec le reste de l’Europe, par exemple sur la manière dont on enregistre la valeur créée par les activités illégales, et puis aussi lorsqu’on regarde l’inflation, selon ce qu’on utilise ou pas comme produit de substitution dans les familles, qui permettent de mesurer l’évolution du prix, on arrive très vite, en fait, à créer des écarts de 1 ou 1,5 %, ce qui est énorme aujourd’hui compte tenu du niveau de l’inflation et du niveau de croissance. Est-ce que au final on peut encore avoir une fiabilité permettant de prendre des décisions ?

Pierre Joly

Sur le PIB en valeur, vous avez raison, il y a des pays qui prennent en compte la prostitution et d’autres la drogue. Vous avez aussi tout ce qui est le PIB informel, il y a des méthodes pour essayer de l’évaluer et chaque pays fait de son mieux. Par contre, pour les prix, c’est un souci ; il n’y a pas de méthodologie générale. On parle toujours de l’électronique, par exemple, où les prix devraient baisser très nettement parce qu’on vend au même prix des produits qui ont beaucoup progressé. Pour en rendre compte on utilise des techniques qui s’appellent « le prix hédonique » et tous les pays ne le font pas au même niveau. Donc, on peut avoir un impact différent d’un pays à l’autre.

Quand je dis que c’est normalisé, je dirais : le cadre est normalisé, les concepts doivent être proches enfin, il y a des règles qui sont définies ; après, dans la manière de le mesurer, chaque pays a sa méthode, et donc là, il peut y avoir des variantes. En France, on a toujours mis beaucoup de moyens sur l’information statistique. Il y a de plus petits pays, qui n’ont pas les moyens de mettre autant de ressources, sans parler des Grecs, par exemple, avec la mesure de leur PIB qui a quand même posé un sacré problème. Vous avez raison, il peut y avoir des écarts.

Participant :

Est-ce qu’il n’y a pas des pays, aussi, comme les États-Unis qui sont devenus des champions du tuning des modèles et de l’interprétation de certains concepts, notamment autour de l’inflation, pour pouvoir communiquer des données lissées un peu comme on en a envie ?

Pierre Joly :

L’inflation est souvent calculée par les Banques centrales. Aux États-Unis, la Banque centrale (FED) est indépendante. Vous ne pouvez pas changer le président du conseil des gouverneurs de la FED comme le directeur du FBI. Les Banques centrales font elles-mêmes des calculs, elles utilisent comme beaucoup des informations primaires réunies par les organismes. Par exemple, la loi numérique oblige l’Insee à mettre à disposition du public toujours plus de données ; le citoyen va pouvoir dire : « Moi, je veux ça ». Vous pouvez avoir la base Sirene par exemple, vous pouvez la télécharger, elle est désormais gratuite…

Et puis il y a un article qui est en notre faveur (c’est nous qui l’avons demandé). Il oblige les entreprises, en particulier celles du commerce et des télécom, à mettre à disposition de l’Insee leur base de données numériques sur leurs ventes de façon à pouvoir construire des indices de prix à un niveau beaucoup plus fin. Pour l’Insee ça fait une super économie : ça évite d’envoyer des enquêteurs pour aller chercher l’information, et on va avoir une base plus large. Il y a une obligation, pour les entreprises d’y participer. On espère réussir à les convaincre. En revanche, je ne suis pas sûr que les Allemands y arrivent.

Participante :    

J’ai une question double. Comment évaluez-vous les modèles que vous utilisez, par rapport aux autres pays européens ? Comment tout cela fonctionne, fonctionnait et fonctionnera ? Est-ce qu’on va pouvoir avoir une vision européenne fiable et comment ce groupe de pays fonctionne, est-ce qu’il y en a qui sont plus évolués que la France ?

Pierre Joly :

La Commission a un modèle macroéconomique qui s’appelle Qwest et qui décrit, pour chacun des pays, des éléments de croissance. Et le FMI a un modèle, Multimod, qui décrit aussi chacun des pays.

Les modèles nationaux peuvent être gémellaires : vous décrivez de la même manière les comportements dans les deux pays, et dans ce cas, quand vous faites un choc dans un pays il se passera des choses relativement voisines dans l’autre. La deuxième possibilité est qu’il y ait des différences de comportement d’un pays à l’autre.

La formation des salaires en Allemagne et en France, par exemple : c’était un sacré problème parce que les équations étaient très différentes. Les Allemands étaient très sensibles à l’emploi. On voyait bien que chez eux c’était le plus important et que les mécanismes économiques jouaient toujours en faveur de l’emploi alors qu’en France on avait le salaire minimum, qui atténue l’impact du chômage sur le niveau des salaires alors que chez les Allemands cet impact était beaucoup plus fort. Quand on faisait des variantes, on avait donc des effets extrêmement contrastés.

Ça ne répond peut-être pas complètement à votre question mais il n’y avait pas de bonne solution. Si on prenait exactement la même structure des descriptions de l’économie, on se tromperait un peu sur la France, un peu sur l’Allemagne mais les propriétés paraîtraient relativement homogènes. Mais ces modèles différenciés étaient bons parce qu’on voit bien qu’entre la France et l’Allemagne nous n’avons pas le même système de régulation et que ça a un impact : cela a joué contre eux à une époque, et ça joue plutôt contre nous à présent.

Participant

Je compléterais bien par une question sur les doctrines. Tu disais : «DMS était néokeynésien.» Alors aujourd’hui, dans les modèles, on a souvent un mix avec du classique et du keynésien, en fait du néoclassique et du néokeynésien. Quelles peuvent être demain les doctrines par pays ? Quels choix politiques ?

Pierre Joly 

Un modèle c’est de la responsabilité de ceux qui le font, déjà. Donc, c’est eux qui vont mettre les hypothèses qu’ils jugent bonnes. Ce sont des économistes, des gens sérieux qui vont y mettre ce qu’ils jugent bon.

Pour faire court, quand on était au Commissariat du Plan, on savait que le modèle de l’OFCE était keynésien. C’est moins vrai maintenant j’ai vu leur dernier modèle ils ont un petit peu amélioré, enfin, en gros il faut toujours faire de la dépense publique, alors que d’autres vont dire : « C’est efficace à court terme mais ça va dégrader terriblement la compétitivité. » Alors, c’est là qu’il peut y avoir, effectivement, une dose différente de description des comportements d’offre.

Je pense que la partie keynésienne des modèles, c’est la comptabilité nationale qui dit que le PIB c’est la consommation plus l’investissement plus les exportations et moins les importations puis après vous avez la distribution des revenus, l’emploi… Tout le monde décrit plus ou moins la même chose parce que ce n’est pas facile, en tout cas à court terme, de se différencier sur ces points-là.

Par contre, après, vous pouvez être plus ou moins précis sur l’offre et vous pouvez faire jouer un rôle plus important, par exemple, à l’investissement. L’investissement va affecter les équations de l’exportation et de l’importation. Si les entreprises investissent moins parce qu’elles ont moins de profit, elles vont dégrader leur compétitivité vis-à-vis de l’extérieur, en plus des prix. Si on imaginait un modèle dans lequel on dirait : « L’éducation, la formation des gens, ça compte. », il faudrait l’écrire et réussir à l’estimer. Il y a une règle chez les modélisateurs, c’est qu’ils estiment l’équation de comportement, et ne se permettent donc pas de garder des variables non significatives. Il y a un système de tests, une méthodologie que les économistes doivent respecter. Les grosses différences sur les modèles, enfin sur ce type de modèle néokeynésien c’est comment est traitée l’offre. Parce que la première partie, celle de court terme, n’a pas de raison d’être très différente d’un modèle à l’autre.

Par contre, il existe d’autres types de modèles, des modèles d’équilibre général. Je ne vais pas en dire plus mais ils sont également utilisés et sont plus intéressants pour faire de la prévision longue. Ils introduisent des principes d’équilibre de long terme basés sur des comportements respectant la théorie macroéconomique. Le problème, c’est que leurs résultats ne sont pas toujours facilement utilisables par les décideurs publics.

Participant

Je voudrais revenir sur un aspect de la modélisation. D’une génération de modélisateurs à une autre, y a-t-il des représentations, des modélisations qui diffèrent parce que, à un moment, on considère que le modèle a fait son temps, indépendamment des aspects doctrinaires que vous avez évoqués ? Est-ce qu’il y a des évolutions qui interviennent par sauts ou simplement parce que la puissance informatique offre des capacités de raffinement qu’on n’avait pas autrefois.

Est-ce que vous introduisez dans ces modèles, de façon explicite, des variables aléatoires comme on peut le faire dans des disciplines comme la Finance. Dans la banque, on a introduit explicitement l’incertitude dans les modèles. Sous quelle forme ça existe dans ce que vous évoquez ? Et puis, une dernière question : quid de l’intelligence artificielle, qui aura certainement à moyen terme des effets de substitution probablement assez importants sur le travail. Est-ce que ces éléments-là sont pris en compte ?

Pierre Joly :

C’est vrai qu’aujourd’hui, on ne fabrique plus de très gros modèles économétriques. Il y en a, en revanche, pour travailler sur les problèmes d’environnement. Némésis, qui ressemble beaucoup à DMS, est utilisé pour des contrats avec la Commission européenne parce que les Français sont plutôt bons, ils ont de bons outils.

Quant au calcul stochastique, on ne l’introduit pas tellement parce que les utilisateurs n’aiment pas avoir un produit qui, suivant que vous le faites tourner à deux heures, à trois heures ou à quatre heures, vous donne des résultats différents. On peut dire : « Sur des données exogènes, je mets de l’aléa et puis je fais un très grand nombre de simulations et après je regarde les résultats. Je ne suis plus suffisamment dans l’opérationnel pour savoir si ça se fait. Ça doit être assez coûteux, je comprends que ça puisse servir dans les métiers de la Finance mais les outils dont je vous ai parlé ont vocation à répondre à des demandes publiques importantes. Je ne sais pas comment vous pourriez expliquer à un ministre qu’on a mis des aléas et que suivant les aléas, il faudrait prendre des mesures différentes…

Quant à l’intelligence artificielle, il est certain qu’elle va prendre de la place. Personnellement, je suis un peu choqué de voir utiliser des techniques, pour mesurer des grandeurs, consistant à dire : « Je prends toutes les variables existantes, je fais tourner l’ordinateur et je regarde celles qui sortent. » Je fais partie d’une école où l’on voulait comprendre les mécanismes, pouvoir les expliquer, pouvoir dire : « La consommation augmente de telle manière parce que les prix baissent, ou les prix baissent parce que le taux de chômage a augmenté ». Enfin, on voulait pouvoir tenir, derrière des chiffres, un raisonnement économique.

C’est pour ça que je dirai que l’intelligence artificielle est une facilité, qui dégrade, à mon avis, le principe même d’essayer de comprendre les mécanismes.

Pierre Joly

Il faut savoir comment les big data vont être utilisées. Les jeunes de l’Ensae vont se régaler avec les modèles qu’on va construire. À un moment on avait intégré ce qu’on appelait les modèles VAR (vectoriels autorégressifs). c’était des modèles purement statistiques où on expliquait une variable par rapport à son passé. Il y avait plusieurs types de modèles VAR. C’était assez compliqué mais ça faisait des super courbes statistiques à l’Ensae. Mais derrière on se demandait : « A la limite, pourquoi on ne tire pas une droite. C’est dix fois plus simple que de faire des maths de haut niveau. » Donc, je pense que l’avenir ça sera ça.

Il y a juste une chose que je voudrais mettre en avant, par rapport à ces outils. Ces modèles ont quand même des cadres comptables stricts, qui constituent des forces de rappel importantes pour tempérer les opinions des décideurs. Quand on dépense de l’argent il faut le retrouver quelque part et lorsqu’on prend une mesure de politique économique elle peut impacter à la fois les taux de change, l’emploi, la consommation, l’investissement… Elle va jouer sur de nombreux domaines et ça rappelle à tout le monde que des équilibres vont être affectés et qu’on ne peut pas imaginer une mesure dans l’absolu sans regarder toutes les conséquences induites. C’est le problème des modèles non bouclés. Les modèles macroéconomiques sont tous bouclés et c’est leur force et leur utilité « sociale » alors que des modèles, par exemple, sur l’environnement, sont plutôt techniques ; ils expliquent bien comment des mesures vont influer d’un secteur sur l’autre mais derrière on ne décrit pas ce que ça signifie pour le consommateur, ce qu’il va payer, ce qu’il ne va pas payer. L’État subventionne, mais avec quel argent ? Donc, les modèles du genre de Némésis ont l’intérêt d’être bouclés. Ils décrivent plutôt mieux la réalité, et ils ont des appendices qui permettent de dire en plus que quand un secteur fonctionne, il produit tant de carbone ; à la limite c’est une variable accessoire, elle n’a pas d’impact économique direct, sauf si on met une taxe sur le carbone. Là, on peut dire : « Ça aura tel impact sur tels secteurs. ».

Participant

Moi aussi, je suis un grand amateur des modèles qui bouclent mais est-ce que dans le monde d’aujourd’hui, dans l’économie d’aujourd’hui, on peut encore envisager des modèles qui bouclent là où on a des économies beaucoup plus ouvertes qu’autrefois ; lorsqu’on était dans le Plan, c’était le circuit du Trésor, le contrôle des changes. Aujourd’hui, on a non seulement des économies beaucoup plus ouvertes mais aussi des systèmes financiers complètement ouverts avec des masses énormes de capitaux qui peuvent impacter l’économie réelle. Est-ce que dans ce contexte-là, on peut encore imaginer un niveau de bouclage qui inclut cette partie financière ?

Pierre Joly

Tout à fait. Dans les modèles dont je parlais, dont on se servait au Plan, c’était le début de la libéralisation financière, avec tous ses impacts et on décrivait la partie financière  de manière presque exogène. L’état fixait les taux des livrets, les taux d’intérêt, la masse monétaire. Tout était sous contrôle. Et puis on a eu l’euro d’un côté, et la libéralisation du secteur financier. Les financements peuvent aller partout. Ça a un avantage pour le modélisateur, qui peut tabler sur la rationalité de ceux qui déplacent ces sommes et en rendre compte dans le modèle alors que ce qui est contrôlé par un État, vous ne pouviez que le considérer comme exogène.

Donc, ça a une vertu pour les modélisateurs. En même temps, les modèles actuels ont des équations sur les changes vis-à-vis des zones non-euro. Mais dans la zone euro, il n’y a pas de différences de change entre ses membres.

Le fait, par exemple, que des entreprises vont choisir de s’installer à un endroit ou à un autre n’est pas remarquablement décrit, mais ce qu’on dit sur l’investissement va toutefois en rendre compte : si les conditions économiques sont plutôt favorables, les entreprises vont s’installer et l’investissement va croître. C’est à travers des règles de ce genre qu’on pourra dire que des conditions d’installation favorables ont un impact favorable sur la croissance du pays. A l’opposé, si les conditions sont moins bonnes, il y aura moins d’investissements. Mais c’est l’entreprise qui prend une décision d’investissement, et les modèles ne vont pas à ce niveau de finesse sur le comportement de chaque type d’entreprise.

Participant :

Avec les raisonnements qui dépassent le cadre économique classique, on a vu des quantités monstrueuses de capitaux qui, au lieu d’être utilisés en investissements productifs ont été utilisés pour racheter des actions afin de doper les cours, parce qu’il y avait un afflux de capitaux sans commune mesure avec ce qui existait auparavant. Et là, on perturbe de manière négative — et imprévisible par les modèles classiques — les décisions d’investissement qui font tourner l’économie réelle.

Pierre Joly :

Je pense en effet que les modèles n’en rendent pas bien compte.

Participant :

On a parlé de modèles puisque c’est la base des prévisions macroéconomiques, mais à côté il y a toujours eu des monographies, des études spécifiques. Les gens du Plan (ou maintenant d’un service quelconque de prévision) vont voir le Ministre en disant : « Voilà le modèle et puis à côté on a fait quand même un petit travail sur les comportements.» Je regardais, par exemple, récemment le financement des start-ups en France. Nous sommes les champions du financement de la phase de démarrage et des deux premiers tours de table. A partir du moment où on arrive dans la phase de croissance forte, on est nuls, on n’a pas assez d’investisseurs et les entrepreneurs sont forcés de traverser l’Atlantique. C’est complexe comme mécanisme, on ne peut pas facilement le rendre par une variable d’investissement. Donc, il faut bien, à côté, qu’il y ait des monographies.

Pierre Joly :

Sur un sujet comme celui-là, à la Direction du Trésor, ils ont un modèle mais c’est une toute petite partie de leur production. Ils travaillent sur les secteurs, ils lisent les monographies, ils font des maquettes, il y a toute une production économique qui peut passer par des outils ad hoc ou simplement par la lecture d’études. Mais c’est vrai que le Trésor a toujours envie de revenir à des chiffres.

Du côté des modèles macroéconomiques, les start-ups c’est le petit côté des entreprises. Ce n’est pas le problème du modélisateur, qui décrit certes les grandes entreprises, les entreprises de taille intermédiaire et les PME. Mais en termes d’emploi et d’investissement, les grandes entreprises c’est gigantesque. On dit que small is beautiful mais en réalité ce sont les grandes entreprises qui ont la plus grosse partie de l’emploi, la plus grosse partie de l’investissement, qui sont présentes à l’exportation, à l’importation. On espère que les petites entreprises vont se développer, que quelques-unes vont devenir Google. Mais pour le modélisateur qui doit prévoir le PIB et l’emploi, elles ne méritent pas qu’il s’y investisse particulièrement!

Participant :

À propos des start-ups, leur impact immédiat va être très faible dans l’économie réelle, mais l’aspect financier, avec les fonds qui vont amener des survalorisations peut, en revanche, avoir un impact non négligeable sur les cours de bourse et sur des indices purement financiers.

Pierre Joly

En fait, on n’en tient pas tellement compte, le financement des entreprises, en général, c’est des descriptions relativement sommaires, avec les outils dont je vous ai parlé. Il y a des services, à la Direction du Trésor, plus spécialisés sur ces questions, et je ne connais pas bien leurs outils. Ce sont le plus souvent des énarques, et je ne sais pas s’ils sont aussi modélisateurs, ils sont moins « Insee » que dans l’autre partie du Trésor, qui est plutôt du côté de la modélisation. Mais, pour faire court, en-dessous du milliard d’euros, ça n’intéresse pas tellement le modélisateur, cela relève de la maquette. Les scénarios sont un outil qui peut aussi être utilisé pour aller un peu plus dans le détail de ce qui se passe dans une région ou dans un secteur particulier ; ils ont l’avantage de donner un cadrage qui peut être pertinent.

Pierre Joly :

Encore un point que j’aurais pu évoquer… la conjoncture utilisait beaucoup, à une époque, le modèle METRIC dont Patrick Artus était l’un des fondateurs, et on s’en servait aussi au Plan. Le problème des modèles c’est qu’ils lissent beaucoup et donc pour de la conjoncture ce n’est pas terrible. Quand il y a eu les grands ralentissements en 1990, nous avions rencontré, avec le Commissaire général du Plan, le patron du Medef, qui disait : « Mais vous ne vous rendez pas compte. » On voyait bien qu’il y avait un ralentissement, mais lui nous disait : « Mais ça s’effondre ! » Effectivement même les conjoncturistes avaient du mal à le percevoir parce qu’ils utilisaient des outils où l’on voyait que ça baissait, mais qui faisaient jouer des forces de rappel, minimisant beaucoup la crise. Les chefs d’entreprise disaient : « Mais attendez, c’est la « cata », ça ne marche plus du tout. » Leur diagnostic était juste, et là il y a eu presque un conflit au sein de l’équipe, entre ceux qui défendaient la manière traditionnelle et ceux qui dénonçaient cet aspect négatif des modèles. Finalement, maintenant, on utilise beaucoup plus les enquêtes de conjoncture, qui sont nettement plus réactives ; on leur donne plus de poids pour décrire la conjoncture. A l’opposé, si vous prenez le modèle Mésange, il est utilisé une fois que la conjoncture est passée pour essayer de comprendre, parce qu’il apporte des éléments de compréhension globaux sur les comportements économiques à l’œuvre et qu’il peut aider à les décrypter ex-post. Il y a donc une inversion de l’utilisation de ces outils.

Marc Mousli 

Merci beaucoup, Pierre. Grâce à toi nous avons fait une plongée dans un domaine que nous n’avions jamais exploré jusqu’ici et qui est considérable. Il y resterait beaucoup à dire sur la façon dont les clients de l’Insee prennent leurs décisions. Quand on a donné les prévisions au Ministre, qu’est-ce qu’il en fait ? C’est autre chose, d’extrêmement intéressant d’ailleurs. Nous en avons un peu parlé au Café avec Stéphane Cordobès, de la DATAR, et Bruno Hérault, du Centre de prévision du Ministère de l’Agriculture : comment faire accepter des résultats à un décideur ? Mais ce n’est plus la responsabilité des modélisateurs. Merci beaucoup pour cette séance.

Café de la prospective du 15 mars 2017 – Agence française de développement

Café de la prospective du 15 mars 2017 – Agence française de développement

Le Café de la prospective a reçu le 15 mars 2017 Cyrille Bellier et Alexis Bonnel, de l’Agence française de développement (AFD).

L’AFD a célébré en décembre 2016 ses 75 ans. Cette institution créée à Londres par le Général de Gaulle en 1941 s’est transformée à plusieurs reprises jusque très récemment. C’est une institution financière au cœur du dispositif français de l’aide publique en faveur des pays en développement et de l’Outre-mer. Depuis quelques années, elle se trouve confrontée à de nombreux bouleversements sur ses terrains d’action traditionnels, qui interpellent sa mission de solidarité et de développement durable face aux grands défis de la planète, et questionnent son identité ; le monde a beaucoup changé et il continuera de le faire à un rythme soutenu. Comment une institution dont toute l’activité est ancrée dans l’actualité mais qui cherche à se projeter sur le temps long peut-elle rester pertinente dans des contextes incertains ?

Pour s’adapter aux changements en cours et se préparer à ceux qui surviendront dans les dix prochaines années, l’AFD a engagé une démarche prospective : Quels avenirs pour une agence de développement ? AFD 2025.

Cyrille Bellier et Alexis Bonnel, qui ont animé cette démarche, ont débattu avec nous des apports de la prospective à la réflexion et à la mobilisation des collaborateurs de l’AFD, qui s’est donnée une mission ambitieuse : concilier développement, sécurité et durabilité, trois objectifs remis constamment en cause par une donne géopolitique complexe et incertaine.

Cet exercice créatif, transversal et collectif, ouvert à tous les collaborateurs du groupe en France et à l’étranger, a été l’occasion d’explorer à la fois les valeurs et l’histoire de l’Agence, et les grands thèmes actuels et à venir qui structurent les champs d’action d’un bailleur de fonds. L’AFD s’est notamment interrogée, en s’appuyant sur quatre scénarios contrastés, sur son rôle dans l’agenda de développement qui prendra en 2030 la suite des Objectifs de Développement Durable portés par l’ONU.