COMPTE RENDU

Café de la prospective du 16 mai 2018 – Fabrice Roubelat

Café de la prospective du 16 mai 2018 – Fabrice Roubelat

Le 16 mai 2018,  le Café de la prospective recevait Fabrice Roubelat pour une séance consacrée à la prospective de la stratégie internationale.

Nous avons beaucoup parlé de porte-avions, et scénarios et de paradigmes. Une excellente séance dont vous pourrez retrouver l’écho dans l’article de Fabrice, « Prospective, mondialisation et stratégie internationale », publié dans le n° 8 de la revue Prospective et stratégie, accessible sur Cairn.info.

Café de la prospective du vendredi 9 mars 2018, au CNAM

Café de la prospective du vendredi 9 mars 2018, au CNAM

Le Café de la prospective s’est mis au régime sec vendredi matin : pas de bière, pas de petit blanc (j’ai beaucoup regretté le Quincy du Café de la Mairie). En revanche, en nombre d’intervenants, c’était l’abondance dans cet amphi très traditionnel du Cnam. Une belle masterclass… merci à Régine Monti et à Philippe Durance de nous y avoir associés.

Café de la prospective du 24 janvier 2018 : Jacques de Courson et François Rousseau

Café de la prospective du 24 janvier 2018 : Jacques de Courson et François Rousseau

 

Le mercredi 24 janvier, le Café de la prospective a reçu Jacques de Courson et François Rousseau.
On peut lire en ligne le livre de Jacques de Courson : L’appétit du futur, voyage au coeur de la prospective » sur le site des éditions Charles Leopold Mayer :
http://www.eclm.fr/ouvrage-308.html

 

Café de la prospective du 8 novembre 2017 – Régine Monti et Philippe Durance

Café de la prospective du 8 novembre 2017 – Régine Monti et Philippe Durance

RéginephilippeLe mercredi 8 novembre,  le Café de la prospective a reçu Régine Monti et Philippe Durance.

Philippe Durance est professeur du Conservatoire national des arts et métiers (CNAM), titulaire de la chaire « Prospective et développement durable ».  Régine Monti est professeur associée. Ils ont participé activement à la création du Café de la prospective, qu’ils contribuent à faire vivre depuis 2011.

Ils se sont posé  une triple question : « Comment les entreprises intègrent-elles le long terme dans leurs processus de décision ? Quelle place y tient l’anticipation ? Et comment s’articule-t-elle avec l’action ? » et pour y répondre, ils ont mené une série d’entretiens avec les dirigeants de onze grandes entreprises, dont Danone, Michelin, Saint-Gobain, SPIE, Veolia, la Caisse des dépôts, Malakoff Médéric, etc.

Les réponses de ces dirigeants sont toutes différentes, mais elles illustrent bien comment chacun d’entre eux, avec son histoire et sa philosophie, anticipe, pratique la prospective et conçoit la stratégie de société ou de son groupe.

On en retire la conviction — réconfortante pour des prospectivistes — que la pérennité de ces entreprises centenaires s’explique largement par leur capacité d’anticipation. Parce qu’elles ont appris à faire face à l’inattendu, voire à l’imprévisible, en développant des stratégies permettant d’absorber les crises, elles ont su renouveler leurs modèles et apprendre de leur histoire, qui fait partie intégrante du « temps long » dans lequel elles savent se situer.

Ce rapport à l’histoire est l’un des enseignements de ce travail, qui s’est concrétisé par un livre publié chez Odile Jacob : « Le long terme comme horizon ».

Café de la prospective du 4 octobre – Raphaële Bidault-Waddington

Café de la prospective du 4 octobre – Raphaële Bidault-Waddington

Le mercredi 4 octobre à 19 heures, le Café de la prospective a reçu  Raphaële Bidault-Waddington.
Raphaële est artiste, chercheure et prospectiviste. Elle appartient à de nombreux réseaux académiques et artistiques dans lesquels elle apporte sa sensibilité, son imagination et ses compétences d’économiste et de prospectiviste.  Diplômée d’économie de l’immatériel, elle est membre du New Club of Paris, un réseau d’expert internationaux en politique d’innovation, du Prospective Lab (Cnam, Futuribles) et du collectif d’artistes et d’auteurs D-Fiction (d-fiction.fr ). En 2000 elle a créé le LIID Future Lab qui développe des labs à la croisée des sphères culturelle, académique, économique et urbaine, et prototype des méthodologies expérimentales qui peuvent inclure des formats artistiques (installations, architectures d’images, fictions).

Parmi de nombreuses collaborations en France et à l’étranger, elle réalise depuis 2012 avec l’agence Peclers, le cahier annuel Futur(s) qui ausculte les mutations du monde contemporain selon une méthode de signaux faibles, et à l’échelle internationale. Elle était venue nous présenter cette prospective du design et de la mode dans la 1ère saison du Café (2011 – 2012).

LIID pilote depuis 2008 le lab « Paris Galaxies, une vision pour le Grand Paris », hébergé depuis 2012 au sein de l’Institut ACTE (Art, Création, Théorie, Esthétique) de l’Université Paris 1 Panthéon Sorbonne, et lauréat à deux reprises (2013-14 puis 2015-16) du programme de recherche Paris 2030 de la Ville de Paris.
Ce projet modélise la métropole par le prisme de ses constellations, telle que celle cartographiant les lieux créatifs au-delà du Périphérique, où s’invente une métropole « bottom-up ».  Le projet inclut de nombreuses étapes telles que le workshop Grand Paris Futur (à horizon 2035). La dernière phase de recherche de ce projet,  sur laquelle s’est concentrée notre séance, est une expérience de Design Fiction qui prend la forme d’un récit « Paris Ars Universalis, scénario-fiction d’un futur Grand Paris », publié chez L’Harmattan en 2017.
Ars L’hypothèse des JO 2024 et de l’Expo Universelle 2025 sert de clé de voûte à l’analyse des transformations et à la projection future de toutes les strates de la métropole : gouvernance, urbanisme, économie, soft-power, culture, frivolité, religion, digital. Le Grand Paris devient alors le laboratoire de réflexions prospectives plus universelles et qui nous concernent tous.
Nous avons débattu avec Raphaële de (presque) tous ces sujets… et de quelques autres. Une séance passionnante totalement dans l’esprit du Café de la prospective.

Café de la prospective du 21 juin 2017 – Le syndrome de Cassandre – Marc Mousli

Café de la prospective du 21 juin 2017 – Le syndrome de Cassandre – Marc Mousli

Marc MousliMarc Mousli, économiste et prospectiviste,  est un des fondateurs du Café de la prospective, Il va ce soir vous présenter un travail en cours qu’il a appelé  le syndrome de Cassandre ou, de façon moins raffinée, Cause toujours !

J’ai constaté — comme beaucoup avant moi — que les catastrophes n’existaient pas. Des événements surviennent, et ils deviennent catastrophiques quand les hommes s’en mêlent … c’est-à-dire, le plus souvent, qu’ils préparent le terrain, faisant ce qu’il faut pour qu’un événement naturel ait de terribles conséquences alors qu’on aurait pu éviter qu’il se produise, ou du moins en limiter considérablement les effets négatifs.

Très souvent, on voit arriver la catastrophe, on dit qu’elle va se produire, et elle se produit quand même.

Pourquoi « le syndrome de Cassandre » ?

Apollon, dieu des arts et de la divination, était amoureux de Cassandre, la fille divinement belle de Priam, roi de Troie. Pour séduire la princesse, le fils aîné de Zeus lui avait fait un cadeau d’une grande valeur : le don de voyance. Il lui avait même permis de dire l’avenir en s’exprimant clairement, contrairement à la Pythie de Delphes, qui énonçait ses prophéties sous la forme d’énigmes absconses. La jeune beauté avait accepté le cadeau, mais s’était refusée au dieu. Pour se venger, Apollon l’avait condamnée à ne jamais être crue. La belle princesse est morte depuis trente siècles, mais la malédiction d’Apollon a continué à frapper ses compagnes et compagnons d’infortune, les milliers de chercheurs, d’experts, de techniciens, de journalistes et de « lanceurs d’alerte ». Ils décrivent la catastrophe qui s’approche, et personne ne les écoute.

Prévoir une catastrophe, puis la regarder se produire

L’un de nos grands prédécesseurs, Pierre Massé, expliquait que la bonne prévision n’est pas celle qui se réalise mais celle qui conduit à l’action, et que « prévoir une catastrophe est conditionnel ; c’est prévoir ce qui arrivera si nous ne faisons rien pour l’empêcher ».

Pierre Massé, Commissaire général du Plan du Général de Gaulle, énonçait ce qui était une évidence à ses yeux d’X-Ponts et de haut fonctionnaire : un dirigeant apprenant qu’une catastrophe va se produire fera tout ce qui est en son pouvoir pour l’empêcher. Donc, si un événement provoquant des dégâts considérables et faisant des centaines de morts se produit, c’est qu’il était imprévisible. Si les dirigeants n’ont pas réussi à l’empêcher de se produire, ou à en limiter les conséquences, c’est qu’ils ne savaient pas.

Bien entendu, tout cela est faux. De nombreux événements sont prévisibles, voire carrément prévus, et en tout cas clairement annoncés. Certains étaient évitables, et ils se sont produits quand même (les attentats du 11 septembre[1], la crise des subprimes, la chute de la Barings Bank ou l’affaire Kerviel). D’autres, notamment les cataclysmes naturels, ne sont guère évitables, mais on aurait pu éviter qu’ils ne deviennent des catastrophes, en protégeant mieux les installations et les hommes (Fukushima, Katrina), ou en prévoyant et en organisant correctement les moyens de secours (Titanic, Katrina, 11 septembre).

Entendons-nous sur le terme « catastrophe », un mot très fort (en grec καταστροφή : destruction, anéantissement). Un tremblement de terre de magnitude 8,9 sur l’échelle de Richter n’est pas une catastrophe, s’il se produit au milieu du Sahara, à des centaines de kilomètres de toute présence humaine. C’est un événement naturel. Si en revanche il se produit sur la côte nord-est du Japon, où l’on trouve deux centrales nucléaires en bord de mer, et qu’il se combine avec un tsunami, c’est un incident sérieux pour la centrale nucléaire de Fukushima Daini, qui devra être arrêtée et subira quelques avaries, et c’est une catastrophe nationale, avec d’incalculables répercussions dans le monde entier, pour Fukushima Daiichi, l’autre centrale, située à 12 kilomètres de Daini.

La catastrophe de Fukushima Daiichi était prévisible, prévue et évitable à peu de frais. Nous pourrons y revenir, mais je préfère parler de deux cas moins techniques : la crise dite « de 2008 » et l’ouragan Katrina.

Katrina, archétype de la catastrophe prévue.

« Un ouragan observé de très près qui a frappé là et quand les prévisionnistes avaient dit qu’il frapperait » Rapport du Sénat des États-Unis[2]

Le vent destructeur et l’eau imparable

Le 29 août 2005, l’ouragan Katrina dévaste la côte sud-est des États-Unis, du Mississippi à la Louisiane, sur une surface équivalant à la moitié́ du territoire français. La violence du vent provoque, comme d’habitude, de gros dégâts.

Mais dans La Nouvelle-Orléans, le pire ennemi des villes vient s’ajouter aux toitures détruites, aux voitures soulevées de terre, aux arbres arrachés : une inondation hors de tout contrôle. Bordée par le Mississippi et par le lac Pontchartrain, constituée pour moitié de plans d’eau et située en-dessous du niveau de la mer, la capitale du jazz est protégée depuis le 18e siècle par un système complexe, hétéroclite, d’efficacité très inégale, de digues (les « levées »)[3], et drainée par des pompes installées dans les années 1920.

Katrina ouvre des brèches graves dans les levées, très mal entretenues, et les pompes sont vite noyées. L’eau s’engouffre, détruisant tout sur son passage. Les quatre cinquièmes de la ville sont inondés (sous sept mètres d’eau à certains endroits) et tous les réseaux vitaux – électricité, eau potable, télécommunications – sont détruits. Sur les 28 hôpitaux, 25 sont privés d’électricité́, car les groupes électrogènes, placés en sous-sol, sont hors d’usage.

Les pompiers, les policiers, les transports publics, sont totalement désorganisés, les bâtiments de la garde nationale et de la police ont été envahis par les eaux, les matériels de secours sont détruits ou rendus inaccessibles.

Un ouragan terrible, mais annoncé et pas exceptionnel

Tous les habitants qui le peuvent évacuent la ville. Un tiers de la population ne reviendra pas de son exil forcé. Mais le sort le plus terrible est celui des 100 000 personnes restées dans les zones dévastées. Elles vont vivre une semaine de cauchemar. On comptera 1836 morts, 705 disparus, 100 milliards de dollars de dégâts matériels.

Tout cela alors que Katrina était un ouragan dangereux mais pas exceptionnel : de force variable[4] selon les moments, il a été classé comme le 10e, le 4e ou le 3e cyclone de la saison 2005. Et fort heureusement, son épicentre ne se trouvait pas au cœur de la ville, mais à 100 km à l’est. Comme trop souvent, le bilan très lourd est dû à l’incurie et au comportement aberrant des autorités locales, qui savaient pourtant ce qui allait se passer :

« Avant l’arrivée de Katrina, les dirigeants prennent clairement conscience qu’ils vont au drame. Ensuite, il leur faut une journée pour prendre acte de la réalité de ce qui ne faisait pour eux aucun doute [5]».

Un drame prévu, décrit et modélisé

L’un des rapports d’enquête publiés interroge :

« Pourquoi sommes-nous à chaque fois en retard d’une crise ? […] On a du mal à comprendre comment un gouvernement peut réagir de façon aussi inefficace à une catastrophe anticipée depuis des années, et pour laquelle des avis de sinistre précis avaient été lancés quelques jours plus tôt. Le drame n’était pas seulement prévisible, il était prévu ».

Des scénarios très réalistes : la série d’articles dans National Geographic, le mensuel de la Société nationale de géographie

Les documents prévoyant la catastrophe sont nombreux. L’un des plus impressionnants est la série de quatre articles que publie Joel Bourne à partir d’octobre 2004 :

« Des milliers de personnes noyées dans l’infecte boue liquide empoisonnée par les égouts et les rejets industriels. Des milliers d’autres, ayant survécu à l’inondation, sont morts de déshydratation et de maladie pendant qu’elles attendaient d’être secourues. Il a fallu deux mois pour pomper toute l’eau qui avait envahi la ville, au bout desquels la Nouvelle-Orléans était recouverte d’une épaisse couche de sédiments putrides. Un million de personnes étaient sans abri et 50 000 étaient mortes. La pire catastrophe naturelle de l’histoire des Etats-Unis.[6] »

Joel Bourne prévoyait un nombre de victimes supérieur à ce qu’il a vraiment été, car il situait le cœur du cyclone en pleine ville, alors que celui de Katrina se trouvait à 100 km à l’est. À ce détail près, on aurait pu, un an plus tard, faire passer ces quatre articles prémonitoires pour un reportage dans La Nouvelle-Orléans sinistrée.

Un exercice simulant l’ouragan, par la Protection civile fédérale

Les services fédéraux de la protection civile étaient aussi inquiets que les journalistes locaux. Ils avaient organisé en Louisiane, en juillet 2004, un exercice simulant un cyclone aux caractéristiques très proches de celles de Katrina. Ils avaient eux aussi surestimé le nombre de morts, mais vu juste en prévoyant que 100 000 personnes n’évacueraient pas la ville. L’exercice avait révélé une mauvaise préparation à̀ ce type de catastrophe, mais aucune mesure n’avait été prise pour remédier aux failles détectées.

Les ultimes avertissements, quelques jours avant la catastrophe

Enfin, quelques jours avant le 29 août 2005, le directeur du Centre national d’étude des ouragans (National Hurricane Center) multiplie les coups de téléphone aux responsables politiques locaux pour les avertir de l’arrivée de Katrina et de sa dangerosité. Il ne parvient pas à toucher le maire. Ses avis sont relayés par les nombreuses chaînes de télévision consacrées à la météo, mais la population ne réagit pas : « Comme le maire n’a rien dramatisé, personne ne prenait Katrina au sérieux[7] ».

Seule la gouverneure de la Louisiane s’alarme. Elle demande au maire de recommander l’évacuation de la ville et fait mettre en sens unique les autoroutes.

Refusant de recourir à Amtrak[8], le maire laisse un train vide quitter la ville en direction de McComb dans le Mississippi, et quand il se décide enfin à réquisitionner les bus, on ne trouve plus de conducteurs : ils sont déjà partis avec leurs familles.

(Absence de) morale de l’histoire

Ray Nagin, le maire démocrate afro-américain de La Nouvelle-Orléans depuis 2002, très critiqué pour sa gestion des secours, a été réélu le 20 mai 2006 avec 52,3 % des voix.

Le journaliste du Monde saluait cette réélection en expliquant que « la ville est au bord de la faillite, l’électricité́ et l’eau sont loin d’être rétablies partout, les digues ne sont pas encore réparées et la saison des ouragans (juin à septembre) va commencer » (Le Monde, 22/05/2006)

 

La crise de 2008, un krach prévisible et prévu

J’ai commencé à m’intéresser aux catastrophes prévisibles à l’été 2007. En vacances à Zurich, j’ai trouvé dans une librairie[9] un livre de Paul Jorion : Vers la crise du capitalisme américain[10]. Cet anthropologue, ancien trader, y décrivait le mécanisme des subprimes, expliquait en détail les pratiques frauduleuses des courtiers qui poussaient des ménages insolvables à contracter des emprunts, et annonçait la crise.

J’ai été impressionné par la justesse de la prévision, dans un livre publié en janvier 2007. En fait, j’ai appris un peu plus tard en bavardant avec Paul Jorion qu’il avait fini de l’écrire en 2004 et cherché un éditeur pendant deux ans !

Parfaite Cassandre, il s’imaginait que sa description solide et argumentée de la réalité allait susciter un écho.

Les dimensions de la crise de 2008.

On considère habituellement que c’est BNP Paribas qui a donné le signal de la crise « des subprimes » le 9 août 2007, en bloquant l’activité de trois de ses fonds de placement comportant des obligations hypothécaires subprime.

Pendant les dix années qui vont suivre, les pays développés seront plongés dans la plus grande dépression depuis celle des années 1930.

Aux États-Unis, plus de quatre millions de ménages modestes ont été chassés de leurs maisons saisies par leurs créanciers entre 2007 et 2012. Des centaines de petites banques (et une demi-douzaine de grandes) ont fait faillite, et la crise économique qui a suivi a mis au chômage plus de 35 millions de travailleurs dans le monde.

Le mécanisme bien huilé du marché immobilier résidentiel

À l’origine de cette catastrophe monstrueuse, il y a le marché immobilier résidentiel américain.

Ce marché fonctionnait selon une routine bien établie : un jeune couple achetait une maison avec un apport initial modeste et un prêt hypothécaire sur 20 ou 30 ans. Il revendait son bien, dix ans plus tard, avec une plus-value qui lui permettait d’acheter plus grand ; il renouvelait l’opération une ou deux fois au cours de sa vie, puis, quand ses enfants avaient quitté le foyer, le couple revendait sa grande maison, en achetait une plus petite et disposait de la plus-value pour sa retraite.

Le grain de sable des subprimes

Ce mécanisme bien rodé a été fragilisé quand le gouvernement, désireux d’accroître le nombre des propriétaires, a encouragé les prêts à des populations aux revenus très modestes. Les courtiers ont proposé une formule attractive : pendant les deux premières années, l’emprunteur n’avait à rembourser que les intérêts, calculés à un taux bas (et fixe). À partir de la troisième année, les remboursements réels commençaient, avec un taux variable et plus élevé que celui des prêts ordinaires. Grâce à la croissance très rapide de la valeur du bien, l’hypothèque garantissait le risque de défaut de l’emprunteur. Malgré cette garantie, ce type de prêt dit subprime était plus risqué que la moyenne (le « prime », consenti à un public solvable) et les banquiers s’y engageaient avec une certaine prudence.

Une innovation financière géniale : la titrisation

Une innovation financière ingénieuse, la titrisation, va complètement dérégler le système : au lieu de garder la créance dans ses comptes, le prêteur la revend à une grande banque qui la combine avec des centaines d’autres présentant différents niveaux de risque, pour fabriquer des titres composites proposés aux investisseurs. Les banques font habilement noter ces titres AAA ou AA par les agences de notation, qui n’y voient que du feu.

La titrisation transforme les prêts subprime, très rentables mais risqués, en une excellente affaire, puisqu’elle supprime les risques, qui sont noyés dans les titres, véritables millefeuilles de contrats, et dispersés aux quatre coins du grand marché mondial. Du coup, le montant des contrats subprime s’envole : 30 milliards de dollars en 1990, 625 milliards en 2005. Tout est en place, la crise peut exploser. Il suffit de mettre le feu au cordon bickford. La mise à feu va être réalisée par la baisse du marché immobilier, jusqu’ici inconcevable par le grand public américain, mais aussi par de nombreux banquiers et financiers. L’augmentation entre 1997 et 2005 était aberrante, mais n’était en fait que la prolongation d’un demi-siècle de hausse des prix de l’immobilier résidentiel, qui avaient déjà crû sans aucune pause depuis l’après-guerre jusqu’en 1996, à l’exception d’une légère baisse en Californie et au Texas au début des années 1990.

La très mauvaise surprise : les arbres ne montent pas jusqu’au ciel

Jusqu’ici, la poursuite de la forte progression de la valeur des biens, d’une part, et la faiblesse des remboursements pendant les deux premières années, d’autre part, limitaient le nombre de défauts.

Mais au printemps 2007 le marché immobilier se retourne. La baisse des prix ne permet plus de compter sur des hypothèques toujours plus élevées, les débiteurs voient donc se dérober la planche de salut qu’était la garantie hypothécaire, et une proportion importante d’entre eux fait défaut lorsqu’ils sont confrontés au choc de la troisième année.

De la crise des subprimes à la crise financière

La valeur des titres contenant des subprimes baisse, puis s’effondre. Ce qui serait un coup dur pour les marchés, mais pas une catastrophe si ces titres étaient bien identifiés. Mais la titrisation rend opaques les titres composites, et les investisseurs comprennent assez vite qu’on ne peut pas faire confiance aux AAA ou AA fantaisistes des agences de notation. La méfiance s’étend comme une traînée de poudre et toutes les transactions sont bloquées.

La crise financière fait des ravages. Elle atteint son summum le 15 septembre 2008 quand Lehman Brothers, quatrième banque d’investissement américaine par la taille, se déclare en faillite. Les États-Unis, et avec eux la moitié du monde, s’installent dans la crise économique.

 

Les Cassandre

En novembre 2009, la reine d’Angleterre reçoit des économistes. Elle leur demande : « pourquoi n’avez-vous pas prévu la crise ? » Elizabeth II se trompe : des économistes avaient parfaitement prévu et annoncé la crise, mais personne ne les avait écoutés.

 Gramlich, professeur d’économie et membre du Conseil des gouverneurs de la FED

Plusieurs universitaires avaient dénoncé en vain la bulle immobilière formée à partir de 1997 et qui a éclaté en 2007.  Certains d’entre eux avaient compris qu’une crise immobilière était en préparation. Citons le mieux placé pour agir : Edward J. Gramlich, professeur d’Université en économie, membre du Conseil des gouverneurs de la FED de 1997 à 2005.

En 2000, inquiet de voir les prêts risqués se multiplier, il avait demandé à son collègue Alan Greenspan, président de la FED, de lancer une enquête sur les pratiques des banques. Ce dernier avait refusé par pure idéologie : Greenspan était libertarien, et donc toujours partisan de laisser faire le marché au maximum. Placé dans un poste où il était le plus grand influenceur mondial des marchés — en quelque sorte un super-régulateur —, il était plus que sceptique sur l’effet des régulations.

La police

Nous ne développerons pas les craintes du FBI, qui avait averti la Chambre des représentants dès septembre 2004, en séance publique, de l’ « épidémie » de fraudes aux prêts immobiliers susceptible d’engendrer une « crise » financière si elle n’était pas endiguée à temps.

Nouriel Roubini

Nombre d’économistes avaient prévu plus ou moins clairement  la bulle immobilière, avec beaucoup d’approximations et d’incertitudes sur la date de son implosion. Très peu avaient vu arriver la crise financière. La pensée du mainstream était : « La chute de l’immobilier fera plonger les marchés, mais il ne faudra que quelques mois pour que tout rentre dans l’ordre ».

L’avertissement le plus spectaculaire par sa pertinence et sa précision a été lancé le 7 septembre 2006 par un professeur de sciences économiques à l’Université de New York, Nouriel Roubini, devant des économistes du Fonds Monétaire International. Il dresse un tableau exhaustif et précis de la catastrophe qui va éclater onze mois plus tard. Tout y est : le fiasco de la politique du logement, la crise financière, la faillite des deux grandes entreprises semi-publiques chargées de réguler le marché hypothécaire et la distribution des crédits immobiliers (Fannie Mae et Freddie Mac), la récession sévère de l’économie américaine, la propagation de la crise aux autres pays développés, les réactions de la FED, qui a en quelques mois abaissé son taux directeur de 5 % à 0. Il a même prévu, alors que les prix du pétrole étaient en hausse régulière, la troisième crise pétrolière.

Lorsque Roubini quitte la tribune, le modérateur de la conférence, rigolard, lance : « Eh bien, après cela, nous allons sans doute tous avoir besoin d’un petit remontant ! »

Les traders qui avaient tout compris

Lorsque Roubini annonce la catastrophe il ne court que le risque d’être surnommé « Doctor Doom » (Docteur Catastrophe). C’est effectivement le sobriquet qu’il a définitivement gagné !

Des traders ayant, avant lui, vu venir la catastrophe ont, eux, risqué non seulement leur réputation (un capital extrêmement précieux dans la finance) mais aussi leur argent (beaucoup). Dès le printemps 2005, ils ont anticipé la baisse du marché immobilier et calculé que les défauts des emprunteurs se multiplieraient à partir de 2007. En spéculant contre les subprimes, ils ont gagné des milliards de dollars. Michael Lewis a raconté quelques-unes de leurs histoires dans un livre : The Big Short (Le Casse du siècle)[11], porté à l’écran en 2015, sous le même titre, par Adam McKay. L’histoire la plus pittoresque est celle de Michael Burry, qui a fait créer un instrument financier, les CDS, spécialement pour spéculer contre les subprimes.

Gregory Zuckerman a raconté, dans The Greatest Trade Ever comment un autre gestionnaire de fonds, John Paulson, a mené à bien en 2007 la plus grande spéculation de l’histoire : il a gagné 15 milliards de dollars pour son fonds d’investissement (et 4 milliards de dollars pour lui) en pariant, comme Michael Burry et avec le même outil : le CDS, contre les titres subprime[12].

Dans la même veine, plusieurs banques ont joué un double jeu, poussant d’un côté leurs clients à acheter des titres contenant des obligations hypothécaires subprime, tandis que de l’autre elles réduisaient leur exposition au risque de ces mêmes prêts, parfaitement conscientes de la prochaine baisse des prix de l’immobilier. Citibank, par exemple, a commencé à spéculer contre les subprimes en 2006, tout en continuant jusqu’en 2007 à vendre des titres pourris à ses investisseurs. On peut également citer Bank of America, JP Morgan-Chase, Deutsche Bank, etc.

La Securities and Exchange Commission (SEC, leur Autorité des Marchés Financiers) et l’US Department of Justice n’ont pas passé l’éponge sur ce double jeu. Ils ont infligé des amendes colossales aux plus grands escrocs : 16,65 Mds à la Bank of America, 13,4 Mds à JP Morgan Chase, 7,7 Mds à Citigroup, 7,2 Mds à la Deutsche Bank, 5,2 Mds au Crédit suisse, 5,06 Mds à Goldman Sachs et 5 Mds à Morgan Stanley.

Débat

Participant

Comment le système des subprimes a-t-il pu prendre cette ampleur, et quel a été le rôle des mafias dans la crise ?

Marc Mousli

Les Américains n’avaient pas besoin de mafias pour fabriquer cette crise. Ils ont l’habitude de faire de la « cavalerie » en payant le solde d’une carte de crédit avec une autre carte de crédit, et dans toutes les villes américaines il y a des boutiques signalées par une enseigne « Change » où les immigrés illégaux peuvent encaisser leur chèque de paie sans avoir de compte en banque…Ils sont donc habitués à manipuler de l’argent sous de multiples formes. Et tout le monde a participé à la crise : financiers réputés, courtiers véreux … et victimes. Dans le film Cleveland contre Wall Street, certains emprunteurs reconnaissent leur complicité : le système était tellement séduisant qu’ils avaient acheté plusieurs logements ! Ils étaient persuadés de ne rien risquer grâce au parachute de l’hypothèque.

Quant aux pouvoirs publics, le système a été lancé par Reagan, et tous les présidents jusqu’à George W Bush ont suivi. C’est une combinaison fantastique de générosité et d’astuce : générosité des hommes politiques qui ont voulu rendre propriétaires des gens qui n’en avaient pas les moyens, et astuce des banquiers qui ont su diversifier les risques et les répartir sur les marchés. Voilà comment on fabrique une catastrophe avec de la générosité et de l’intelligence astucieuse.

Régine Monti

Les deux exemples questionnent la posture des experts que l’on n’écoute pas… ce qui est fréquent en prospective.

Marc Mousli

Dans le cas de Katrina, il y avait d’une part des professionnels dont c’était le métier de surveiller les ouragans (les météorologues) et d’entretenir les installations de sécurité (les ingénieurs). Ce n’était pas des experts extérieurs dont on se méfie toujours un peu : l’État les payait pour ce travail, ils étaient sur leur terrain d’action habituel et ils connaissaient bien sûr les dangers et les risques mieux que personne.

Quant à la crise de 2008, l’un des protagonistes était Ben Bernanke, Président du conseil des gouverneurs de la FED après avoir dirigé le groupe des conseillers économiques du président[13]. Il connaissait très bien G.W. Bush, qu’il voyait à peu près chaque jour. Ils parlaient de la situation, mais son approche était biaisée par la doctrine : imprégné (comme son prédécesseur Alan Greenspan) d’idéologie libérale, il intervenait le moins possible. Il lançait une bouée quand une banque était au bord de la faillite, en cherchant à ce que ladite bouée ne porte pas les couleurs du drapeau américain : son objectif premier était de faire sauver l’établissement qui coulait par un autre établissement financier privé.

Participant

Ce qui frappe ce sont les difficultés à réagir face à des événements graves. En Guyane, personne n’a vu venir la concurrence faite par SpaceX à l’Aérospatiale. Un an avant l’élection présidentielle, personne n’avait vu arriver Emmanuel Macron. Et en Martinique, nous avons 50% des jeunes sans emploi, on n’arrive pas à se faire entendre et un jour ou l’autre ça va péter, malgré tous nos efforts !

Marc Mousli

Je me suis concentré sur des cas dans lesquels les enjeux étaient considérables. Cela permet hélas de constater que les décideurs privilégient toujours le court terme, sans tenir compte des enjeux, qu’ils semblent incapables de comprendre. L’exemple type, c’est Fukushima, dont les conséquences ont été mondiales, portant un coup très rude à l’industrie nucléaire. Je ne dirai rien de SpaceX, qui disrupte de façon assez classique l’Aérospatiale. Mais si on prend l’exemple de Katrina, on comprend bien que le maire de La Nouvelle Orléans, confronté à ces problèmes considérables de maintenance, se soit dit « les levées sont là depuis le 18e siècle, elles peuvent bien attendre encore deux ans ». Si j’avais été son conseiller, je lui aurais dit : « tu ne remettras pas en état les 190 km de digues en deux ans, mais tu peux commencer les travaux, motiver et inciter des propriétaires privés à faire de même, et surtout t’intéresser aux moyens de secours en cas d’inondation – fréquentes dans cette ville — afin de limiter les dégâts : faire déplacer les groupes électrogènes qui sont dans les sous-sols, vérifier l’organisation des services de transport s’il faut évacuer des habitants, vérifier les accès aux matériels de secours, etc.

Quant à l’élection d’Emmanuel Macron, on trouve dans un livre de Michel Houellebecq paru en 2015, Soumission, une description fort convaincante de sa future prise de pouvoir : Mohammed Ben Abbes est jeune, intelligent et cultivé. Il crée un nouveau parti et remporte l’élection au second tour face au FN, rassemblant des électeurs (et des élus) de tous les partis républicains, qui implosent. Et il s’allie avec François Bayrou, dont le soutien est décisif. Le livre a eu un succès considérable (600 000 exemplaires vendus en France dans le mois qui a suivi sa sortie, et meilleures ventes de l’année 2015). Des millions de gens (le livre a aussi eu un succès considérable dans de nombreux pays, notamment en Allemagne et en Italie) avaient donc lu le récit de l’accession à la présidence du pays d’un homme encore jeune (43 ans pour Ben Abbes, 39 ans pour Macron), fin stratège et remarquablement intelligent.

Participant

Ne serait-il pas intéressant de faire un catalogue des catastrophes à venir ? Il y a deux ans, une crue proche de la crue centennale s’est produite à Paris, et à ma connaissance on n’a rien fait depuis pour mieux protéger la capitale. De la même façon, la Californie est sous la menace du Big one. Un film, San Andreas, raconte l’ouverture de la faille de San Andreas, qui longe la côte du Pacifique du Canada au sud du Chili, et la catastrophe qui s’ensuit.

Il serait donc intéressant de dresser une liste des catastrophes prévisibles pour lesquelles on ne fait rien.

Marc Mousli

Pour ce qui concerne les inondations catastrophiques dans notre pays, j’ai regardé d’assez près la tempête qui a touché la côte Atlantique à la fin février 2010, provoquant la mort de 59 personnes dont 47 en France. La commune la plus sinistrée a été celle de La Faute-sur-Mer, avec 29 morts.

La majorité des victimes ont été touchées entre le 27 et le 28 février, alors que les services météo avaient régulièrement lancé des alertes à partir du 23 février au soir, annonçant une dépression qui risquait de se transformer en tempête, et la Charente maritime, la Vendée, les Deux-Sèvres et la Vienne avaient été placés en alerte rouge. Plusieurs digues ont rompu, provoquant de fortes inondations.

Un rapport sévère de la Cour des comptes dénonce un laxisme criminel des maires : de 1999 à 2006, près de 100.000 logements ont été construits en zone inondable dans 424 communes françaises. Ce que ne dit pas la Cour des comptes, c’est que ce laxisme a été couvert, voire encouragé par la plus haute autorité de la République : en avril 2009, Nicolas Sarkozy déclarait : « Le problème c’est la réglementation. Pour libérer l’offre il faut déréglementer, élever les coefficients d’occupation des sols et rétablir la continuité du bâti dans les zones denses, permettre à chaque propriétaire d’une maison individuelle de s’agrandir, d’ajouter une pièce ou un étage, rendre constructible les zones inondables pour des bâtiments adaptés à l’environnement et au risque, utiliser les interstices, les délaissés d’infrastructures… Il faut changer nos procédures, notre façon d’appliquer le droit, sortir du respect passif d’une réglementation de plus en plus pesante ».

Pour le dossier le plus scandaleux, celui de La Faute-sur-Mer, une information judiciaire a été ouverte et le maire de la Faute-sur-Mer a été jugé et condamné.

Il est probable que l’affaire Xynthia se reproduira demain à l’identique. « L’Observatoire national sur les effets du réchauffement climatique a chiffré à plusieurs dizaines de milliards d’euros d’ici 2100 la destruction de logements que provoquera le recul de la côte pour la seule région Languedoc-Roussillon ». La seule solution est de construire en retrait des côtes. On voit mal les « petits » maires des communes littorales s’y résoudre !

Quant au Big One, la Californie est traversée par plusieurs failles (notamment San Andreas et Puente Hills), et les sismologues prévoient avec une très forte probabilité, à un horizon de 25 à 30 ans, un séisme majeur d’une intensité supérieure 7,5 sur l’échelle de Richter.

Je connais bien l’état de préparation à Los Angeles : les Angelenos prennent très au sérieux les tremblements de terre. Les bâtiments sont régulièrement remis aux normes antisismiques les plus sévères, la conduite à tenir en cas de séisme est connue de tous et les systèmes d’alerte collectifs et individuels sont sans cesse perfectionnés. Caltech[14] vient de mettre au point un « earthquake early warning » (EEW), avec une application que chacun peut télécharger dans son smartphone, et qui prévient dans la minute qui précède le tremblement de terre[15]. On ne peut pas sauver tous ses biens, mais on peut se jeter sous une table ou se placer dans un encadrement de porte.

Participant

On a une lecture a posteriori des événements. Mais dans les salles de marché, par exemple, on entend des milliers d’avis d’experts qui nous expliquent que la prochaine bulle ou le prochain krach est pour bientôt. Comment faire le tri ?

Lors de la crise des subprimes : la complexité des instruments était très grande : titrisation, swaps, CDO (Collateralized Debt Obligations), ABS (Asset Based Securities), CDS (Credit Default Swap), options diverses, etc. Est-ce que cela n’a pas limité les possibilités de réaction de certains acteurs ?

Sur ces sujets, on peut conseiller trois livres : Les Décisions absurdes, de Christian Morel, La soumission librement consentie, de Jean-Louis Bourgois et Pour un catastrophisme éclairé, de Jean-Pierre Dupuy.

Marc Mousli

Sur la première question, qui est sans aucun doute le point le plus crucial de ma recherche. Il y a des milliers de prévisions et d’avertissements, plus ou moins étayés, plus ou moins sérieux. Quand un avertissement est lancé par un expert sérieux, avec des arguments solides, on peut tendre l’oreille. Pour passer à la phase suivante : prendre des mesures, il y a un critère évident : les enjeux.

Parmi les exemples que j’ai donnés j’ai une certaine admiration pour les traders qui n’ont pas hésité à engager leurs propres fonds sur la crise de 2007, sûrs d’eux et de leurs analyses. Ils avaient su observer et étudier la conjoncture et, parmi tous les bruits de bulle immobilière, reconnaître la vraie opportunité et déduire le bon délai — ce qui est de loin la prévision la plus difficile à faire.

Quant à la complexité des instruments financiers et leur rôle dans la crise, il est clair que c’était, pour une partie de ces montages, une opacité voulue, une tactique des banques pour tromper les Agences de notation — qui se sont laissées faire, et ont donné des AA et des AAA à des titres pourris.

Participant

Il y a eu un faible écho médiatique aux 296 tremblements de terre à Yellowstone, la semaine dernière. On a là une menace énorme, pourtant.

La façon d’aborder le futur a beaucoup évolué à travers les âges. Autrefois il fallait pérenniser la civilisation dans des environnements très difficiles, et on travaillait à la fois sur la productivité et la résilience. La complexification des systèmes semble nous avoir focalisés sur l’efficacité, la productivité au détriment de la résilience. N’a-t-on pas négligé les gros problèmes — qui ont toujours existé — avec la circonstance aggravante de la complexité, qui multiplie les effets pervers et inattendus.

Marc Mousli

Rassurons-nous : les tremblements de terre de Yellowstone ne sont pas liés à la faille de San Andreas. Quant à l’appréhension des catastrophes au fil des siècles, entendons-nous d’abord sur le terme « catastrophe », un mot très fort (en grec καταστροφή : destruction, anéantissement). Un tremblement de terre de magnitude 8,9 sur l’échelle de Richter n’est pas une catastrophe, s’il se produit au milieu du Sahara, à des centaines de kilomètres de toute présence humaine. C’est un événement naturel. Si en revanche il se produit sur la côte nord-est du Japon, où l’on trouve deux centrales nucléaires en bord de mer, et qu’il se combine avec un tsunami, c’est un incident sérieux pour la centrale nucléaire de Fukushima Daini, qui devra être arrêtée et subira quelques avaries, et c’est une catastrophe nationale, avec d’incalculables répercussions dans le monde entier, pour Fukushima Daiichi, l’autre centrale, située à 12 kilomètres de Daini.

Les phénomènes provoqués par les humains sont en principe relativement maîtrisés. C’est lorsqu’on ne parvient plus à maîtriser des réactions en chaîne, comme dans la crise des subprimes, qu’une catastrophe survient. Pour les événements naturels, le facteur le plus important est la démographie : la population mondiale a été inférieure à un milliard jusqu’au début du XIXe siècle. En 2017, elle est supérieure à 7 milliards, et l’ONU prévoit qu’elle sera de 9,8 milliards en 2050. Il y a de moins en moins de chances pour qu’un grave événement naturel ne touche personne ! Et vous avez raison sur la résilience : la complexité de nos modes de vie peut nous sauver dans certains cas — grâce aux EEW qui nous préviendront de l’imminence d’un grave séisme, par exemple — et aggraver les dégâts dans de nombreux autres cas.

Régine Monti

Dans ta présentation, on voit des individus, et on ne voit pas le collectif, et ses représentants, agir.

Marc Mousli

Dans les cas que j’ai rapidement racontés, qui est le « collectif » ? Il y a des groupes de pression, des associations d’intérêts parfaitement antagoniques. Et ces « collectifs » ont-ils une efficacité plus grande que les dirigeants économiques ou politiques dont j’ai parlé ? Comme tout un chacun, je suis l’action contre les conséquences du changement climatique. Elle est menée par des ONG puissantes, censées représenter le collectif, et même l’avant-garde du collectif ! Mais je remarque dans ces organisations une versatilité qui n’empêche pas l’arrogance des militants persuadés d’avoir raison. J’ai dirigé il y a vingt ans un service de marketing stratégique. Nous nous sommes, un temps, intéressés à la biomasse, aux biocarburants … Nous étions à la pointe de l’écologie, puis, en quelques années, nous avons vu les carburants agricoles voués aux gémonies. Nous connaissons des épisodes comparables d’emballement suivi de fortes réserves pour les différentes techniques d’énergie solaire et éolienne, sans parler des véhicules électriques ou de l’économie collaborative (variante avancée, dans de nombreux cas, de l’économie de la fonctionnalité). On a l’impression qu’à chaque fois le collectif exacerbe les passions et les excommunications ! Et surtout, dans tous les cas dont j’ai parlé il existe une dimension « court terme versus long terme » et à ce jeu le collectif est très mauvais : il verse souvent dans le populisme !

Cela dit, l’important pour la population c’est l’information. Si des groupes ou des organisations vont chercher l’information, la diffusent, font comprendre les enjeux (si j’ai répété dix fois ce mot, c’est parce que c’est le talon d’Achille de toute la communication, qu’elle soit politique ou médiatique : on n’explique jamais les vrais enjeux). Prenons un exemple de « collectif » amorphe ou complice : les habitants de La Faute-sur-mer. Ils n’ont pas su (ou pas voulu) empêcher le maire de distribuer des permis de construire à volonté dans des zones inondables. Et pourtant les anciens savaient tout sur la question : ils mettaient naguère leur bétail à paître dans ces prés, ce qui est une utilisation intelligente : le jour où les terrains étaient inondés, les paysans mettaient simplement leurs bêtes ailleurs ou les gardaient à l’étable. Il n’y avait de dommage pour personne.

Participant

Des catastrophes avaient été clairement prévues et on n’a rien fait. Comment se fait-il que les gens intelligents aient aussi peu d’influence sur les événements ? La prospective peut-elle peser sur le  cours du monde ?

On a un peu parlé de guerre des idées ; il faut aller plus loin, et lutter aussi contre des croyances. On gagnerait donc à aller chercher un soutien du côté de la psychologie de la connaissance, de la sociologie de la connaissance, voire des travaux de Chaïm Perelman sur la rhétorique et l’argumentation, l’art de convaincre des personnes qui ne sont pas forcément rationnelles.

Marc Mousli

La prospective sait mettre à la disposition des dirigeants des scénarios très parlants. Ensuite, c’est à eux de s’en servir pour communiquer. Mais on a vu avec le cas de Katrina que l’on pouvait diffuser des scénarios durs, cruels, et non seulement pertinents mais, ce qui est beaucoup plus rare, précis, sans que la municipalité ou la population ne réagisse. Il est difficile d’influencer la décision publique dans ce sens : les dirigeants (élus) ont horreur des ruptures. Évoquer une rupture c’est annoncer des choses très désagréables. De plus, en entendant parler d’une perspective inquiétante, une grande partie du public, donc des électeurs, ne comprend rien : ils ne saisissent pas qu’il s’agit d’hypothèses. Leur réaction est : «Comment, le maire (ou le président) veut nous infliger ça ! ». On a clairement un problème de méconnaissance des cygnes noirs et de haine des ruptures.

——————–
[1]  Avec quelques réserves : l’attentat était évitable, mais il aurait fallu bousculer les administrations américaines, et disposer de plusieurs semaines de plus.
[2] Hurricane KatrinaA Nation Still Unprepared. Report, US Senate, May 2006.
[3] Schématiquement, la levée est haute d’un peu plus de 4 m, avec une largeur variant de 5 à 100 m dans la ville, de 4 à 5 m dans la campagne. Elle s’étend jusqu’à Plaquemines, à 190 kilomètres en amont de La Nouvelle-Orléans. Pour une description et un historique complet, Cf. Isabelle Maret et Romain Goeury, La Nouvelle-Orléans et l’eau : un urbanisme à haut risque, in Environnement Urbain Vol. 2/ 2008, en ligne le 09/09/2008. http://eue.revues.org/867
[4] Niveaux 3 à 5 sur l’échelle de Saffir-Simpson, qui en comporte 5.
[5] A failure of initiative, Final Report of the Select Bipartisan Committee to Investigate the Response to Hurricane Katrina, Feb. 2006.
[6] Joel Bourne, Gone with the Water, National Geographic, 10/2004.[7] Romain Huret, Katrina 2005, éd. EHESS, 2010.
[8] Amtrak est la principale compagnie ferroviaire américaine de transport de voyageurs. Je n’ai pas encore trouvé pourquoi le maire avait refusé de faire monter ses administrés dans un train.
[9] J’étais à Zurich en juillet 2017, et j’ai constaté une autre catastrophe : la librairie (Payot) a disparu, remplacée par une bête boutique de vêtements.
[10] Jorion Paul, Vers la crise du capitalisme américain, éd. La Découverte, 2007.
[11] Lewis Michael, Le casse du siècle, plongée au cœur de la crise financière, coll. Points, éd. Sonatine, 2010.
[12] Zuckerman Gregory, The Greatest Trade Ever – How John Paulson bet against the markets and made $20 billion, ed. Penguin, New York, 2009.
[13] Ben Bernanke a été, de juin 2005 à janvier 2006, Chairman of the Council of Economic Advisers of the President.
[14] California Institute of Technology.
[15] https://itunes.apple.com/fr/app/equake-earthquake-alerts-sensor-network/id1022523338?mt=8

Café de la prospective du 10 mai 2017 – Pierre Joly

Café de la prospective du 10 mai 2017 – Pierre Joly

Présentation de la réunion et de l’intervenant par Marc Mousli 

Nous avons le grand plaisir d’accueillir Pierre Joly, inspecteur général de l’Insee, qui a un long passé de statisticien et d’économiste à l’Insee puisqu’après l’École polytechnique il a étudié à l’Ensae, puis travaillé sur à peu près tout ce qu’on peut imaginer en matière de prévision.

Notre thème d’aujourd’hui est « prospective et prévision », et pour des prospectivistes, c’est souvent prospective versus prévision. J’ai mis sur la page Facebook du Café un lien vers le livre de Michel Godet, publié il y a 40 ans tout juste, en 1977 : Crise de la prévision, essor de la prospective. Il opposait les deux. Et l’esprit de ce livre, qui était d’ailleurs la thèse de Michel, a perduré.

En fait, quand on regarde la réalité, les prospectivistes font comme tout le monde, ils ont beaucoup recours aux prévisions, dont ils se servent en permanence. Et ils les prennent très au sérieux, surtout celles qui sont élaborées par l’Insee, institut reconnu dans le monde entier pour son sérieux et sa rigueur.

En six années de Café de la prospective nous n’avions jamais consacré une séance à la prévision. Il nous fallait combler cette lacune, et personne n’est mieux placé pour le faire que Pierre Joly, qui a beaucoup travaillé cette discipline à des niveaux qui exigent une excellente connaissance de l’économie, de la créativité et beaucoup de rigueur.

Pierre Joly

Merci de m’avoir invité, je suis content d’être parmi vous. Il est vrai que j’ai été amené, dans ma carrière, à faire des projections économiques dont je vais vous parler. J’ai aussi dirigé une école d’ingénieurs et j’ai été directeur régional de l’Insee en Languedoc-Roussillon. Je suis maintenant à l’inspection générale de l’Insee, où je travaille surtout à des problèmes d’organisation de l’Institut.

Mon expérience des questions de prévision est donc un peu datée mais elle n’est pas inutile pour avoir un débat.

Modélisation et prospective, tendances et ruptures

Je ne me considère pas comme un prospectiviste : je ne me suis jamais penché sur les méthodes prospectives, mes fonctions à l’Insee m’ayant plutôt amené à répondre à des questions sur des horizons de court et moyen terme, rarement de long terme. Pour cela, j’ai travaillé avec des outils qui permettaient de représenter les évolutions : des modèles.

Il y a une opposition traditionnelle entre modélisation  et  prospective : les prospectivistes critiquent les modèles, et les modélisateurs ne savent pas toujours comment utiliser l’information des prospectivistes dans les modèles, qui utilisent des valeurs économiques quantitatives et ne disent rien de ce qui est en dehors de l’économie. Ils raisonnent sur des moyennes plus souvent que sur des dispersions ; et ne tiennent pas compte d’éléments de qualité de vie même si on commence à faire des efforts de ce côté.

Ce qu’on reproche souvent aux modèles, c’est d’être figés, et d’avoir donc du mal à rendre compte des ruptures, sur lesquelles ils font plus ou moins l’impasse. Ce n’est pas tout à fait exact ;  je reviendrai là-dessus… En revanche, le prospectiviste, lui, imagine bien un monde dans lequel il va y avoir des ruptures. Je ne suis pas sûr qu’il sache toujours les anticiper, mais il sait qu’il y en aura.

Il est également vrai que l’exercice de prévision se termine par un scénario, ou éventuellement quelques scénarios, sans que l’on tienne compte de tous les facteurs d’incertitude. Dans ces exercices, à un moment donné on fait des choix qui ne rendent pas compte de la diversité des possibles. En même temps, si on commence à rendre compte de la diversité des possibles, on se retrouve devant un univers qui ne convient pas nécessairement au commanditaire du travail, qui demande un éclairage lui permettant de prendre des décisions.

Pour illustrer ces points, je vais m‘appuyer sur trois exercices où l’on a utilisé des modèles. Nous parlerons surtout des travaux du Plan mais cela vaut également pour le ministre de l’Économie et des Finances, qui doit présenter une loi de Finances et qui a donc besoin de prévisions ; de même les organismes internationaux ont besoin des prévisions pour alimenter leur vision du futur.

L’Insee, la Direction du Trésor, l’OFCE, la Commission européenne, l’OCDE, le FMI, un très grand nombre d’organismes ont besoin de modèles, qui sont, en fait, des représentations simplifiées de l’économie.

Je parle d’une époque où les outils n’étaient pas très faciles à mettre en œuvre. Aujourd’hui, c’est très simple, en fait, de construire un modèle, et il y en y a beaucoup plus… les banques ont leurs propres outils de modélisation, ainsi que les universités et de nombreux autres organismes.

Les modèles mettent en relation les grandeurs économiques que l’on cherche à mesurer et ils écrivent ces relations. Deux catégories de variables sont concernées : les exogènes, que le modèle n’a pas prétention à décrire, par exemple, dans un modèle national, la croissance des pays voisins est considérée comme exogène, tout comme la démographie : le modèle ne va pas rendre compte de l’évolution démographique. Ensuite, il y a des équilibres comptables qui imposent que la demande soit égale à l’offre. On a donc des équations comptables qui en rendent compte. Il va falloir expliquer le déficit de l’État, qui est un résultat comptable, et la balance commerciale, qui est de même nature. Et puis, il y a un certain nombre de variables pour lesquelles on va décrire des comportements et c’est là où il peut y avoir le plus de discussions : la consommation, l’investissement et même le commerce extérieur.

La prospective, elle, s’intéresse aux états du monde sur le long terme, un horizon où les modèles n’ont pratiquement plus aucune validité parce que, par définition, ils ont été construits à partir de ce que l’on connaît, à un moment donné, de l’évolution de l’économie, en se basant donc sur des données généralement plus anciennes. Donc, s’il y a des ruptures à venir, on ne pourra pas en rendre compte avec ces outils.

Par exemple, les conséquences des nouvelles technologies, si elles sont tendancielles, seront probablement prises en compte partiellement dans les modèles. Par contre, si elles constituent des ruptures majeures, elles ne seront pas envisagées. De même, pour l’emploi, on peut avoir des évolutions fortes dans les modes de fonctionnement du marché, alors qu’on va décrire l’évolution de l’emploi telle qu’on l’avait constatée dans le passé.

L’un des points sur lesquels on a le plus de problèmes, ce sont les gains de productivité, souvent considérés comme des variables exogènes dans les modèles. Ces gains de productivité, ce qu’on appelle le progrès technique, c’est un trend qui a connu des ruptures. On met souvent des inflexions dans les modèles quand c’est nécessaire, mais on n’a pas beaucoup d’informations alors que les variations sont assez fortes et que ce sont les gains de productivité qui donnent la dynamique du modèle. Alors, on essaie parfois de les décrire un peu plus précisément mais ça demeure un point délicat. Aujourd’hui, on a du mal à évaluer la croissance potentielle longue, parce qu’il faut faire une hypothèse sur les gains de productivité futurs, et qu’avec les nouvelles technologies, on ne les voit pas bien. C’est peut-être là que le prospectiviste, peut apporter des éléments pour améliorer ces connaissances.

De même, il y a des aspects nouveaux comme la dimension environnementale, qui prend de plus en plus de place dans la décision publique, alors que les modèles sont faits pour répondre à des questions du moment. Il faut donc améliorer les outils pour pouvoir dire des choses sur l’évolution de l’environnement et sur la production de CO2, en relation avec la croissance économique.

 Quelques mots  sur trois domaines d’application de la modélisation : l’exercice de planification, l’élaboration des lois de finance, l’énergie.

Les exercices de planification débouchaient sur une loi décrivant ce que pourraient être les cinq années à venir.  Elle était votée par le Parlement, avec des engagements de la puissance publique sur les moyens nécessaires à l’atteinte des objectifs visés. Dans ce cadre, il y avait des réflexions sur tous les domaines, à la fois sur les aspects sociaux, l’emploi, les problèmes sectoriels, en particulier l’agriculture, l’énergie, les transports, les problèmes territoriaux. Ces travaux s’appuyaient sur des études macroéconomiques menées parallèlement par le service économique, dont j’ai fait partie. On faisait travailler l’Insee pour qu’il nous fournisse des projections, des scénarios. Le Commissariat général du Plan fournissait des hypothèses et on faisait tourner un modèle macroéconomique, le modèle DMS (Dynamique Multisectoriel), un modèle assez lourd, parce qu’il voulait décrire l’économie de manière précise. Il y avait onze branches, dont trois pour l’industrie et en plus les industries agroalimentaires, le transport et l’énergie. Paradoxalement, le secteur des services était peu détaillé, alors qu’il est devenu un secteur particulièrement important. Et pour décrire cette économie, il y avait 1 900 équations dont 250 « de comportement », des équations économétriques estimées sur le passé. On était dans les années 80, et le modèle était estimé sur la période 1960-1980, donc sur une vingtaine d’année. L’estimation posait problème, car elle prenait en compte une partie des Trente Glorieuses, alors que la productivité s’était affaissée dans certains secteurs. Enfin il y avait 400 variables exogènes décrivant l’environnement international, la politique budgétaire, fiscale et monétaire, et des secteurs comme l’agriculture ou les grandes entreprises nationales, pour lesquelles on avait des informations sur les 4 à 5 ans à venir, que nous introduisions directement dans le modèle.

Le modèle était néokeynésien, avec une structure qui faisait qu’à court terme c’était la demande qui imposait son rythme. On partait donc des dépenses publiques, de la demande venant de l’extérieur, qui sollicitaient l’appareil de production, entraînant la production, l’emploi, les revenus, donc la consommation, etc. Tout cela rebouclait bien.

Le modèle étant keynésien sur le court terme, les meilleures mesures de politique économique étaient de faire de la dépense publique car les prix et les salaires, plus rigides, n’étaient pas immédiatement tirés par la croissance. À moyen terme, la croissance provoquée par une dépense des administrations relançait la production, l’emploi et entraînait des hausses de salaires, ce qui avait des conséquences sur les prix, ce qui affectait la compétitivité de l’économie ; donc, à moyen terme, on perdait un peu par rapport à ce qu’on imaginait avoir gagné à court terme. D’autant que les entreprises s’en sortaient moins bien, investissaient moins, et les capacités pour exporter étaient réduites.

Mais ce qui explique pourquoi c’est compliqué pour des hommes politiques de prévoir des mesures structurelles favorables à la croissance, c’est qu’elles mettent beaucoup de temps à produire des effets. Ce n’est pas le modèle qui est en cause, c’est la réalité. Tous les modèles rendent compte de ça : vous avez des mécanismes qui ont rapidement des résultats parce qu’ils jouent sur la demande, mais les mesures structurelles cherchant à améliorer la compétitivité et la qualification des hommes, mettent 4 ou 5 ans à produire des effets. Et en général, 4 ou 5 ans, c’est la durée des mandats politiques.

L’avantage de ce modèle, c’est qu’il explicitait ces phénomènes et alimentait la réflexion pour la construction du Plan, qui se faisait avec des partenaires : les syndicats, les entreprises, les universitaires, des associations. À ces partenaires il fallait présenter les scénarios que l’on construisait, les faire discuter, leur faire accepter ou éventuellement les modifier. En fin de parcours on pouvait avoir un certain consensus sur un certain nombre de scénarios.

Ces scénarios avaient été alimentés par les autres services du Commissariat pour tout ce qui était exogène, ce qui ne pouvait pas être calculé par le modèle dans des domaines comme l’industrie ou l’agriculture, ou encore des données sur lesquelles les points de vue n’étaient pas cohérents avec ce qu’on imaginait. On pouvait donc, à la marge, améliorer les scénarios qui, in fine, devenaient l’outil de référence pour tous ces services et les partenaires.

L’intérêt des modèles, dans cette démarche, était d’être un outil que tout le monde pouvait utiliser, un instrument de dialogue entre les différents services du Plan, qui permettait de créer une culture économique commune entre des acteurs qui n’avaient pas, au départ, une connaissance minimale des mécanismes économiques. Quand un décideur nous disait « On n’a qu’à faire ceci », nous répondions : « Ok, on regarde. » Il lui arrivait souvent d’oublier que décider une dépense publique c’est bien mais ça pose un problème d’endettement, par la suite, et que cela peut dégrader la compétitivité.

Le modèle DMS avait une force : il était assez gros et répondait donc à bon nombre de questions. Par exemple, un secteur ne pouvait pas dire : « Vous n’avez pas tenu compte du fait que les biens de consommation ce n’est pas la même chose que les biens intermédiaires… »  Ils étaient séparés. Donc, le fait d’avoir pas mal de secteurs c’est aussi une qualité qui était appréciée.

Par ailleurs, des documents expliquaient avec précision comment il était écrit, comment il fonctionnait. On faisait des « cahiers de variantes» et on étudiait les propriétés du modèle quand on modifiait des variables exogènes ; ses propriétés étaient connues, ce qui rassurait les partenaires sur l’outil.  D’une part, on ne les « truandait » pas, et d’autre part, ça leur permettait, avec le temps, de s’approprier l’outil.

Il y avait des défauts. La taille du DMS nécessitait une équipe assez importante à l’Insee, dont j’ai fait partie avant d’aller au Plan. C’est pour cela qu’il n’y a plus aujourd’hui de tels modèles. Il était lourd à cause du nombre d’équations, de l’importance des données exogènes. La prise en compte de la croissance internationale était un point fort : pour peu que vous sachiez décrire la croissance de l’Europe, celle de la France n’était pas trop différente, sauf si la compétitivité se dégradait. Donc, une fois qu’on avait introduit les données exogènes de croissance internationale on en avait déjà dit beaucoup sur ce que pouvait espérer la France en termes de croissance.

Cela dit, les hypothèses de productivité étaient faiblement expliquées et uniquement par l’estimation du passé. On utilisait, dans les années 80, des comptes nationaux 1950-1980, datant pour une grande part d’avant la crise pétrolière, une époque où la productivité était de 5 % par an. Aujourd’hui, on n’est pas du tout à ce rythme-là et même dans les années 80, elle avait sacrément baissé. On ne savait pas quel serait le futur, et on a toujours eu tendance à être optimistes. Pour un Plan, ce n’est pas une mauvaise chose, ça donne du courage à tout le monde.

Et puis, il y avait bien sûr le problème des ruptures de comportement ; j’ai parlé de la productivité, mais ça pouvait se faire dans d’autres domaines. On peut perdre de la compétitivité sur la qualité, et nous nous intéressions uniquement à la compétitivité prix et aux capacités de production, alors que certains concurrents se spécialisaient dans des produits à haute rentabilité, des spécialités. La concurrence allemande par exemple, n’était pas décrite aussi bien qu’elle l’a été plus tard… Alors, on n’arrêtait pas de dire : « Il faut faire de la formation, si on forme les gens, ils seront plus compétitifs. » Mais le problème c’est que la formation, c’était de la dépense, il fallait embaucher des enseignants… Enfin voilà, on faisait des hypothèses de ce type, mais le modèle ne pouvait pas nous dire : « Ah oui, mais ces gens sont formés donc ils vont être plus efficaces et améliorer la compétitivité ». On voit les limites de ce type d’outil.

Il y a enfin un dernier point, le côté boîte noire. Bien que tout ait été documenté et que donc on puisse avoir accès à l’information, pour la plupart des utilisateurs la documentation était aride : des équations, des coefficients, des choses peu plaisantes quand on n’est pas du métier ; il y avait donc malgré tout un côté boîte noire.

Pour terminer dessus, je parlerai de deux cas sur lesquels j’ai été amené à travailler.

Le premier est un test sur la durée au travail. C’était après le huitième Plan, François Mitterrand est élu Président de la République. Un Plan était en cours d’examen au Parlement. Les socialistes ont décidé un Plan intérimaire dans lequel ont été mises les 121 mesures du programme du candidat. On a donc refait des scénarios assez rapidement. Dans les mesures proposées, il avait les 35 heures après négociation avec les partenaires sociaux et le développement du travail en équipe de façon à être plus efficaces.

Quand on faisait tourner le modèle DMS, baisser à 35 heures, à court terme, c’était bien parce que ça créait de l’emploi, mais à moyen terme il y avait des effets négatifs : de l’inflation, parce que le chômage baissant, les salaires augmentaient, et une dégradation des capacités de production des entreprises qui n’arrivaient pas immédiatement à recruter des salariés qualifiés en nombre suffisant.

Donc ces effets n’étaient pas favorables. On a cherché pourquoi.  Le principal handicap était que les capacités de production étaient insuffisamment utilisées. On s’est dit : « Ce qu’on va faire en même temps, c’est développer, le travail en équipe. » On a donc introduit l’idée de développer le travail en équipe et des décrets sont même passés pour le favoriser. Nous avons introduit une nouvelle variable, qui n’existait pas dans le modèle : la durée d’utilisation du capital.

Si on augmentait la durée d’utilisation du capital, les 35 heures pouvaient être assez vertueuses. On devenait plus compétitifs en faisant tourner 24 heures des usines qui tournaient 8 heures jusque là.  Avec les 35 heures, les entreprises étaient de toute façon obligées de se réorganiser donc c’était plus facile pour elles de passer à ce cap-là, et on avait un effet efficace.

On a donc montré qu’il y avait un côté vertueux. Le seul problème était celui de la compensation salariale. Ce que disait le modèle, c’est qu’il ne fallait pas compenser à 100 % les 35 heures. Du coup, la décision politique a été de passer à 39 heures d’abord, avec compensation intégrale. Il n’y a donc pas eu autant d’effet qu’on l’imaginait sur l’emploi, et le gouvernement n’est pas allé plus loin. Voilà le type de mesures pour lesquelles on a utilisé le modèle.

Le deuxième cas c’est la mise en œuvre des 121 mesures. Ce n’est pas tombé au bon moment : la conjoncture extérieure n’était pas très bonne et du coup on s’est retrouvés dans une situation effroyable, avec trois points de PIB de déficit public et un peu moins de deux points de déficit extérieur. Aujourd’hui, ça fait rigoler mais à l’époque, c’était gigantesque par rapport à ce qu’on connaissait. Donc, immédiatement, il y a eu un changement de politique et on est partis sur un contrôle des salaires beaucoup plus fort parce que l’inflation montait très vite par rapport à nos voisins. La stratégie de désinflation compétitive a d’ailleurs été particulièrement efficace.

Je travaillais, à ce moment-là, sur le modèle DMS à l’Insee et on a été obligés en 1 mois, 1 mois et demi, de refaire tous les scénarios en se passant des équations de salaires, qui étaient normalement économétriques, et en prenant comme hypothèse qu’il n’y avait plus d’indexation sur les prix, ou une demi-indexation, et on a réécrit un scénario.

Le modèle DMS, donc, était très lourd. Il y a eu des versions plus légères, comme Mini DMS Énergie, avec très peu de secteurs mais un secteur énergétique assez développé parce qu’au Commissariat du Plan, les problèmes de long terme, c’était l’agriculture et surtout l’énergie et les transports, deux secteurs dans lesquels les investissements sont longs et lourds, ce qui oblige à les prévoir longtemps à l’avance.

Par la suite, l’Insee a abandonné le modèle DMS et est passé à un modèle plus léger, AMADEUS avec beaucoup moins de secteurs, et qui pouvait être mis en œuvre par des équipes plus légères.

A partir du 10e Plan, on a commencé à utiliser les modèles d’autres organismes : l’OFCE et COE-Rexecode avaient construit leurs propres outils, avec des point de vue politiques différents : l’OFCE très keynésien, COE-Rexecode qui ne regardait que le côté de l’offre et l’Insee décrivant une situation intermédiaire.

Sont ensuite arrivés des modèles multinationaux pour la construction de scénarios dont NiGEM, un modèle que les Anglais avaient mis à disposition de tous ceux qui souhaitaient l’utiliser, et qu’on utilise toujours.

Deux sujets dans lesquels j’ai été  un peu moins impliqué : la loi de finances et l’énergie.

La Loi de Finances doit s’appuyer sur une vision, mais à plus court terme que le Plan. C’est la Direction du Trésor qui est chargée de fournir un scénario, une prévision qui est celle retenue. Pour ce faire, elle a trois types d’outils : un qui présente le très court terme, c’est-à-dire les trimestres qui viennent. L’Insee produit ces prévisions, mais les gens du Trésor ne veulent pas être en retard, et ils en réalisent donc en parallèle avec leur propre outil. C’est une enquête assez lourde, et ils espèrent qu’à la fin l’Insee dira la même chose qu’eux.

Ensuite, ils ont, pour les deux années en cours, un modèle qui s’appelle Opale et qui réalise des prévisions à 1 ou 2 ans avec cinq secteurs institutionnels.

Les modèles pour ces utilisations sont trimestriels avec des ajustements de court terme sur certaines variables, et ils comportent une équation de long terme (modèle à correction d’erreur), qui permet de s’assurer de la cohérence à long terme.

Et puis, ils ont un modèle plus connu, Mésange, partagé avec l’Insee, qui est un modèle macroéconomique standard néokeynésien à 500 équations et 3 branches modélisées. Il leur sert à faire des variantes parce que les comportements économiques sont beaucoup plus travaillés que dans le modèle Opale. L’intérêt d’Opale est qu’il peut être mis en œuvre très rapidement : le Ministre veut qu’on change quelque chose, ça va très vite. Alors que Mésange est moins facile à maîtriser : il comporte beaucoup plus d’économétrie et dès qu’on commence à modifier quelque chose ça peut altérer tout le scénario global.

La Direction du Trésor fait d’abord un compte technique « brut » qui est présenté au Ministre et à son cabinet. Il y a des discussions, le Ministre peut dire « Je pense qu’on devrait pouvoir faire mieux, faire encore ceci. ». Les économistes réagissent et on arrive sur ce qu’on appelle un compte « normé » qui sera présenté au Parlement.

Entre temps, ces comptes sont examinés par le « Groupe technique de la commission économique de la nation ». Ce groupe – j’ai eu l’occasion d’y participer quand j’étais au Conseil d’Analyse Économique – regroupe les instituts qui travaillent sur la conjoncture : non seulement l’OFCE, COE-Rexecode, des universitaires, mais aussi les banques, qui ont toutes leurs scénarios. Il y a donc une confrontation. C’est très impressionnant : chacun donne ses hypothèses, ses résultats pour l’année en cours et l’année suivante . Cela oblige le Ministère à justifier ses choix ou ses résultats.

Ce qui est nouveau, c’est que ces prévisions sont ensuite présentées au Haut Conseil des finances publiques, créé pour éviter que le gouvernement ne prenne des hypothèses trop favorables pour présenter des comptes en équilibre ; si vous mettez plus de croissance, vous arrivez plus facilement à régler vos problèmes de solde budgétaire. Le Haut Conseil des finances publiques porte un avis sur la qualité et la probabilité du scénario qui est présenté.

Sur l’énergie, France Stratégie s’est intéressé aux problèmes de l’environnement et de la COP21, pour évaluer les impacts, proposer les mesures à prendre en termes de fiscalité du CO2, d’investissement dans l’isolation, enfin de dépenses possibles pour améliorer la situation. Souvent les outils utilisés décrivent bien le secteur en tant que tel mais ne parlent pas des conséquences globales pour l’économie ; c’est-à-dire qu’on subventionne un secteur pour qu’il soit meilleur, plus efficace mais une subvention reste une subvention, et dans un modèle macroéconomique c’est une dépense. Alors, il peut y avoir des effets bénéfiques mais en même temps, il y aura probablement des retombées économiques et l’État devra payer. Il peut y avoir des effets de substitution qui méritent d’être décrits.

Ils ont donc demandé à des équipes de modélisation (avec les modèles Mésange, Némésis (de l’école Centrale), et un autre modèle développé par l’ADEME et l’OFCE, de voir quelles étaient les conséquences macroéconomiques, des mesures en faveur de l’environnement. Évidemment, ces modèles disent que quand vous taxez, par exemple, le CO2, c’est un impôt donc ce n’est pas bon pour la croissance ni pour l’emploi. Mais en général ça fait des recettes pour l’État, qui peut les réallouer pour rééquilibrer.

Ils ont découvert que finalement les modèles sont assez proches pour ce qui concerne les économies de CO2 —pas Mésange : ce n’est pas du tout son truc, alors que les autres sont plus adéquats. En termes de PIB et d’emploi, ils ont trouvé, en gros, que quand vous mettez un point de PIB de taxation sur le carbone, vous gardez, plus ou moins, un point de PIB, à terme, de croissance parce que vous avez taxé mais vous avez enrichi le budget de l’État ; à lui d’utiliser le montant de la taxe à bon escient.

Le débat

Participant

Bonsoir, merci pour cet exposé. J’avais une question sur le niveau de fiabilité des modèles. Lorsqu’on utilise les séries longues, en économétrie, comment peut gérer les changements de définition fréquents sur le PIB, le calcul de l’inflation, le taux de chômage et autres qui sont quand même des données importantes ?

Pierre Joly :

Effectivement, on revoit les bases régulièrement, tous les 5-10 ans, et c’est terrible pour les modèles parce qu’une fois qu’on a changé les bases on ne peut plus travailler sur les anciennes et il faut réestimer l’ensemble du modèle. Par exemple, les chocs pétroliers ont modifié assez sensiblement la structure des prix. DMS a dû intégrer l’augmentation du prix de l’énergie et dans ce cas-là, vous avez des impacts sur un certain nombre de coefficients, qui peuvent altérer le modèle.

Mais les modèles sont basés sur une version datée de Comptabilité nationale, ils doivent le préciser dans leur notice et ils restent cohérents au moins pendant cette période parce que le PIB ne change de concept qu’à l’occasion d’une remise à niveau pour une nouvelle campagne. Récemment on a introduit dans le PIB de nouvelles grandeurs, d’autres ont été retirées, tout ça souvent pour respecter des règles internationales. C’est très organisé. On n’a pas une liberté absolue, en fait les pays sont obligés de tous faire la même chose et en plus nos comptes sont expertisés par les autres pays. Entre autres, les comptes de déficit public, d’endettement, sont discutés au niveau européen. C’est l’Insee qui fait les calculs et qui fournit les données, mais il faut que le PIB soit mesuré de la même manière pour tous, pour les raisons liées à la base de la fiscalité européenne mais aussi parce que déficits et endettement publics sont rapportés au PIB en valeur.

Participant 

On a quand même des différences de comptabilisation avec le reste de l’Europe, par exemple sur la manière dont on enregistre la valeur créée par les activités illégales, et puis aussi lorsqu’on regarde l’inflation, selon ce qu’on utilise ou pas comme produit de substitution dans les familles, qui permettent de mesurer l’évolution du prix, on arrive très vite, en fait, à créer des écarts de 1 ou 1,5 %, ce qui est énorme aujourd’hui compte tenu du niveau de l’inflation et du niveau de croissance. Est-ce que au final on peut encore avoir une fiabilité permettant de prendre des décisions ?

Pierre Joly

Sur le PIB en valeur, vous avez raison, il y a des pays qui prennent en compte la prostitution et d’autres la drogue. Vous avez aussi tout ce qui est le PIB informel, il y a des méthodes pour essayer de l’évaluer et chaque pays fait de son mieux. Par contre, pour les prix, c’est un souci ; il n’y a pas de méthodologie générale. On parle toujours de l’électronique, par exemple, où les prix devraient baisser très nettement parce qu’on vend au même prix des produits qui ont beaucoup progressé. Pour en rendre compte on utilise des techniques qui s’appellent « le prix hédonique » et tous les pays ne le font pas au même niveau. Donc, on peut avoir un impact différent d’un pays à l’autre.

Quand je dis que c’est normalisé, je dirais : le cadre est normalisé, les concepts doivent être proches enfin, il y a des règles qui sont définies ; après, dans la manière de le mesurer, chaque pays a sa méthode, et donc là, il peut y avoir des variantes. En France, on a toujours mis beaucoup de moyens sur l’information statistique. Il y a de plus petits pays, qui n’ont pas les moyens de mettre autant de ressources, sans parler des Grecs, par exemple, avec la mesure de leur PIB qui a quand même posé un sacré problème. Vous avez raison, il peut y avoir des écarts.

Participant :

Est-ce qu’il n’y a pas des pays, aussi, comme les États-Unis qui sont devenus des champions du tuning des modèles et de l’interprétation de certains concepts, notamment autour de l’inflation, pour pouvoir communiquer des données lissées un peu comme on en a envie ?

Pierre Joly :

L’inflation est souvent calculée par les Banques centrales. Aux États-Unis, la Banque centrale (FED) est indépendante. Vous ne pouvez pas changer le président du conseil des gouverneurs de la FED comme le directeur du FBI. Les Banques centrales font elles-mêmes des calculs, elles utilisent comme beaucoup des informations primaires réunies par les organismes. Par exemple, la loi numérique oblige l’Insee à mettre à disposition du public toujours plus de données ; le citoyen va pouvoir dire : « Moi, je veux ça ». Vous pouvez avoir la base Sirene par exemple, vous pouvez la télécharger, elle est désormais gratuite…

Et puis il y a un article qui est en notre faveur (c’est nous qui l’avons demandé). Il oblige les entreprises, en particulier celles du commerce et des télécom, à mettre à disposition de l’Insee leur base de données numériques sur leurs ventes de façon à pouvoir construire des indices de prix à un niveau beaucoup plus fin. Pour l’Insee ça fait une super économie : ça évite d’envoyer des enquêteurs pour aller chercher l’information, et on va avoir une base plus large. Il y a une obligation, pour les entreprises d’y participer. On espère réussir à les convaincre. En revanche, je ne suis pas sûr que les Allemands y arrivent.

Participante :    

J’ai une question double. Comment évaluez-vous les modèles que vous utilisez, par rapport aux autres pays européens ? Comment tout cela fonctionne, fonctionnait et fonctionnera ? Est-ce qu’on va pouvoir avoir une vision européenne fiable et comment ce groupe de pays fonctionne, est-ce qu’il y en a qui sont plus évolués que la France ?

Pierre Joly :

La Commission a un modèle macroéconomique qui s’appelle Qwest et qui décrit, pour chacun des pays, des éléments de croissance. Et le FMI a un modèle, Multimod, qui décrit aussi chacun des pays.

Les modèles nationaux peuvent être gémellaires : vous décrivez de la même manière les comportements dans les deux pays, et dans ce cas, quand vous faites un choc dans un pays il se passera des choses relativement voisines dans l’autre. La deuxième possibilité est qu’il y ait des différences de comportement d’un pays à l’autre.

La formation des salaires en Allemagne et en France, par exemple : c’était un sacré problème parce que les équations étaient très différentes. Les Allemands étaient très sensibles à l’emploi. On voyait bien que chez eux c’était le plus important et que les mécanismes économiques jouaient toujours en faveur de l’emploi alors qu’en France on avait le salaire minimum, qui atténue l’impact du chômage sur le niveau des salaires alors que chez les Allemands cet impact était beaucoup plus fort. Quand on faisait des variantes, on avait donc des effets extrêmement contrastés.

Ça ne répond peut-être pas complètement à votre question mais il n’y avait pas de bonne solution. Si on prenait exactement la même structure des descriptions de l’économie, on se tromperait un peu sur la France, un peu sur l’Allemagne mais les propriétés paraîtraient relativement homogènes. Mais ces modèles différenciés étaient bons parce qu’on voit bien qu’entre la France et l’Allemagne nous n’avons pas le même système de régulation et que ça a un impact : cela a joué contre eux à une époque, et ça joue plutôt contre nous à présent.

Participant

Je compléterais bien par une question sur les doctrines. Tu disais : «DMS était néokeynésien.» Alors aujourd’hui, dans les modèles, on a souvent un mix avec du classique et du keynésien, en fait du néoclassique et du néokeynésien. Quelles peuvent être demain les doctrines par pays ? Quels choix politiques ?

Pierre Joly 

Un modèle c’est de la responsabilité de ceux qui le font, déjà. Donc, c’est eux qui vont mettre les hypothèses qu’ils jugent bonnes. Ce sont des économistes, des gens sérieux qui vont y mettre ce qu’ils jugent bon.

Pour faire court, quand on était au Commissariat du Plan, on savait que le modèle de l’OFCE était keynésien. C’est moins vrai maintenant j’ai vu leur dernier modèle ils ont un petit peu amélioré, enfin, en gros il faut toujours faire de la dépense publique, alors que d’autres vont dire : « C’est efficace à court terme mais ça va dégrader terriblement la compétitivité. » Alors, c’est là qu’il peut y avoir, effectivement, une dose différente de description des comportements d’offre.

Je pense que la partie keynésienne des modèles, c’est la comptabilité nationale qui dit que le PIB c’est la consommation plus l’investissement plus les exportations et moins les importations puis après vous avez la distribution des revenus, l’emploi… Tout le monde décrit plus ou moins la même chose parce que ce n’est pas facile, en tout cas à court terme, de se différencier sur ces points-là.

Par contre, après, vous pouvez être plus ou moins précis sur l’offre et vous pouvez faire jouer un rôle plus important, par exemple, à l’investissement. L’investissement va affecter les équations de l’exportation et de l’importation. Si les entreprises investissent moins parce qu’elles ont moins de profit, elles vont dégrader leur compétitivité vis-à-vis de l’extérieur, en plus des prix. Si on imaginait un modèle dans lequel on dirait : « L’éducation, la formation des gens, ça compte. », il faudrait l’écrire et réussir à l’estimer. Il y a une règle chez les modélisateurs, c’est qu’ils estiment l’équation de comportement, et ne se permettent donc pas de garder des variables non significatives. Il y a un système de tests, une méthodologie que les économistes doivent respecter. Les grosses différences sur les modèles, enfin sur ce type de modèle néokeynésien c’est comment est traitée l’offre. Parce que la première partie, celle de court terme, n’a pas de raison d’être très différente d’un modèle à l’autre.

Par contre, il existe d’autres types de modèles, des modèles d’équilibre général. Je ne vais pas en dire plus mais ils sont également utilisés et sont plus intéressants pour faire de la prévision longue. Ils introduisent des principes d’équilibre de long terme basés sur des comportements respectant la théorie macroéconomique. Le problème, c’est que leurs résultats ne sont pas toujours facilement utilisables par les décideurs publics.

Participant

Je voudrais revenir sur un aspect de la modélisation. D’une génération de modélisateurs à une autre, y a-t-il des représentations, des modélisations qui diffèrent parce que, à un moment, on considère que le modèle a fait son temps, indépendamment des aspects doctrinaires que vous avez évoqués ? Est-ce qu’il y a des évolutions qui interviennent par sauts ou simplement parce que la puissance informatique offre des capacités de raffinement qu’on n’avait pas autrefois.

Est-ce que vous introduisez dans ces modèles, de façon explicite, des variables aléatoires comme on peut le faire dans des disciplines comme la Finance. Dans la banque, on a introduit explicitement l’incertitude dans les modèles. Sous quelle forme ça existe dans ce que vous évoquez ? Et puis, une dernière question : quid de l’intelligence artificielle, qui aura certainement à moyen terme des effets de substitution probablement assez importants sur le travail. Est-ce que ces éléments-là sont pris en compte ?

Pierre Joly :

C’est vrai qu’aujourd’hui, on ne fabrique plus de très gros modèles économétriques. Il y en a, en revanche, pour travailler sur les problèmes d’environnement. Némésis, qui ressemble beaucoup à DMS, est utilisé pour des contrats avec la Commission européenne parce que les Français sont plutôt bons, ils ont de bons outils.

Quant au calcul stochastique, on ne l’introduit pas tellement parce que les utilisateurs n’aiment pas avoir un produit qui, suivant que vous le faites tourner à deux heures, à trois heures ou à quatre heures, vous donne des résultats différents. On peut dire : « Sur des données exogènes, je mets de l’aléa et puis je fais un très grand nombre de simulations et après je regarde les résultats. Je ne suis plus suffisamment dans l’opérationnel pour savoir si ça se fait. Ça doit être assez coûteux, je comprends que ça puisse servir dans les métiers de la Finance mais les outils dont je vous ai parlé ont vocation à répondre à des demandes publiques importantes. Je ne sais pas comment vous pourriez expliquer à un ministre qu’on a mis des aléas et que suivant les aléas, il faudrait prendre des mesures différentes…

Quant à l’intelligence artificielle, il est certain qu’elle va prendre de la place. Personnellement, je suis un peu choqué de voir utiliser des techniques, pour mesurer des grandeurs, consistant à dire : « Je prends toutes les variables existantes, je fais tourner l’ordinateur et je regarde celles qui sortent. » Je fais partie d’une école où l’on voulait comprendre les mécanismes, pouvoir les expliquer, pouvoir dire : « La consommation augmente de telle manière parce que les prix baissent, ou les prix baissent parce que le taux de chômage a augmenté ». Enfin, on voulait pouvoir tenir, derrière des chiffres, un raisonnement économique.

C’est pour ça que je dirai que l’intelligence artificielle est une facilité, qui dégrade, à mon avis, le principe même d’essayer de comprendre les mécanismes.

Pierre Joly

Il faut savoir comment les big data vont être utilisées. Les jeunes de l’Ensae vont se régaler avec les modèles qu’on va construire. À un moment on avait intégré ce qu’on appelait les modèles VAR (vectoriels autorégressifs). c’était des modèles purement statistiques où on expliquait une variable par rapport à son passé. Il y avait plusieurs types de modèles VAR. C’était assez compliqué mais ça faisait des super courbes statistiques à l’Ensae. Mais derrière on se demandait : « A la limite, pourquoi on ne tire pas une droite. C’est dix fois plus simple que de faire des maths de haut niveau. » Donc, je pense que l’avenir ça sera ça.

Il y a juste une chose que je voudrais mettre en avant, par rapport à ces outils. Ces modèles ont quand même des cadres comptables stricts, qui constituent des forces de rappel importantes pour tempérer les opinions des décideurs. Quand on dépense de l’argent il faut le retrouver quelque part et lorsqu’on prend une mesure de politique économique elle peut impacter à la fois les taux de change, l’emploi, la consommation, l’investissement… Elle va jouer sur de nombreux domaines et ça rappelle à tout le monde que des équilibres vont être affectés et qu’on ne peut pas imaginer une mesure dans l’absolu sans regarder toutes les conséquences induites. C’est le problème des modèles non bouclés. Les modèles macroéconomiques sont tous bouclés et c’est leur force et leur utilité « sociale » alors que des modèles, par exemple, sur l’environnement, sont plutôt techniques ; ils expliquent bien comment des mesures vont influer d’un secteur sur l’autre mais derrière on ne décrit pas ce que ça signifie pour le consommateur, ce qu’il va payer, ce qu’il ne va pas payer. L’État subventionne, mais avec quel argent ? Donc, les modèles du genre de Némésis ont l’intérêt d’être bouclés. Ils décrivent plutôt mieux la réalité, et ils ont des appendices qui permettent de dire en plus que quand un secteur fonctionne, il produit tant de carbone ; à la limite c’est une variable accessoire, elle n’a pas d’impact économique direct, sauf si on met une taxe sur le carbone. Là, on peut dire : « Ça aura tel impact sur tels secteurs. ».

Participant

Moi aussi, je suis un grand amateur des modèles qui bouclent mais est-ce que dans le monde d’aujourd’hui, dans l’économie d’aujourd’hui, on peut encore envisager des modèles qui bouclent là où on a des économies beaucoup plus ouvertes qu’autrefois ; lorsqu’on était dans le Plan, c’était le circuit du Trésor, le contrôle des changes. Aujourd’hui, on a non seulement des économies beaucoup plus ouvertes mais aussi des systèmes financiers complètement ouverts avec des masses énormes de capitaux qui peuvent impacter l’économie réelle. Est-ce que dans ce contexte-là, on peut encore imaginer un niveau de bouclage qui inclut cette partie financière ?

Pierre Joly

Tout à fait. Dans les modèles dont je parlais, dont on se servait au Plan, c’était le début de la libéralisation financière, avec tous ses impacts et on décrivait la partie financière  de manière presque exogène. L’état fixait les taux des livrets, les taux d’intérêt, la masse monétaire. Tout était sous contrôle. Et puis on a eu l’euro d’un côté, et la libéralisation du secteur financier. Les financements peuvent aller partout. Ça a un avantage pour le modélisateur, qui peut tabler sur la rationalité de ceux qui déplacent ces sommes et en rendre compte dans le modèle alors que ce qui est contrôlé par un État, vous ne pouviez que le considérer comme exogène.

Donc, ça a une vertu pour les modélisateurs. En même temps, les modèles actuels ont des équations sur les changes vis-à-vis des zones non-euro. Mais dans la zone euro, il n’y a pas de différences de change entre ses membres.

Le fait, par exemple, que des entreprises vont choisir de s’installer à un endroit ou à un autre n’est pas remarquablement décrit, mais ce qu’on dit sur l’investissement va toutefois en rendre compte : si les conditions économiques sont plutôt favorables, les entreprises vont s’installer et l’investissement va croître. C’est à travers des règles de ce genre qu’on pourra dire que des conditions d’installation favorables ont un impact favorable sur la croissance du pays. A l’opposé, si les conditions sont moins bonnes, il y aura moins d’investissements. Mais c’est l’entreprise qui prend une décision d’investissement, et les modèles ne vont pas à ce niveau de finesse sur le comportement de chaque type d’entreprise.

Participant :

Avec les raisonnements qui dépassent le cadre économique classique, on a vu des quantités monstrueuses de capitaux qui, au lieu d’être utilisés en investissements productifs ont été utilisés pour racheter des actions afin de doper les cours, parce qu’il y avait un afflux de capitaux sans commune mesure avec ce qui existait auparavant. Et là, on perturbe de manière négative — et imprévisible par les modèles classiques — les décisions d’investissement qui font tourner l’économie réelle.

Pierre Joly :

Je pense en effet que les modèles n’en rendent pas bien compte.

Participant :

On a parlé de modèles puisque c’est la base des prévisions macroéconomiques, mais à côté il y a toujours eu des monographies, des études spécifiques. Les gens du Plan (ou maintenant d’un service quelconque de prévision) vont voir le Ministre en disant : « Voilà le modèle et puis à côté on a fait quand même un petit travail sur les comportements.» Je regardais, par exemple, récemment le financement des start-ups en France. Nous sommes les champions du financement de la phase de démarrage et des deux premiers tours de table. A partir du moment où on arrive dans la phase de croissance forte, on est nuls, on n’a pas assez d’investisseurs et les entrepreneurs sont forcés de traverser l’Atlantique. C’est complexe comme mécanisme, on ne peut pas facilement le rendre par une variable d’investissement. Donc, il faut bien, à côté, qu’il y ait des monographies.

Pierre Joly :

Sur un sujet comme celui-là, à la Direction du Trésor, ils ont un modèle mais c’est une toute petite partie de leur production. Ils travaillent sur les secteurs, ils lisent les monographies, ils font des maquettes, il y a toute une production économique qui peut passer par des outils ad hoc ou simplement par la lecture d’études. Mais c’est vrai que le Trésor a toujours envie de revenir à des chiffres.

Du côté des modèles macroéconomiques, les start-ups c’est le petit côté des entreprises. Ce n’est pas le problème du modélisateur, qui décrit certes les grandes entreprises, les entreprises de taille intermédiaire et les PME. Mais en termes d’emploi et d’investissement, les grandes entreprises c’est gigantesque. On dit que small is beautiful mais en réalité ce sont les grandes entreprises qui ont la plus grosse partie de l’emploi, la plus grosse partie de l’investissement, qui sont présentes à l’exportation, à l’importation. On espère que les petites entreprises vont se développer, que quelques-unes vont devenir Google. Mais pour le modélisateur qui doit prévoir le PIB et l’emploi, elles ne méritent pas qu’il s’y investisse particulièrement!

Participant :

À propos des start-ups, leur impact immédiat va être très faible dans l’économie réelle, mais l’aspect financier, avec les fonds qui vont amener des survalorisations peut, en revanche, avoir un impact non négligeable sur les cours de bourse et sur des indices purement financiers.

Pierre Joly

En fait, on n’en tient pas tellement compte, le financement des entreprises, en général, c’est des descriptions relativement sommaires, avec les outils dont je vous ai parlé. Il y a des services, à la Direction du Trésor, plus spécialisés sur ces questions, et je ne connais pas bien leurs outils. Ce sont le plus souvent des énarques, et je ne sais pas s’ils sont aussi modélisateurs, ils sont moins « Insee » que dans l’autre partie du Trésor, qui est plutôt du côté de la modélisation. Mais, pour faire court, en-dessous du milliard d’euros, ça n’intéresse pas tellement le modélisateur, cela relève de la maquette. Les scénarios sont un outil qui peut aussi être utilisé pour aller un peu plus dans le détail de ce qui se passe dans une région ou dans un secteur particulier ; ils ont l’avantage de donner un cadrage qui peut être pertinent.

Pierre Joly :

Encore un point que j’aurais pu évoquer… la conjoncture utilisait beaucoup, à une époque, le modèle METRIC dont Patrick Artus était l’un des fondateurs, et on s’en servait aussi au Plan. Le problème des modèles c’est qu’ils lissent beaucoup et donc pour de la conjoncture ce n’est pas terrible. Quand il y a eu les grands ralentissements en 1990, nous avions rencontré, avec le Commissaire général du Plan, le patron du Medef, qui disait : « Mais vous ne vous rendez pas compte. » On voyait bien qu’il y avait un ralentissement, mais lui nous disait : « Mais ça s’effondre ! » Effectivement même les conjoncturistes avaient du mal à le percevoir parce qu’ils utilisaient des outils où l’on voyait que ça baissait, mais qui faisaient jouer des forces de rappel, minimisant beaucoup la crise. Les chefs d’entreprise disaient : « Mais attendez, c’est la « cata », ça ne marche plus du tout. » Leur diagnostic était juste, et là il y a eu presque un conflit au sein de l’équipe, entre ceux qui défendaient la manière traditionnelle et ceux qui dénonçaient cet aspect négatif des modèles. Finalement, maintenant, on utilise beaucoup plus les enquêtes de conjoncture, qui sont nettement plus réactives ; on leur donne plus de poids pour décrire la conjoncture. A l’opposé, si vous prenez le modèle Mésange, il est utilisé une fois que la conjoncture est passée pour essayer de comprendre, parce qu’il apporte des éléments de compréhension globaux sur les comportements économiques à l’œuvre et qu’il peut aider à les décrypter ex-post. Il y a donc une inversion de l’utilisation de ces outils.

Marc Mousli 

Merci beaucoup, Pierre. Grâce à toi nous avons fait une plongée dans un domaine que nous n’avions jamais exploré jusqu’ici et qui est considérable. Il y resterait beaucoup à dire sur la façon dont les clients de l’Insee prennent leurs décisions. Quand on a donné les prévisions au Ministre, qu’est-ce qu’il en fait ? C’est autre chose, d’extrêmement intéressant d’ailleurs. Nous en avons un peu parlé au Café avec Stéphane Cordobès, de la DATAR, et Bruno Hérault, du Centre de prévision du Ministère de l’Agriculture : comment faire accepter des résultats à un décideur ? Mais ce n’est plus la responsabilité des modélisateurs. Merci beaucoup pour cette séance.

Café de la prospective du 14 décembre 2016 – Carine Dartiguepeyrou

Café de la prospective du 14 décembre 2016 – Carine Dartiguepeyrou

Carine Dartiguepeyrou

Carine Dartiguepeyrou est une prospectiviste confirmée et a cette caractéristique, qui tout compte fait est assez rare, de travailler dans plusieurs domaines. Elle travaille aussi bien pour des entreprises que pour des collectivités, elle fait du territorial et également des choses assez originales dont elle va vous parler. Elle est diplômée de la London School of Economics, elle a un doctorat où elle parlait déjà un peu de prospective, etc. Je vais la laisser se présenter.

 Je suis très émue de venir parce que c’est la première fois qu’on me demande de parler de comment je suis arrivée à la prospective et je voulais vous remercier.
Ma présentation est articulée en deux temps :

  • d’où je viens, car ce qui intéresse les gens du Café c’est de savoir comment je suis arrivée à la prospective.
  • ce qui me caractérise en termes d’actions, de types de projets sur lesquels je travaille.

Comment je suis arrivée à la prospective

Altérité et langues étrangères

Je suis Française, née en France et ce qui très tôt m’a caractérisée, c’est la passion pour l’altérité. C’est quelque chose qui est né très jeune puisque dès la maternelle, j’étais toujours amie avec « l’étranger de l’école », en l’occurrence une Japonaise — qui ne parlait pas français et qui a été ma première amie ; la deuxième était Finlandaise… J’allais toujours vers l’enfant arrivé en milieu d’année… En même temps, très jeune j’ai voulu pratiquer les langues étrangères pour mieux comprendre l’autre.

Ce goût pour les autres, pour la culture, a fait que j’ai fait de l’anglais dès la primaire, du russe — alors que mes parents n’étaient pas communistes tout en étant très engagés politiquement, puis de l’espagnol, du latin, un peu de grec, etc. Ce goût pour les langues m’a valu d’aller dans de bonnes écoles.

Russie et pays de l’Est

Je me destinais au concours d’Orient (conseiller des affaires étrangères). J’avais déjà vécu en Russie à la fin de l’Union soviétique avec une bourse du ministère des Affaires étrangères. J’ai fait mon DEA avec Hélène Carrère d’Encausse à Sciences Po. L’année où elle a été nommée académicienne, j’ai été chargée par les élèves de la classe de lui rédiger son discours de félicitations. Mon mémoire de thèse consistait à anticiper que l’URSS allait imploser par l’intérieur, par l’âme russe et qu’il y aurait une reconquête de l’identité russe. A l’époque Hélène Carrère d’Encausse pensait qu’il s’agirait d’une explosion à la périphérie de l’empire et qu’elle se ferait par les républiques musulmanes. Mais je fus quand même acceptée en thèse de doctorat !

En 1991, après la chute du mur de Berlin j’ai vraiment eu envie de participer à ce moment phare de l’histoire. Je suis partie du jour au lendemain en Pologne pour mon premier employeur, le ministre du travail polonais. Pour 150 dollars mensuels, j’ai travaillé sur la transformation de la Pologne un des pays les plus actifs à l’époque sur la voie de la transition.

London school of economics et banque européenne de reconstruction

Après cette première expérience, j’ai fait à la London School of Economics (LES), le master Politics of the World Economy. La Politique économique, le fleuron de la LSE, c’est étudié en Angleterre plus qu’en France où l’économétrie domine souvent. Quelques années auparavant, George Soros avait suivi le même master.

À la suite de mon master, j’ai intégré un cabinet britannique — j’y étais la seule française – créée par d’anciens ministres d’un peu partout en Europe et en particulier des pays d’Europe centrale et orientale et aussi britannique.

J’ai accompagné les travaux de la Banque européenne pour la reconstruction et le développement (BERD) à l’époque où Jacques de Larosière était président. Il était proche du président de l’entreprise Central Europe Trust dans laquelle je travaillais. J’ai eu la chance de le côtoyer. Je conduisais des missions de stratégie et de développement qui m’ont amenée partout en Europe centrale et orientale au-delà de l’Oural où j’ai travaillé sur les premiers fonds de capital-risque en Sibérie …. Puis j’ai effectué une mission sur la reconstruction de la Bosnie-Herzégovine. J’ai été une des premières et quasiment une des seules civiles à être allée dans ce pays au tout début de la réconciliation, de l’accord de Dayton. J’étais très jeune. Je suis partie là-bas pour la Banque mondiale et pour la Banque européenne pour la reconstruction et le développement avec 150 kilos de bagages dans un contexte de guerre, en avion pour parachutistes, avec l’Armée française. J’ai atterri à Sarajevo accompagnée d’une équipe composée uniquement de jeunes femmes. Nous sommes arrivées au fameux hôtel Holiday Inn — un des seuls hôtels subsistant sans fenêtre dans les chambres — pour vous dire que c’était un moment très particulier. Il y avait des centaines de gens qui nous attendaient pour pouvoir bénéficier de crédits alors que notre travail consistait à faire un état des lieux des actifs dans l’ensemble du pays. Tout l’enjeu a été, après, de circuler dans les trois zones dans un contexte extrêmement risqué. Pour arriver à sortir du pays, J’ai quasiment été exfiltrée. C’est une histoire que je ne raconte que très rarement qui fera peut-être l’objet d’un prochain livre.

Je suis rentrée en Angleterre et j’ai rédigé mon rapport pour la Banque européenne pour la reconstruction et pour le développement. À l’époque, la politique de la Banque était de mettre en place un dispositif de prêts moyens d’environ 1 million d’euros par investissement. Dans mon rapport mes conclusions étaient à l’opposé : « Le pays est complètement détruit, il faut développer le microcrédit ». C’était en 1995, et le sujet n’était pas d’actualité. On m’a dit : « mais tu n’y penses pas, ce n’est pas du tout ce qui est prévu, on n’a pas de lien là-bas, on n’a pas les maillons intermédiaires qui pourraient nous aider à faire. ». Avec ce séjour, j’avais appris la différence entre un pays en transition – c’est-à-dire qui aspire à plus de liberté, à la démocratie… portée par des intellectuels, des écrivains, des gens qui souhaitaient faire advenir une autre vision du monde comme cela s’est passé dans les pays d’Europe centrale dans les années 1990, et la Bosnie-Herzégovine un pays qui lui sortait de la guerre avec toutes ses atrocités. Ce séjour et les conclusions de nos travaux ont été très difficiles à vivre pour moi petite jeune femme un peu crédule. À partir de ce moment-là je me suis dit que j’allais continuer à être passionnée par ce que je faisais, mais qu’il fallait que je travaille beaucoup plus sur moi, sur ma distanciation, sur ma prise de recul, sur le sens de mes actes et au service de quelle mission je devais mettre mon énergie à l’avenir. Je vous raconte « ce détour » parce que c’est aussi de cette façon que je suis arrivée à la prospective.

Thèse sur la société de l’information, collaboration avec la Rand Europe et post doc chez orange lab

À mon retour en France, j’ai repris ma thèse en 2000, mais j’ai fait le choix de m’inscrire en relations internationales à Paris I Panthéon-Sorbonne car je voulais travailler sur l’Europe et les enjeux de la globalisation. J’ai eu la chance de rencontrer des personnes extraordinaires : Thierry Gaudin, Francis Jutand, Armand Mattelart, également Michel Saloff-Coste qui ont beaucoup compté pour moi. Ma thèse portait sur la société de l’information avec une forte dimension systémique par laquelle je suis arrivée à la prospective.

Ma thèse a porté sur l’étude de la politique européenne en matière de société de l’information avec une comparaison des scénarios d’avenir de l’Europe. J’y analysais le changement de paradigme civilisationnel.

J’ai rejoint en parallèle un cabinet de conseil — je crois qu’il n’existe plus. Un jour un manager est venu me dire : « Tu dois parler anglais, il y a des missions pour la Commission européenne, personne n’en veut parce que ce ne sont pas des business profitables, est-ce que ça t’intéresse ? ». J’ai dit : « Oui, bien sûr. » Dans les années 2000 — c’était l’époque de l’émergence de la politique européenne en matière de société de l’information.

C’est à cette époque que j’ai connu la RAND Europe qui est la filiale européenne de la RAND corporation (grand organisme de recherche très investi sur deux domaines : la sécurité et les politiques publiques, en lien direct avec l’administration américaine). La RAND Europe était basée en Hollande et ses chercheurs étaient très investis dans les projets européens dans le domaine des nouvelles technologies et de la société de l’information. J’ai effectué donc des missions de prospective pour la Commission européenne. J’ai participé à une des plus grandes démarches Delphi — la plupart d’entre vous connaissent cette technique — et j’ai eu la chance de participer à cette démarche Delphi à l’échelle planétaire sur le Global Course of the Information Revolution, en Asie, aux États-Unis, en Europe…

Une fois ma thèse finie, j’ai été invitée à faire mon post-doctorat à Orange R&D. Francis Jutand en était le directeur scientifique avant de partir pour aller ouvrir ce qui allait devenir le premier département sur les TIC au CNRS. Mon post-doctorat ne portait pas sur des questions de prospective à proprement parler, mais je comparais différents scénarios de l’Europe à l’horizon 2020 et je proposais ma propre vision d’avenir.

En 2010 je créé mon entreprise et depuis je consacre mon temps uniquement à la recherche et à la prospective.

À travers les premières étapes de mon parcours, j’ai essayé de vous dire que pour moi la prospective est forcément très nourrie de vision et de stratégie cela me donne une empreinte particulière par rapport à d’autres confrères.

Ma vision de la prospective

La prospective, comment est-ce que je la vois ? Je me retrouve complètement dans la vision de Gaston Berger. C’est somme toute assez classique. J’ai connu Philippe Durance alors qu’il était en thèse d’ailleurs à l’époque. Il allait créer aux Éditions L’Harmattan la collection Recherche et prospective qui est admirable. Nous avons commencé à dialoguer à ce moment-là et c’est lui qui m’a sensibilisé à l’héritage de Gaston Berger. Je me retrouve complètement sur les trois paramètres que donne Gaston Berger : le « voir large », le « voir loin » et le « creuser profond ».

Creuser profond & représentations & pâte humaine

Ce qui m’intéresse, c’est le « creuser profond », c’est-à-dire d’essayer de comprendre ces plaques tectoniques qui évoluent de manière très profonde concernant l’évolution des cultures, des sociétés, qui nous permettent non seulement d’anticiper à beaucoup plus long terme, mais qui aussi nous permettent de comprendre comment les évolutions sont arrivées par le passé.

Cet intérêt pour les évolutions socioculturelles est aussi relié à une belle rencontre aux États-Unis — dans les années 2000, en Californie — avec Brian Hall et je travaille beaucoup à partir de son analyse des systèmes de valeurs.

Ce travail, ce « creuser profond », consiste à comprendre les représentations des personnes, des groupes, des institutions. La représentation, c’est la première étape de la prospective. Se forger une représentation du monde c’est déjà comprendre dans quel paradigme on est ; c’est également comprendre les représentations et les paradigmes des autres. Pour cela il faut un travail énorme.

Souvent, les institutions, les organisations ont du mal à rentrer dans cette étape, car c’est contre-intuitif ce  « creuser profond » de Gaston Berger. On se dit qu’on veut aller loin, vite, que l’on veut anticiper, mais en fait c’est en creusant profond que l’on gagne du temps, car on va pouvoir s’appuyer sur une dimension vraiment tangible : la pâte humaine. Ce n’est pas à vous que je vais dire qu’aujourd’hui, avec les fulgurances existantes en matière technologique ou écologique, que l’on a besoin de cette « pâte humaine », de cette compréhension de l’homme, encore plus parce qu’on est — comme dirait Hartmut Rosa — dans cette « accélération sociale ».

Ce qui me caractérise et qui m’intéresse ce sont les émergences socioculturelles, les signaux faibles, c’est-à-dire les outils de base du prospectiviste : qu’est-ce qui émerge ? Qu’est-ce que l’on peut voir, sentir ? Quels sont les signes qui donnent à voir et qui nous permettent en terme socioculturel de voir des possibilités d’évolution des sociétés ?

Les changements de paradigmes : technologie et écologie

Ma thèse déjà portait sur le changement de paradigme sociétal.

Le changement de paradigme est aujourd’hui au cœur de beaucoup de choses notamment parce qu’on le comprend par notre rapport aux technologies : veut-on investir massivement dans ces technologies ? Préfère-t-on au contraire se distancer et avoir, je ne sais pas, un usage de l’intelligence artificielle faible, mais se dire : « On ne va pas au-delà », etc. ?

L’autre grand changement de paradigme, c’est l’écologie. Très souvent, l’écologie ne rejoint pas le numérique. Pour ma part, je les ai intégrés très tôt. J’ai prolongé après Edgar Morin le concept de l’écologie de l’action, où j’ai repris, mais pas comme il entendait écologie de l’action, sur des futurs, des trajectoires qui peuvent être détournées dans l’histoire ; pour moi c’est plutôt au contraire prendre conscience de son interdépendance avec les humains et la planète, essayer de déconstruire ses préjugés, essayer de s’ouvrir à un cadre beaucoup plus large celui du vivant, à tout ce qu’on connaît, mais aussi à ce qu’on ne connaît pas et agir en conscience avec nos rythmes biologiques, etc.

Pour revenir aux représentations, on voit bien que travailler sa représentation ne signifie pas uniquement travailler la représentation de son business, c’est travailler la représentation du monde, de la planète, de son groupe, de son action, de son collectif et aussi de soi. Le travail que je fais est beaucoup sur cette articulation entre le « je », le « nous », la « planète » et je trouve que l’idée de la planète nous relie à notre dimension de conscience, d’empathie, d’altruisme, et donc en cela c’est écologique.

Enfin, avec le rythme effréné d’accélération, on voit bien comment la connexion, le numérique est en fait complètement lié à la dimension du vivant, de la nature, de l’écologie…

Mes actions concrètes en matière de prospective

Les missions que je conduis se font au fil de l’eau. Je ne démarche pas. On vient à moi parce que ce qui intéresse les personnes, c’est de travailler sur leur vision prospective, sur ce changement de représentation, de posture en embarquant les acteurs, les collaborateurs. Ces missions sont toujours décidées au plus haut niveau de l’organisation même si les démarches bottom-up sont essentielles, car on a besoin des deux. Mais aujourd’hui, la décision de changer de braquet, de se transformer, de travailler la vision d’avenir à 20-30-50 ans vient toujours par le haut.

J’ai envie de vous parler de trois exemples.

– le travail de prospective dans le cadre de la Fondation Télécom

– pour les grandes organisations : visions du monde et système de valeurs

– prospective et innovation publique pour le département des Hauts-de-Seine :

Le travail de prospective dans le cadre de la Fondation Télécom et le questionnement prospectif

Ce travail porte sur les transformations numériques des organisations à l’horizon d’une dizaine d’années. Il a été financé par la Fondation Telecom et réalisé dans le cadre du think tank « Futur numérique » créé par Francis Jutand en partenariat avec Accenture, Orange, BNP PARIBAS, SFR, Alcatel-Lucent, etc. On a été rejoints par Google sur les enjeux de données personnelles. Tous ces travaux ont été rendus possibles en créant un cadre de confiance permis par la prospective.

La première année, en 2010, on a travaillé sur les nouvelles formes d’organisation à l’ère des réseaux, en se posant la question : « Est-ce que finalement le réseau social d’entreprise va anéantir la hiérarchie d’ici à 10 ans ? » L’année d’après, on a travaillé sur l’innovation ouverte pour savoir comment elle allait réinventer ou non les organisations. On a aussi travaillé sur les données personnelles, les générations, le leadership et les nouvelles expressions de pouvoir, plus récemment sur l’efficacité collective, etc.

On proposait donc un sujet chaque année et ce qui était original c’est que l’on partait des problématiques des entreprises. Je faisais un tour d’horizon pour voir quels étaient leurs problématiques et leurs questionnements ? À partir de là, on concoctait un programme et on mobilisait des chercheurs pour éclairer les problématiques, à commencer par les chercheurs de la maison de l’Institut Mines-Télécom — mais pas uniquement.

Ce travail est caractérisé par un dispositif en trois éléments.

– Décloisonnement entre acteurs qui acceptent de travailler ensemble, car nous sommes arrivés à créer un cadre de confiance, la prospective permettant cela. Si on regarde le camembert sur le très court terme, on se dit : « On est tous concurrents… », mais si on regarde le monde à venir, à 10-15 ans, on est beaucoup moins centré sur ses propres enjeux de court terme et on a intérêt à coopérer et à partager ses différentes visions du monde à venir.

– Décloisonnement aussi avec les chercheurs. On invite des chercheurs à contribuer aux travaux avec les opérationnels  venus de tous les univers, de l’innovation, du marketing, du business, du juridique, de la R&D etc.

– Questionnement prospectif avec génération du maximum de questions dans un temps record sur une problématique. Cela est très facile à faire et c’est très riche. Maintenant, j’utilise ce questionnement prospectif, quel que soit l’environnement. En générant le maximum de questions, on arrive à faire que chacun s’exprime sur sa représentation du monde, du sujet et on voit les points convergents et divergents.

Souvent, il y a surtout des convergences. À partir de ce matériel, il s’agit en fait d’arriver à voir ce qu’il y a comme « trous dans la raquette » et quelles sont véritablement les questions qui nous manquent. Là je m’inscris complètement dans la philosophie de Gaston Berger pour qui : « Imaginer le monde de demain n’est pas forcément avoir les solutions. ». On sait bien qu’on n’aura pas les solutions qui vont exister dans 10-15 ans, mais c’est déjà arriver à se poser les bonnes questions.

L’ensemble de ce travail est ensuite réuni dans un cahier de prospective avec les contributeurs aux ateliers qui mêlent toujours cette idée de décloisonnement avec à la fois des contributions des chercheurs, des opérationnels en étant allé les chercher dans leur questionnement prospectif.

Pour les grandes organisations : visions du monde et système de valeurs

Un deuxième type de mission, très différente, dans le cadre d’une organisation, généralement une grande entreprise ou une institution publique. Je ne vais pas parler des missions en particulier spécifiquement — mais vous exposer comment, en faisant travailler la représentation des personnes, je leur fais écrire leur vision du monde. En premier lieu il s’agit d’arriver à convaincre, surtout dans le cas des entreprises, de ne pas entrer tout de suite dans la vision business, car vous le savez, l’incertitude et les points d’inflexion vont venir dans la plupart des cas de la vision du monde. En effet, sur la vision business, il n’y a pas grand-chose à discuter. La vision du monde, c’est là où on peut exprimer la singularité des uns et des autres, la diversité. C’est une approche que j’emploie souvent au niveau international  pour exprimer les diversités culturelles sur « comment le monde à 20-30 ans, etc. se dessine ».

À partir de ces productions de visions, je fais une analyse en termes de systèmes de valeurs. Concrètement, à partir des histoires qui ont été générées, je repère les systèmes de valeurs par une approche systémique et je fais un retour sur le paradigme dans lequel le collectif, l’organisation se trouve. Je vais révéler des paradigmes modernes ou technologiques, des paradigmes très éthiques, très écologiques. Ce qui est aussi très intéressant à travers ces systèmes de valeurs c’est de voir, bien sûr, les convergences, par exemple dans une organisation, un secteur, tous convergent sur le fait que le monde va s’écrouler quels que soient les sujets, les types de business et après une remontée, et aussi bien sûr les « trous dans la raquette ».

Ce qui est intéressant aussi c’est de voir l’énergie qu’il y a derrière ces représentations du monde, et ce qui fait la singularité de l’organisation. Ce qui compte c’est que l’organisation soit cohérente par rapport à sa vision du monde. Si elle est dans une vision du monde complètement béni-oui-oui et que, par ailleurs, elle n’est pas du tout comme ça dans ses pratiques business de tous les jours, forcément il y a un problème.

À partir de ces inputs, les acteurs sont ensuite d’accord pour construire une vision collective et surtout pour la mettre en place.

Je pense que ce travail sur les visions du monde à venir et le business est extrêmement riche. Il était souvent considéré comme un détour jusqu’alors, il l’est de moins en moins à présent. Les organisations se rendent compte à quel point elles ont intérêt à faire ce « détour » en créant leur avenir. Anticiper l’avenir, c’est déjà le faire advenir opérationnellement.

Prospective RH

Je mène également d’autres missions comme, par exemple, des missions de prospective RH… où on est plus sur la question — non pas celles relatives aux métiers — il ne s’agit pas de déterminer comment les métiers se pratiqueront dans le temps à 30-40 ans  – mais d’identifier comment les disruptions peuvent impacter les activités et comment ces dernières vont pouvoir s’appuyer sur des compétences et des capabilités et quelles sont les compétences dont les organisations auront besoin.

Ce sont des méthodes assez classiques de backcasting : on travaille sur des visions d’avenir et ensuite on se met d’accord sur des positionnements stratégiques et après, en backcasting,  on répond à la question : comment on fait en termes de stratégie, quel est l’impact RH en termes de compétences, formation, recrutement, etc.

Pour le département des hauts de seine : prospective et innovation publique

Le troisième type d’exemple de mission est très différent des deux précédents.

En 2011, la directrice de cabinet de Patrick Devedjian, président du département des Hauts-de-Seine, connaissait bien mon travail et m’a demandé de réfléchir à ce que pourrait devenir la maison Albert-Kahn située derrière le musée du même nom à Boulogne-Billancourt.

Albert Kahn

J’ai fait une recherche documentaire sur la vie d’Albert Kahn. Pour ceux qui ne le connaissent pas : il a vécu à la fin du 19e — début du 20e siècle. Il est mort très peu de temps après la crise de 1920. Issu d’un milieu assez modeste alsacien juif, il a fait une fortune considérable à l’équivalent de celle des Rothschild. Cette personne était assez énigmatique. Il a toujours vécu seul dans un hôtel particulier ; il ne mangeait que végétarien. Il a eu comme précepteur Henri Bergson. Des ambassadeurs japonais venaient régulièrement lui rendre visite. J’ai découvert un homme passionné de culture, d’altérité.

En lisant les archives, je me suis rendue compte qu’Albert Kahn n’était pas quelqu’un qui a écrit, qui a pris la parole… Il finançait des bourses des premières femmes étudiantes — il savait que c’était une manière de créer la paix, d’enrayer la guerre. Il a financé des expéditions photographiques dans le monde entier, les « archives de la planète », ces fameux autochromes — c’est la collection du musée — avec ce sentiment qu’il fallait photographier le monde, les cultures, les traditions… qui, peut-être, allaient disparaître.

Mais Albert Kahn ce n’est pas que cela, c’était aussi des rencontres du « comité national d’études sociales et politiques » où il rassemblait des cercles de décideurs qui venaient de l’univers du politique, de l’économique, de la recherche sur des sujets d’avant-garde. Ainsi, à l’époque dans les années 1920, ils réfléchissaient par exemple au statut des femmes, à leur place dans la société, aux moyens de contraception, à l’éducation.

Les entretiens Albert Kahn rétrospectifs-prospectifs

Ce Comité m’a inspiré. C’est ainsi qu’est née l’idée des Entretiens Albert-Kahn qui ne sont pas uniquement des rencontres où l’on parle du passé, mais surtout de prospective, c’est-à-dire que l’on discute de l’avenir du territoire avec cette idée de décloisonner les acteurs et d’articuler le local avec le global (penser large).

Le président Patrick Devedjian souhaitait ce décloisonnement. II m’a dit : « Il faut faire venir tous les élus, quels que soient les partis. Il faut non seulement que les élus viennent, mais aussi que les administratifs et les partenaires du département. Il faut que les gens se parlent en dehors du quotidien. » Au début, tout le monde m’a dit : « Tu n’y arriveras jamais, c’est impossible, comment veux-tu aller réfléchir à l’avenir comme cela… ». Cela s’est fait. Les Entretiens Albert-Kahn ont été lancés en octobre 2012. Aujourd’hui en 2016, nous avons tenu 25 entretiens. Nous abordons des sujets très divers de prospective comme, par exemple, l’open data, l’attractivité des villes de demain, le bien-être territorial, le rôle de la culture, l’innovation numérique, les biens communs, etc. Chaque entretien fait l’objet d’un petit cahier. Ces cahiers sont en accès libre. C’est important. Pour les élus et l’administration, c’est un véritable terreau de formation. C’est un vecteur pédagogique et de préparation des questions d’avenir. Ce sont souvent des sujets qui nourrissent en amont les politiques publiques et peuvent faire l’objet d’expérimentation.

L’innovation publique expérimentale

Nous sommes le premier département à avoir créé un laboratoire d’innovation publique. Son deuxième axe, à côté des entretiens, c’est la dimension d’innovation expérimentale. Aujourd’hui les laboratoires d’innovation publique sont nombreux : à Pôle Emploi, dans les régions, avec le secrétariat général pour la modernisation de l’action publique (SGMAP) qui anime le réseau d’innovation publique à l’échelle nationale. À l’époque, nous avons fait partie des précurseurs sur cette question. Je m’en tiendrai à deux exemples.

Les jardins sur les toits. On a travaillé aussi sur les jardins sur les toits pour voir comment on pouvait développer une politique qui favorise leur développement. On s’est dit : « on va commencer par nos toits — on ne va pas faire comme à Paris qui a choisi l’empowerment des citoyens, c’est-à-dire la végétalisation des toits des citoyens. » On a préféré commencer par nous-mêmes et essayer déjà de valoriser les toits des bâtiments du département. » En fait, nous n’avons pas réussi, car après une étude sur des centaines de toits, on s’est rendu compte que soit ils n’étaient pas assez solides, soit ils n’étaient pas assez accessibles, ou encore il n’était pas à la bonne échelle. Résultat : pour renforcer l’étanchéité, cela allait coûter trop d’argent. En conclusion, il a été décidé que pour développer les jardins sur les toits il faut des toits neufs, des nouveaux bâtis ». Cela a été un échec — on se trompe aussi dans les innovations expérimentales, mais aussi un succès parce depuis on développe les jardins partagés, thérapeutiques ou pédagogiques, par exemple, mais pas sur les toits des bureaux de l’administration départementale !

Pôle social et économie collaborative. Un second exemple d’expérimentation qui nous a valu de nombreuses félicitations, c’est un travail mené dans le cadre du pôle social. 50 à 60 % du budget d’un département est consacré à l’action sociale : le RSA, les autres aides sociales, au logement… La dimension sociale est vraiment au cœur de la vocation d’un département. Avec l’administration en particulier avec le pôle social et le pôle attractivité économique, on a lancé une expérimentation, il y a un an, sur le renouveau des pratiques d’accompagnement social. On a complètement revu la manière dont on recevait les personnes qui viennent pour des aides sociales, à partir d’un questionnaire sur les valeurs et leurs besoins. Nous avons défini ce questionnaire en l’axant dans un premier temps sur des questions sur le rapport au monde. D’entrée de jeu, on leur posait des questions telles que : quelle était leur représentation du monde ? Quelles étaient les valeurs importantes pour eux, Quels étaient leurs besoins… Dans une deuxième partie, le questionnaire comportait des questions sur leurs modes de vie pour identifier comment la personne interrogée pouvait d’autres ressources que celles financières, à commencer par l’économie collaborative ou de partage. On a suivi des personnes pendant 6 mois, puis on a fait une remontée bottom-up de toutes les innovations sociales en matière d’économie collaborative appliquées au social, c’est-à-dire des innovations vraiment utiles pour le travailleur social et pour la personne qui était concernée. L’expérimentation est en train d’être déployée dans le département, les travailleurs sociaux volontaires vont être formés à cette technique d’empowerment. Le guide des initiatives collaboratives au service du travail social va être transformé en plateforme numérique collaborative.

Ce dont je me rends compte c’est que l’innovation expérimentale est une réussite lorsque les gens se l’approprient tout de suite. En fait, ils le font, ils rentrent dedans, etc. Nous en sommes à la phase de déploiement… ce n’est pas seulement une centaine de travailleurs sociaux qu’il faut impliquer, c’est aussi une manière de travailler différemment. Le Département est en train de revoir les lieux pour mieux accueillir les personnes, en faire des sortes de tiers-lieux beaucoup plus ouverts, décloisonnés, reliés à d’autres services sociaux tels que ceux de l’Enfance, de la Famille, espaces de coworking

Café de la prospective du 22 janvier 2016 – Jean-François Toussaint

Café de la prospective du 22 janvier 2016 – Jean-François Toussaint

Le 22 janvier 2016, le Café de la prospective recevait Jean-François Toussaint, qui nous a permis de croiser la question de la santé des hommes et celle de l’environnement dans lequel ils vivent et vivront demain.
Grâce à ses recherches sur les performances des sportifs de haut niveau, il nous a montré les limites de notre espèce, corroborées par le tassement, voire l’inversion, de la progression de l’espérance de vie. Sur de tels sujets, le débat a évidemment été très riche.