CR 2016-2017

Café de la prospective du 21 juin 2017 – Le syndrome de Cassandre – Marc Mousli

Café de la prospective du 21 juin 2017 – Le syndrome de Cassandre – Marc Mousli

Marc MousliMarc Mousli, économiste et prospectiviste,  est un des fondateurs du Café de la prospective, Il va ce soir vous présenter un travail en cours qu’il a appelé  le syndrome de Cassandre ou, de façon moins raffinée, Cause toujours !

J’ai constaté — comme beaucoup avant moi — que les catastrophes n’existaient pas. Des événements surviennent, et ils deviennent catastrophiques quand les hommes s’en mêlent … c’est-à-dire, le plus souvent, qu’ils préparent le terrain, faisant ce qu’il faut pour qu’un événement naturel ait de terribles conséquences alors qu’on aurait pu éviter qu’il se produise, ou du moins en limiter considérablement les effets négatifs.

Très souvent, on voit arriver la catastrophe, on dit qu’elle va se produire, et elle se produit quand même.

Pourquoi « le syndrome de Cassandre » ?

Apollon, dieu des arts et de la divination, était amoureux de Cassandre, la fille divinement belle de Priam, roi de Troie. Pour séduire la princesse, le fils aîné de Zeus lui avait fait un cadeau d’une grande valeur : le don de voyance. Il lui avait même permis de dire l’avenir en s’exprimant clairement, contrairement à la Pythie de Delphes, qui énonçait ses prophéties sous la forme d’énigmes absconses. La jeune beauté avait accepté le cadeau, mais s’était refusée au dieu. Pour se venger, Apollon l’avait condamnée à ne jamais être crue. La belle princesse est morte depuis trente siècles, mais la malédiction d’Apollon a continué à frapper ses compagnes et compagnons d’infortune, les milliers de chercheurs, d’experts, de techniciens, de journalistes et de « lanceurs d’alerte ». Ils décrivent la catastrophe qui s’approche, et personne ne les écoute.

Prévoir une catastrophe, puis la regarder se produire

L’un de nos grands prédécesseurs, Pierre Massé, expliquait que la bonne prévision n’est pas celle qui se réalise mais celle qui conduit à l’action, et que « prévoir une catastrophe est conditionnel ; c’est prévoir ce qui arrivera si nous ne faisons rien pour l’empêcher ».

Pierre Massé, Commissaire général du Plan du Général de Gaulle, énonçait ce qui était une évidence à ses yeux d’X-Ponts et de haut fonctionnaire : un dirigeant apprenant qu’une catastrophe va se produire fera tout ce qui est en son pouvoir pour l’empêcher. Donc, si un événement provoquant des dégâts considérables et faisant des centaines de morts se produit, c’est qu’il était imprévisible. Si les dirigeants n’ont pas réussi à l’empêcher de se produire, ou à en limiter les conséquences, c’est qu’ils ne savaient pas.

Bien entendu, tout cela est faux. De nombreux événements sont prévisibles, voire carrément prévus, et en tout cas clairement annoncés. Certains étaient évitables, et ils se sont produits quand même (les attentats du 11 septembre[1], la crise des subprimes, la chute de la Barings Bank ou l’affaire Kerviel). D’autres, notamment les cataclysmes naturels, ne sont guère évitables, mais on aurait pu éviter qu’ils ne deviennent des catastrophes, en protégeant mieux les installations et les hommes (Fukushima, Katrina), ou en prévoyant et en organisant correctement les moyens de secours (Titanic, Katrina, 11 septembre).

Entendons-nous sur le terme « catastrophe », un mot très fort (en grec καταστροφή : destruction, anéantissement). Un tremblement de terre de magnitude 8,9 sur l’échelle de Richter n’est pas une catastrophe, s’il se produit au milieu du Sahara, à des centaines de kilomètres de toute présence humaine. C’est un événement naturel. Si en revanche il se produit sur la côte nord-est du Japon, où l’on trouve deux centrales nucléaires en bord de mer, et qu’il se combine avec un tsunami, c’est un incident sérieux pour la centrale nucléaire de Fukushima Daini, qui devra être arrêtée et subira quelques avaries, et c’est une catastrophe nationale, avec d’incalculables répercussions dans le monde entier, pour Fukushima Daiichi, l’autre centrale, située à 12 kilomètres de Daini.

La catastrophe de Fukushima Daiichi était prévisible, prévue et évitable à peu de frais. Nous pourrons y revenir, mais je préfère parler de deux cas moins techniques : la crise dite « de 2008 » et l’ouragan Katrina.

Katrina, archétype de la catastrophe prévue.

« Un ouragan observé de très près qui a frappé là et quand les prévisionnistes avaient dit qu’il frapperait » Rapport du Sénat des États-Unis[2]

Le vent destructeur et l’eau imparable

Le 29 août 2005, l’ouragan Katrina dévaste la côte sud-est des États-Unis, du Mississippi à la Louisiane, sur une surface équivalant à la moitié́ du territoire français. La violence du vent provoque, comme d’habitude, de gros dégâts.

Mais dans La Nouvelle-Orléans, le pire ennemi des villes vient s’ajouter aux toitures détruites, aux voitures soulevées de terre, aux arbres arrachés : une inondation hors de tout contrôle. Bordée par le Mississippi et par le lac Pontchartrain, constituée pour moitié de plans d’eau et située en-dessous du niveau de la mer, la capitale du jazz est protégée depuis le 18e siècle par un système complexe, hétéroclite, d’efficacité très inégale, de digues (les « levées »)[3], et drainée par des pompes installées dans les années 1920.

Katrina ouvre des brèches graves dans les levées, très mal entretenues, et les pompes sont vite noyées. L’eau s’engouffre, détruisant tout sur son passage. Les quatre cinquièmes de la ville sont inondés (sous sept mètres d’eau à certains endroits) et tous les réseaux vitaux – électricité, eau potable, télécommunications – sont détruits. Sur les 28 hôpitaux, 25 sont privés d’électricité́, car les groupes électrogènes, placés en sous-sol, sont hors d’usage.

Les pompiers, les policiers, les transports publics, sont totalement désorganisés, les bâtiments de la garde nationale et de la police ont été envahis par les eaux, les matériels de secours sont détruits ou rendus inaccessibles.

Un ouragan terrible, mais annoncé et pas exceptionnel

Tous les habitants qui le peuvent évacuent la ville. Un tiers de la population ne reviendra pas de son exil forcé. Mais le sort le plus terrible est celui des 100 000 personnes restées dans les zones dévastées. Elles vont vivre une semaine de cauchemar. On comptera 1836 morts, 705 disparus, 100 milliards de dollars de dégâts matériels.

Tout cela alors que Katrina était un ouragan dangereux mais pas exceptionnel : de force variable[4] selon les moments, il a été classé comme le 10e, le 4e ou le 3e cyclone de la saison 2005. Et fort heureusement, son épicentre ne se trouvait pas au cœur de la ville, mais à 100 km à l’est. Comme trop souvent, le bilan très lourd est dû à l’incurie et au comportement aberrant des autorités locales, qui savaient pourtant ce qui allait se passer :

« Avant l’arrivée de Katrina, les dirigeants prennent clairement conscience qu’ils vont au drame. Ensuite, il leur faut une journée pour prendre acte de la réalité de ce qui ne faisait pour eux aucun doute [5]».

Un drame prévu, décrit et modélisé

L’un des rapports d’enquête publiés interroge :

« Pourquoi sommes-nous à chaque fois en retard d’une crise ? […] On a du mal à comprendre comment un gouvernement peut réagir de façon aussi inefficace à une catastrophe anticipée depuis des années, et pour laquelle des avis de sinistre précis avaient été lancés quelques jours plus tôt. Le drame n’était pas seulement prévisible, il était prévu ».

Des scénarios très réalistes : la série d’articles dans National Geographic, le mensuel de la Société nationale de géographie

Les documents prévoyant la catastrophe sont nombreux. L’un des plus impressionnants est la série de quatre articles que publie Joel Bourne à partir d’octobre 2004 :

« Des milliers de personnes noyées dans l’infecte boue liquide empoisonnée par les égouts et les rejets industriels. Des milliers d’autres, ayant survécu à l’inondation, sont morts de déshydratation et de maladie pendant qu’elles attendaient d’être secourues. Il a fallu deux mois pour pomper toute l’eau qui avait envahi la ville, au bout desquels la Nouvelle-Orléans était recouverte d’une épaisse couche de sédiments putrides. Un million de personnes étaient sans abri et 50 000 étaient mortes. La pire catastrophe naturelle de l’histoire des Etats-Unis.[6] »

Joel Bourne prévoyait un nombre de victimes supérieur à ce qu’il a vraiment été, car il situait le cœur du cyclone en pleine ville, alors que celui de Katrina se trouvait à 100 km à l’est. À ce détail près, on aurait pu, un an plus tard, faire passer ces quatre articles prémonitoires pour un reportage dans La Nouvelle-Orléans sinistrée.

Un exercice simulant l’ouragan, par la Protection civile fédérale

Les services fédéraux de la protection civile étaient aussi inquiets que les journalistes locaux. Ils avaient organisé en Louisiane, en juillet 2004, un exercice simulant un cyclone aux caractéristiques très proches de celles de Katrina. Ils avaient eux aussi surestimé le nombre de morts, mais vu juste en prévoyant que 100 000 personnes n’évacueraient pas la ville. L’exercice avait révélé une mauvaise préparation à̀ ce type de catastrophe, mais aucune mesure n’avait été prise pour remédier aux failles détectées.

Les ultimes avertissements, quelques jours avant la catastrophe

Enfin, quelques jours avant le 29 août 2005, le directeur du Centre national d’étude des ouragans (National Hurricane Center) multiplie les coups de téléphone aux responsables politiques locaux pour les avertir de l’arrivée de Katrina et de sa dangerosité. Il ne parvient pas à toucher le maire. Ses avis sont relayés par les nombreuses chaînes de télévision consacrées à la météo, mais la population ne réagit pas : « Comme le maire n’a rien dramatisé, personne ne prenait Katrina au sérieux[7] ».

Seule la gouverneure de la Louisiane s’alarme. Elle demande au maire de recommander l’évacuation de la ville et fait mettre en sens unique les autoroutes.

Refusant de recourir à Amtrak[8], le maire laisse un train vide quitter la ville en direction de McComb dans le Mississippi, et quand il se décide enfin à réquisitionner les bus, on ne trouve plus de conducteurs : ils sont déjà partis avec leurs familles.

(Absence de) morale de l’histoire

Ray Nagin, le maire démocrate afro-américain de La Nouvelle-Orléans depuis 2002, très critiqué pour sa gestion des secours, a été réélu le 20 mai 2006 avec 52,3 % des voix.

Le journaliste du Monde saluait cette réélection en expliquant que « la ville est au bord de la faillite, l’électricité́ et l’eau sont loin d’être rétablies partout, les digues ne sont pas encore réparées et la saison des ouragans (juin à septembre) va commencer » (Le Monde, 22/05/2006)

 

La crise de 2008, un krach prévisible et prévu

J’ai commencé à m’intéresser aux catastrophes prévisibles à l’été 2007. En vacances à Zurich, j’ai trouvé dans une librairie[9] un livre de Paul Jorion : Vers la crise du capitalisme américain[10]. Cet anthropologue, ancien trader, y décrivait le mécanisme des subprimes, expliquait en détail les pratiques frauduleuses des courtiers qui poussaient des ménages insolvables à contracter des emprunts, et annonçait la crise.

J’ai été impressionné par la justesse de la prévision, dans un livre publié en janvier 2007. En fait, j’ai appris un peu plus tard en bavardant avec Paul Jorion qu’il avait fini de l’écrire en 2004 et cherché un éditeur pendant deux ans !

Parfaite Cassandre, il s’imaginait que sa description solide et argumentée de la réalité allait susciter un écho.

Les dimensions de la crise de 2008.

On considère habituellement que c’est BNP Paribas qui a donné le signal de la crise « des subprimes » le 9 août 2007, en bloquant l’activité de trois de ses fonds de placement comportant des obligations hypothécaires subprime.

Pendant les dix années qui vont suivre, les pays développés seront plongés dans la plus grande dépression depuis celle des années 1930.

Aux États-Unis, plus de quatre millions de ménages modestes ont été chassés de leurs maisons saisies par leurs créanciers entre 2007 et 2012. Des centaines de petites banques (et une demi-douzaine de grandes) ont fait faillite, et la crise économique qui a suivi a mis au chômage plus de 35 millions de travailleurs dans le monde.

Le mécanisme bien huilé du marché immobilier résidentiel

À l’origine de cette catastrophe monstrueuse, il y a le marché immobilier résidentiel américain.

Ce marché fonctionnait selon une routine bien établie : un jeune couple achetait une maison avec un apport initial modeste et un prêt hypothécaire sur 20 ou 30 ans. Il revendait son bien, dix ans plus tard, avec une plus-value qui lui permettait d’acheter plus grand ; il renouvelait l’opération une ou deux fois au cours de sa vie, puis, quand ses enfants avaient quitté le foyer, le couple revendait sa grande maison, en achetait une plus petite et disposait de la plus-value pour sa retraite.

Le grain de sable des subprimes

Ce mécanisme bien rodé a été fragilisé quand le gouvernement, désireux d’accroître le nombre des propriétaires, a encouragé les prêts à des populations aux revenus très modestes. Les courtiers ont proposé une formule attractive : pendant les deux premières années, l’emprunteur n’avait à rembourser que les intérêts, calculés à un taux bas (et fixe). À partir de la troisième année, les remboursements réels commençaient, avec un taux variable et plus élevé que celui des prêts ordinaires. Grâce à la croissance très rapide de la valeur du bien, l’hypothèque garantissait le risque de défaut de l’emprunteur. Malgré cette garantie, ce type de prêt dit subprime était plus risqué que la moyenne (le « prime », consenti à un public solvable) et les banquiers s’y engageaient avec une certaine prudence.

Une innovation financière géniale : la titrisation

Une innovation financière ingénieuse, la titrisation, va complètement dérégler le système : au lieu de garder la créance dans ses comptes, le prêteur la revend à une grande banque qui la combine avec des centaines d’autres présentant différents niveaux de risque, pour fabriquer des titres composites proposés aux investisseurs. Les banques font habilement noter ces titres AAA ou AA par les agences de notation, qui n’y voient que du feu.

La titrisation transforme les prêts subprime, très rentables mais risqués, en une excellente affaire, puisqu’elle supprime les risques, qui sont noyés dans les titres, véritables millefeuilles de contrats, et dispersés aux quatre coins du grand marché mondial. Du coup, le montant des contrats subprime s’envole : 30 milliards de dollars en 1990, 625 milliards en 2005. Tout est en place, la crise peut exploser. Il suffit de mettre le feu au cordon bickford. La mise à feu va être réalisée par la baisse du marché immobilier, jusqu’ici inconcevable par le grand public américain, mais aussi par de nombreux banquiers et financiers. L’augmentation entre 1997 et 2005 était aberrante, mais n’était en fait que la prolongation d’un demi-siècle de hausse des prix de l’immobilier résidentiel, qui avaient déjà crû sans aucune pause depuis l’après-guerre jusqu’en 1996, à l’exception d’une légère baisse en Californie et au Texas au début des années 1990.

La très mauvaise surprise : les arbres ne montent pas jusqu’au ciel

Jusqu’ici, la poursuite de la forte progression de la valeur des biens, d’une part, et la faiblesse des remboursements pendant les deux premières années, d’autre part, limitaient le nombre de défauts.

Mais au printemps 2007 le marché immobilier se retourne. La baisse des prix ne permet plus de compter sur des hypothèques toujours plus élevées, les débiteurs voient donc se dérober la planche de salut qu’était la garantie hypothécaire, et une proportion importante d’entre eux fait défaut lorsqu’ils sont confrontés au choc de la troisième année.

De la crise des subprimes à la crise financière

La valeur des titres contenant des subprimes baisse, puis s’effondre. Ce qui serait un coup dur pour les marchés, mais pas une catastrophe si ces titres étaient bien identifiés. Mais la titrisation rend opaques les titres composites, et les investisseurs comprennent assez vite qu’on ne peut pas faire confiance aux AAA ou AA fantaisistes des agences de notation. La méfiance s’étend comme une traînée de poudre et toutes les transactions sont bloquées.

La crise financière fait des ravages. Elle atteint son summum le 15 septembre 2008 quand Lehman Brothers, quatrième banque d’investissement américaine par la taille, se déclare en faillite. Les États-Unis, et avec eux la moitié du monde, s’installent dans la crise économique.

 

Les Cassandre

En novembre 2009, la reine d’Angleterre reçoit des économistes. Elle leur demande : « pourquoi n’avez-vous pas prévu la crise ? » Elizabeth II se trompe : des économistes avaient parfaitement prévu et annoncé la crise, mais personne ne les avait écoutés.

 Gramlich, professeur d’économie et membre du Conseil des gouverneurs de la FED

Plusieurs universitaires avaient dénoncé en vain la bulle immobilière formée à partir de 1997 et qui a éclaté en 2007.  Certains d’entre eux avaient compris qu’une crise immobilière était en préparation. Citons le mieux placé pour agir : Edward J. Gramlich, professeur d’Université en économie, membre du Conseil des gouverneurs de la FED de 1997 à 2005.

En 2000, inquiet de voir les prêts risqués se multiplier, il avait demandé à son collègue Alan Greenspan, président de la FED, de lancer une enquête sur les pratiques des banques. Ce dernier avait refusé par pure idéologie : Greenspan était libertarien, et donc toujours partisan de laisser faire le marché au maximum. Placé dans un poste où il était le plus grand influenceur mondial des marchés — en quelque sorte un super-régulateur —, il était plus que sceptique sur l’effet des régulations.

La police

Nous ne développerons pas les craintes du FBI, qui avait averti la Chambre des représentants dès septembre 2004, en séance publique, de l’ « épidémie » de fraudes aux prêts immobiliers susceptible d’engendrer une « crise » financière si elle n’était pas endiguée à temps.

Nouriel Roubini

Nombre d’économistes avaient prévu plus ou moins clairement  la bulle immobilière, avec beaucoup d’approximations et d’incertitudes sur la date de son implosion. Très peu avaient vu arriver la crise financière. La pensée du mainstream était : « La chute de l’immobilier fera plonger les marchés, mais il ne faudra que quelques mois pour que tout rentre dans l’ordre ».

L’avertissement le plus spectaculaire par sa pertinence et sa précision a été lancé le 7 septembre 2006 par un professeur de sciences économiques à l’Université de New York, Nouriel Roubini, devant des économistes du Fonds Monétaire International. Il dresse un tableau exhaustif et précis de la catastrophe qui va éclater onze mois plus tard. Tout y est : le fiasco de la politique du logement, la crise financière, la faillite des deux grandes entreprises semi-publiques chargées de réguler le marché hypothécaire et la distribution des crédits immobiliers (Fannie Mae et Freddie Mac), la récession sévère de l’économie américaine, la propagation de la crise aux autres pays développés, les réactions de la FED, qui a en quelques mois abaissé son taux directeur de 5 % à 0. Il a même prévu, alors que les prix du pétrole étaient en hausse régulière, la troisième crise pétrolière.

Lorsque Roubini quitte la tribune, le modérateur de la conférence, rigolard, lance : « Eh bien, après cela, nous allons sans doute tous avoir besoin d’un petit remontant ! »

Les traders qui avaient tout compris

Lorsque Roubini annonce la catastrophe il ne court que le risque d’être surnommé « Doctor Doom » (Docteur Catastrophe). C’est effectivement le sobriquet qu’il a définitivement gagné !

Des traders ayant, avant lui, vu venir la catastrophe ont, eux, risqué non seulement leur réputation (un capital extrêmement précieux dans la finance) mais aussi leur argent (beaucoup). Dès le printemps 2005, ils ont anticipé la baisse du marché immobilier et calculé que les défauts des emprunteurs se multiplieraient à partir de 2007. En spéculant contre les subprimes, ils ont gagné des milliards de dollars. Michael Lewis a raconté quelques-unes de leurs histoires dans un livre : The Big Short (Le Casse du siècle)[11], porté à l’écran en 2015, sous le même titre, par Adam McKay. L’histoire la plus pittoresque est celle de Michael Burry, qui a fait créer un instrument financier, les CDS, spécialement pour spéculer contre les subprimes.

Gregory Zuckerman a raconté, dans The Greatest Trade Ever comment un autre gestionnaire de fonds, John Paulson, a mené à bien en 2007 la plus grande spéculation de l’histoire : il a gagné 15 milliards de dollars pour son fonds d’investissement (et 4 milliards de dollars pour lui) en pariant, comme Michael Burry et avec le même outil : le CDS, contre les titres subprime[12].

Dans la même veine, plusieurs banques ont joué un double jeu, poussant d’un côté leurs clients à acheter des titres contenant des obligations hypothécaires subprime, tandis que de l’autre elles réduisaient leur exposition au risque de ces mêmes prêts, parfaitement conscientes de la prochaine baisse des prix de l’immobilier. Citibank, par exemple, a commencé à spéculer contre les subprimes en 2006, tout en continuant jusqu’en 2007 à vendre des titres pourris à ses investisseurs. On peut également citer Bank of America, JP Morgan-Chase, Deutsche Bank, etc.

La Securities and Exchange Commission (SEC, leur Autorité des Marchés Financiers) et l’US Department of Justice n’ont pas passé l’éponge sur ce double jeu. Ils ont infligé des amendes colossales aux plus grands escrocs : 16,65 Mds à la Bank of America, 13,4 Mds à JP Morgan Chase, 7,7 Mds à Citigroup, 7,2 Mds à la Deutsche Bank, 5,2 Mds au Crédit suisse, 5,06 Mds à Goldman Sachs et 5 Mds à Morgan Stanley.

Débat

Participant

Comment le système des subprimes a-t-il pu prendre cette ampleur, et quel a été le rôle des mafias dans la crise ?

Marc Mousli

Les Américains n’avaient pas besoin de mafias pour fabriquer cette crise. Ils ont l’habitude de faire de la « cavalerie » en payant le solde d’une carte de crédit avec une autre carte de crédit, et dans toutes les villes américaines il y a des boutiques signalées par une enseigne « Change » où les immigrés illégaux peuvent encaisser leur chèque de paie sans avoir de compte en banque…Ils sont donc habitués à manipuler de l’argent sous de multiples formes. Et tout le monde a participé à la crise : financiers réputés, courtiers véreux … et victimes. Dans le film Cleveland contre Wall Street, certains emprunteurs reconnaissent leur complicité : le système était tellement séduisant qu’ils avaient acheté plusieurs logements ! Ils étaient persuadés de ne rien risquer grâce au parachute de l’hypothèque.

Quant aux pouvoirs publics, le système a été lancé par Reagan, et tous les présidents jusqu’à George W Bush ont suivi. C’est une combinaison fantastique de générosité et d’astuce : générosité des hommes politiques qui ont voulu rendre propriétaires des gens qui n’en avaient pas les moyens, et astuce des banquiers qui ont su diversifier les risques et les répartir sur les marchés. Voilà comment on fabrique une catastrophe avec de la générosité et de l’intelligence astucieuse.

Régine Monti

Les deux exemples questionnent la posture des experts que l’on n’écoute pas… ce qui est fréquent en prospective.

Marc Mousli

Dans le cas de Katrina, il y avait d’une part des professionnels dont c’était le métier de surveiller les ouragans (les météorologues) et d’entretenir les installations de sécurité (les ingénieurs). Ce n’était pas des experts extérieurs dont on se méfie toujours un peu : l’État les payait pour ce travail, ils étaient sur leur terrain d’action habituel et ils connaissaient bien sûr les dangers et les risques mieux que personne.

Quant à la crise de 2008, l’un des protagonistes était Ben Bernanke, Président du conseil des gouverneurs de la FED après avoir dirigé le groupe des conseillers économiques du président[13]. Il connaissait très bien G.W. Bush, qu’il voyait à peu près chaque jour. Ils parlaient de la situation, mais son approche était biaisée par la doctrine : imprégné (comme son prédécesseur Alan Greenspan) d’idéologie libérale, il intervenait le moins possible. Il lançait une bouée quand une banque était au bord de la faillite, en cherchant à ce que ladite bouée ne porte pas les couleurs du drapeau américain : son objectif premier était de faire sauver l’établissement qui coulait par un autre établissement financier privé.

Participant

Ce qui frappe ce sont les difficultés à réagir face à des événements graves. En Guyane, personne n’a vu venir la concurrence faite par SpaceX à l’Aérospatiale. Un an avant l’élection présidentielle, personne n’avait vu arriver Emmanuel Macron. Et en Martinique, nous avons 50% des jeunes sans emploi, on n’arrive pas à se faire entendre et un jour ou l’autre ça va péter, malgré tous nos efforts !

Marc Mousli

Je me suis concentré sur des cas dans lesquels les enjeux étaient considérables. Cela permet hélas de constater que les décideurs privilégient toujours le court terme, sans tenir compte des enjeux, qu’ils semblent incapables de comprendre. L’exemple type, c’est Fukushima, dont les conséquences ont été mondiales, portant un coup très rude à l’industrie nucléaire. Je ne dirai rien de SpaceX, qui disrupte de façon assez classique l’Aérospatiale. Mais si on prend l’exemple de Katrina, on comprend bien que le maire de La Nouvelle Orléans, confronté à ces problèmes considérables de maintenance, se soit dit « les levées sont là depuis le 18e siècle, elles peuvent bien attendre encore deux ans ». Si j’avais été son conseiller, je lui aurais dit : « tu ne remettras pas en état les 190 km de digues en deux ans, mais tu peux commencer les travaux, motiver et inciter des propriétaires privés à faire de même, et surtout t’intéresser aux moyens de secours en cas d’inondation – fréquentes dans cette ville — afin de limiter les dégâts : faire déplacer les groupes électrogènes qui sont dans les sous-sols, vérifier l’organisation des services de transport s’il faut évacuer des habitants, vérifier les accès aux matériels de secours, etc.

Quant à l’élection d’Emmanuel Macron, on trouve dans un livre de Michel Houellebecq paru en 2015, Soumission, une description fort convaincante de sa future prise de pouvoir : Mohammed Ben Abbes est jeune, intelligent et cultivé. Il crée un nouveau parti et remporte l’élection au second tour face au FN, rassemblant des électeurs (et des élus) de tous les partis républicains, qui implosent. Et il s’allie avec François Bayrou, dont le soutien est décisif. Le livre a eu un succès considérable (600 000 exemplaires vendus en France dans le mois qui a suivi sa sortie, et meilleures ventes de l’année 2015). Des millions de gens (le livre a aussi eu un succès considérable dans de nombreux pays, notamment en Allemagne et en Italie) avaient donc lu le récit de l’accession à la présidence du pays d’un homme encore jeune (43 ans pour Ben Abbes, 39 ans pour Macron), fin stratège et remarquablement intelligent.

Participant

Ne serait-il pas intéressant de faire un catalogue des catastrophes à venir ? Il y a deux ans, une crue proche de la crue centennale s’est produite à Paris, et à ma connaissance on n’a rien fait depuis pour mieux protéger la capitale. De la même façon, la Californie est sous la menace du Big one. Un film, San Andreas, raconte l’ouverture de la faille de San Andreas, qui longe la côte du Pacifique du Canada au sud du Chili, et la catastrophe qui s’ensuit.

Il serait donc intéressant de dresser une liste des catastrophes prévisibles pour lesquelles on ne fait rien.

Marc Mousli

Pour ce qui concerne les inondations catastrophiques dans notre pays, j’ai regardé d’assez près la tempête qui a touché la côte Atlantique à la fin février 2010, provoquant la mort de 59 personnes dont 47 en France. La commune la plus sinistrée a été celle de La Faute-sur-Mer, avec 29 morts.

La majorité des victimes ont été touchées entre le 27 et le 28 février, alors que les services météo avaient régulièrement lancé des alertes à partir du 23 février au soir, annonçant une dépression qui risquait de se transformer en tempête, et la Charente maritime, la Vendée, les Deux-Sèvres et la Vienne avaient été placés en alerte rouge. Plusieurs digues ont rompu, provoquant de fortes inondations.

Un rapport sévère de la Cour des comptes dénonce un laxisme criminel des maires : de 1999 à 2006, près de 100.000 logements ont été construits en zone inondable dans 424 communes françaises. Ce que ne dit pas la Cour des comptes, c’est que ce laxisme a été couvert, voire encouragé par la plus haute autorité de la République : en avril 2009, Nicolas Sarkozy déclarait : « Le problème c’est la réglementation. Pour libérer l’offre il faut déréglementer, élever les coefficients d’occupation des sols et rétablir la continuité du bâti dans les zones denses, permettre à chaque propriétaire d’une maison individuelle de s’agrandir, d’ajouter une pièce ou un étage, rendre constructible les zones inondables pour des bâtiments adaptés à l’environnement et au risque, utiliser les interstices, les délaissés d’infrastructures… Il faut changer nos procédures, notre façon d’appliquer le droit, sortir du respect passif d’une réglementation de plus en plus pesante ».

Pour le dossier le plus scandaleux, celui de La Faute-sur-Mer, une information judiciaire a été ouverte et le maire de la Faute-sur-Mer a été jugé et condamné.

Il est probable que l’affaire Xynthia se reproduira demain à l’identique. « L’Observatoire national sur les effets du réchauffement climatique a chiffré à plusieurs dizaines de milliards d’euros d’ici 2100 la destruction de logements que provoquera le recul de la côte pour la seule région Languedoc-Roussillon ». La seule solution est de construire en retrait des côtes. On voit mal les « petits » maires des communes littorales s’y résoudre !

Quant au Big One, la Californie est traversée par plusieurs failles (notamment San Andreas et Puente Hills), et les sismologues prévoient avec une très forte probabilité, à un horizon de 25 à 30 ans, un séisme majeur d’une intensité supérieure 7,5 sur l’échelle de Richter.

Je connais bien l’état de préparation à Los Angeles : les Angelenos prennent très au sérieux les tremblements de terre. Les bâtiments sont régulièrement remis aux normes antisismiques les plus sévères, la conduite à tenir en cas de séisme est connue de tous et les systèmes d’alerte collectifs et individuels sont sans cesse perfectionnés. Caltech[14] vient de mettre au point un « earthquake early warning » (EEW), avec une application que chacun peut télécharger dans son smartphone, et qui prévient dans la minute qui précède le tremblement de terre[15]. On ne peut pas sauver tous ses biens, mais on peut se jeter sous une table ou se placer dans un encadrement de porte.

Participant

On a une lecture a posteriori des événements. Mais dans les salles de marché, par exemple, on entend des milliers d’avis d’experts qui nous expliquent que la prochaine bulle ou le prochain krach est pour bientôt. Comment faire le tri ?

Lors de la crise des subprimes : la complexité des instruments était très grande : titrisation, swaps, CDO (Collateralized Debt Obligations), ABS (Asset Based Securities), CDS (Credit Default Swap), options diverses, etc. Est-ce que cela n’a pas limité les possibilités de réaction de certains acteurs ?

Sur ces sujets, on peut conseiller trois livres : Les Décisions absurdes, de Christian Morel, La soumission librement consentie, de Jean-Louis Bourgois et Pour un catastrophisme éclairé, de Jean-Pierre Dupuy.

Marc Mousli

Sur la première question, qui est sans aucun doute le point le plus crucial de ma recherche. Il y a des milliers de prévisions et d’avertissements, plus ou moins étayés, plus ou moins sérieux. Quand un avertissement est lancé par un expert sérieux, avec des arguments solides, on peut tendre l’oreille. Pour passer à la phase suivante : prendre des mesures, il y a un critère évident : les enjeux.

Parmi les exemples que j’ai donnés j’ai une certaine admiration pour les traders qui n’ont pas hésité à engager leurs propres fonds sur la crise de 2007, sûrs d’eux et de leurs analyses. Ils avaient su observer et étudier la conjoncture et, parmi tous les bruits de bulle immobilière, reconnaître la vraie opportunité et déduire le bon délai — ce qui est de loin la prévision la plus difficile à faire.

Quant à la complexité des instruments financiers et leur rôle dans la crise, il est clair que c’était, pour une partie de ces montages, une opacité voulue, une tactique des banques pour tromper les Agences de notation — qui se sont laissées faire, et ont donné des AA et des AAA à des titres pourris.

Participant

Il y a eu un faible écho médiatique aux 296 tremblements de terre à Yellowstone, la semaine dernière. On a là une menace énorme, pourtant.

La façon d’aborder le futur a beaucoup évolué à travers les âges. Autrefois il fallait pérenniser la civilisation dans des environnements très difficiles, et on travaillait à la fois sur la productivité et la résilience. La complexification des systèmes semble nous avoir focalisés sur l’efficacité, la productivité au détriment de la résilience. N’a-t-on pas négligé les gros problèmes — qui ont toujours existé — avec la circonstance aggravante de la complexité, qui multiplie les effets pervers et inattendus.

Marc Mousli

Rassurons-nous : les tremblements de terre de Yellowstone ne sont pas liés à la faille de San Andreas. Quant à l’appréhension des catastrophes au fil des siècles, entendons-nous d’abord sur le terme « catastrophe », un mot très fort (en grec καταστροφή : destruction, anéantissement). Un tremblement de terre de magnitude 8,9 sur l’échelle de Richter n’est pas une catastrophe, s’il se produit au milieu du Sahara, à des centaines de kilomètres de toute présence humaine. C’est un événement naturel. Si en revanche il se produit sur la côte nord-est du Japon, où l’on trouve deux centrales nucléaires en bord de mer, et qu’il se combine avec un tsunami, c’est un incident sérieux pour la centrale nucléaire de Fukushima Daini, qui devra être arrêtée et subira quelques avaries, et c’est une catastrophe nationale, avec d’incalculables répercussions dans le monde entier, pour Fukushima Daiichi, l’autre centrale, située à 12 kilomètres de Daini.

Les phénomènes provoqués par les humains sont en principe relativement maîtrisés. C’est lorsqu’on ne parvient plus à maîtriser des réactions en chaîne, comme dans la crise des subprimes, qu’une catastrophe survient. Pour les événements naturels, le facteur le plus important est la démographie : la population mondiale a été inférieure à un milliard jusqu’au début du XIXe siècle. En 2017, elle est supérieure à 7 milliards, et l’ONU prévoit qu’elle sera de 9,8 milliards en 2050. Il y a de moins en moins de chances pour qu’un grave événement naturel ne touche personne ! Et vous avez raison sur la résilience : la complexité de nos modes de vie peut nous sauver dans certains cas — grâce aux EEW qui nous préviendront de l’imminence d’un grave séisme, par exemple — et aggraver les dégâts dans de nombreux autres cas.

Régine Monti

Dans ta présentation, on voit des individus, et on ne voit pas le collectif, et ses représentants, agir.

Marc Mousli

Dans les cas que j’ai rapidement racontés, qui est le « collectif » ? Il y a des groupes de pression, des associations d’intérêts parfaitement antagoniques. Et ces « collectifs » ont-ils une efficacité plus grande que les dirigeants économiques ou politiques dont j’ai parlé ? Comme tout un chacun, je suis l’action contre les conséquences du changement climatique. Elle est menée par des ONG puissantes, censées représenter le collectif, et même l’avant-garde du collectif ! Mais je remarque dans ces organisations une versatilité qui n’empêche pas l’arrogance des militants persuadés d’avoir raison. J’ai dirigé il y a vingt ans un service de marketing stratégique. Nous nous sommes, un temps, intéressés à la biomasse, aux biocarburants … Nous étions à la pointe de l’écologie, puis, en quelques années, nous avons vu les carburants agricoles voués aux gémonies. Nous connaissons des épisodes comparables d’emballement suivi de fortes réserves pour les différentes techniques d’énergie solaire et éolienne, sans parler des véhicules électriques ou de l’économie collaborative (variante avancée, dans de nombreux cas, de l’économie de la fonctionnalité). On a l’impression qu’à chaque fois le collectif exacerbe les passions et les excommunications ! Et surtout, dans tous les cas dont j’ai parlé il existe une dimension « court terme versus long terme » et à ce jeu le collectif est très mauvais : il verse souvent dans le populisme !

Cela dit, l’important pour la population c’est l’information. Si des groupes ou des organisations vont chercher l’information, la diffusent, font comprendre les enjeux (si j’ai répété dix fois ce mot, c’est parce que c’est le talon d’Achille de toute la communication, qu’elle soit politique ou médiatique : on n’explique jamais les vrais enjeux). Prenons un exemple de « collectif » amorphe ou complice : les habitants de La Faute-sur-mer. Ils n’ont pas su (ou pas voulu) empêcher le maire de distribuer des permis de construire à volonté dans des zones inondables. Et pourtant les anciens savaient tout sur la question : ils mettaient naguère leur bétail à paître dans ces prés, ce qui est une utilisation intelligente : le jour où les terrains étaient inondés, les paysans mettaient simplement leurs bêtes ailleurs ou les gardaient à l’étable. Il n’y avait de dommage pour personne.

Participant

Des catastrophes avaient été clairement prévues et on n’a rien fait. Comment se fait-il que les gens intelligents aient aussi peu d’influence sur les événements ? La prospective peut-elle peser sur le  cours du monde ?

On a un peu parlé de guerre des idées ; il faut aller plus loin, et lutter aussi contre des croyances. On gagnerait donc à aller chercher un soutien du côté de la psychologie de la connaissance, de la sociologie de la connaissance, voire des travaux de Chaïm Perelman sur la rhétorique et l’argumentation, l’art de convaincre des personnes qui ne sont pas forcément rationnelles.

Marc Mousli

La prospective sait mettre à la disposition des dirigeants des scénarios très parlants. Ensuite, c’est à eux de s’en servir pour communiquer. Mais on a vu avec le cas de Katrina que l’on pouvait diffuser des scénarios durs, cruels, et non seulement pertinents mais, ce qui est beaucoup plus rare, précis, sans que la municipalité ou la population ne réagisse. Il est difficile d’influencer la décision publique dans ce sens : les dirigeants (élus) ont horreur des ruptures. Évoquer une rupture c’est annoncer des choses très désagréables. De plus, en entendant parler d’une perspective inquiétante, une grande partie du public, donc des électeurs, ne comprend rien : ils ne saisissent pas qu’il s’agit d’hypothèses. Leur réaction est : «Comment, le maire (ou le président) veut nous infliger ça ! ». On a clairement un problème de méconnaissance des cygnes noirs et de haine des ruptures.

——————–
[1]  Avec quelques réserves : l’attentat était évitable, mais il aurait fallu bousculer les administrations américaines, et disposer de plusieurs semaines de plus.
[2] Hurricane KatrinaA Nation Still Unprepared. Report, US Senate, May 2006.
[3] Schématiquement, la levée est haute d’un peu plus de 4 m, avec une largeur variant de 5 à 100 m dans la ville, de 4 à 5 m dans la campagne. Elle s’étend jusqu’à Plaquemines, à 190 kilomètres en amont de La Nouvelle-Orléans. Pour une description et un historique complet, Cf. Isabelle Maret et Romain Goeury, La Nouvelle-Orléans et l’eau : un urbanisme à haut risque, in Environnement Urbain Vol. 2/ 2008, en ligne le 09/09/2008. http://eue.revues.org/867
[4] Niveaux 3 à 5 sur l’échelle de Saffir-Simpson, qui en comporte 5.
[5] A failure of initiative, Final Report of the Select Bipartisan Committee to Investigate the Response to Hurricane Katrina, Feb. 2006.
[6] Joel Bourne, Gone with the Water, National Geographic, 10/2004.[7] Romain Huret, Katrina 2005, éd. EHESS, 2010.
[8] Amtrak est la principale compagnie ferroviaire américaine de transport de voyageurs. Je n’ai pas encore trouvé pourquoi le maire avait refusé de faire monter ses administrés dans un train.
[9] J’étais à Zurich en juillet 2017, et j’ai constaté une autre catastrophe : la librairie (Payot) a disparu, remplacée par une bête boutique de vêtements.
[10] Jorion Paul, Vers la crise du capitalisme américain, éd. La Découverte, 2007.
[11] Lewis Michael, Le casse du siècle, plongée au cœur de la crise financière, coll. Points, éd. Sonatine, 2010.
[12] Zuckerman Gregory, The Greatest Trade Ever – How John Paulson bet against the markets and made $20 billion, ed. Penguin, New York, 2009.
[13] Ben Bernanke a été, de juin 2005 à janvier 2006, Chairman of the Council of Economic Advisers of the President.
[14] California Institute of Technology.
[15] https://itunes.apple.com/fr/app/equake-earthquake-alerts-sensor-network/id1022523338?mt=8

Café de la prospective du 10 mai 2017 – Pierre Joly

Café de la prospective du 10 mai 2017 – Pierre Joly

Présentation de la réunion et de l’intervenant par Marc Mousli 

Nous avons le grand plaisir d’accueillir Pierre Joly, inspecteur général de l’Insee, qui a un long passé de statisticien et d’économiste à l’Insee puisqu’après l’École polytechnique il a étudié à l’Ensae, puis travaillé sur à peu près tout ce qu’on peut imaginer en matière de prévision.

Notre thème d’aujourd’hui est « prospective et prévision », et pour des prospectivistes, c’est souvent prospective versus prévision. J’ai mis sur la page Facebook du Café un lien vers le livre de Michel Godet, publié il y a 40 ans tout juste, en 1977 : Crise de la prévision, essor de la prospective. Il opposait les deux. Et l’esprit de ce livre, qui était d’ailleurs la thèse de Michel, a perduré.

En fait, quand on regarde la réalité, les prospectivistes font comme tout le monde, ils ont beaucoup recours aux prévisions, dont ils se servent en permanence. Et ils les prennent très au sérieux, surtout celles qui sont élaborées par l’Insee, institut reconnu dans le monde entier pour son sérieux et sa rigueur.

En six années de Café de la prospective nous n’avions jamais consacré une séance à la prévision. Il nous fallait combler cette lacune, et personne n’est mieux placé pour le faire que Pierre Joly, qui a beaucoup travaillé cette discipline à des niveaux qui exigent une excellente connaissance de l’économie, de la créativité et beaucoup de rigueur.

Pierre Joly

Merci de m’avoir invité, je suis content d’être parmi vous. Il est vrai que j’ai été amené, dans ma carrière, à faire des projections économiques dont je vais vous parler. J’ai aussi dirigé une école d’ingénieurs et j’ai été directeur régional de l’Insee en Languedoc-Roussillon. Je suis maintenant à l’inspection générale de l’Insee, où je travaille surtout à des problèmes d’organisation de l’Institut.

Mon expérience des questions de prévision est donc un peu datée mais elle n’est pas inutile pour avoir un débat.

Modélisation et prospective, tendances et ruptures

Je ne me considère pas comme un prospectiviste : je ne me suis jamais penché sur les méthodes prospectives, mes fonctions à l’Insee m’ayant plutôt amené à répondre à des questions sur des horizons de court et moyen terme, rarement de long terme. Pour cela, j’ai travaillé avec des outils qui permettaient de représenter les évolutions : des modèles.

Il y a une opposition traditionnelle entre modélisation  et  prospective : les prospectivistes critiquent les modèles, et les modélisateurs ne savent pas toujours comment utiliser l’information des prospectivistes dans les modèles, qui utilisent des valeurs économiques quantitatives et ne disent rien de ce qui est en dehors de l’économie. Ils raisonnent sur des moyennes plus souvent que sur des dispersions ; et ne tiennent pas compte d’éléments de qualité de vie même si on commence à faire des efforts de ce côté.

Ce qu’on reproche souvent aux modèles, c’est d’être figés, et d’avoir donc du mal à rendre compte des ruptures, sur lesquelles ils font plus ou moins l’impasse. Ce n’est pas tout à fait exact ;  je reviendrai là-dessus… En revanche, le prospectiviste, lui, imagine bien un monde dans lequel il va y avoir des ruptures. Je ne suis pas sûr qu’il sache toujours les anticiper, mais il sait qu’il y en aura.

Il est également vrai que l’exercice de prévision se termine par un scénario, ou éventuellement quelques scénarios, sans que l’on tienne compte de tous les facteurs d’incertitude. Dans ces exercices, à un moment donné on fait des choix qui ne rendent pas compte de la diversité des possibles. En même temps, si on commence à rendre compte de la diversité des possibles, on se retrouve devant un univers qui ne convient pas nécessairement au commanditaire du travail, qui demande un éclairage lui permettant de prendre des décisions.

Pour illustrer ces points, je vais m‘appuyer sur trois exercices où l’on a utilisé des modèles. Nous parlerons surtout des travaux du Plan mais cela vaut également pour le ministre de l’Économie et des Finances, qui doit présenter une loi de Finances et qui a donc besoin de prévisions ; de même les organismes internationaux ont besoin des prévisions pour alimenter leur vision du futur.

L’Insee, la Direction du Trésor, l’OFCE, la Commission européenne, l’OCDE, le FMI, un très grand nombre d’organismes ont besoin de modèles, qui sont, en fait, des représentations simplifiées de l’économie.

Je parle d’une époque où les outils n’étaient pas très faciles à mettre en œuvre. Aujourd’hui, c’est très simple, en fait, de construire un modèle, et il y en y a beaucoup plus… les banques ont leurs propres outils de modélisation, ainsi que les universités et de nombreux autres organismes.

Les modèles mettent en relation les grandeurs économiques que l’on cherche à mesurer et ils écrivent ces relations. Deux catégories de variables sont concernées : les exogènes, que le modèle n’a pas prétention à décrire, par exemple, dans un modèle national, la croissance des pays voisins est considérée comme exogène, tout comme la démographie : le modèle ne va pas rendre compte de l’évolution démographique. Ensuite, il y a des équilibres comptables qui imposent que la demande soit égale à l’offre. On a donc des équations comptables qui en rendent compte. Il va falloir expliquer le déficit de l’État, qui est un résultat comptable, et la balance commerciale, qui est de même nature. Et puis, il y a un certain nombre de variables pour lesquelles on va décrire des comportements et c’est là où il peut y avoir le plus de discussions : la consommation, l’investissement et même le commerce extérieur.

La prospective, elle, s’intéresse aux états du monde sur le long terme, un horizon où les modèles n’ont pratiquement plus aucune validité parce que, par définition, ils ont été construits à partir de ce que l’on connaît, à un moment donné, de l’évolution de l’économie, en se basant donc sur des données généralement plus anciennes. Donc, s’il y a des ruptures à venir, on ne pourra pas en rendre compte avec ces outils.

Par exemple, les conséquences des nouvelles technologies, si elles sont tendancielles, seront probablement prises en compte partiellement dans les modèles. Par contre, si elles constituent des ruptures majeures, elles ne seront pas envisagées. De même, pour l’emploi, on peut avoir des évolutions fortes dans les modes de fonctionnement du marché, alors qu’on va décrire l’évolution de l’emploi telle qu’on l’avait constatée dans le passé.

L’un des points sur lesquels on a le plus de problèmes, ce sont les gains de productivité, souvent considérés comme des variables exogènes dans les modèles. Ces gains de productivité, ce qu’on appelle le progrès technique, c’est un trend qui a connu des ruptures. On met souvent des inflexions dans les modèles quand c’est nécessaire, mais on n’a pas beaucoup d’informations alors que les variations sont assez fortes et que ce sont les gains de productivité qui donnent la dynamique du modèle. Alors, on essaie parfois de les décrire un peu plus précisément mais ça demeure un point délicat. Aujourd’hui, on a du mal à évaluer la croissance potentielle longue, parce qu’il faut faire une hypothèse sur les gains de productivité futurs, et qu’avec les nouvelles technologies, on ne les voit pas bien. C’est peut-être là que le prospectiviste, peut apporter des éléments pour améliorer ces connaissances.

De même, il y a des aspects nouveaux comme la dimension environnementale, qui prend de plus en plus de place dans la décision publique, alors que les modèles sont faits pour répondre à des questions du moment. Il faut donc améliorer les outils pour pouvoir dire des choses sur l’évolution de l’environnement et sur la production de CO2, en relation avec la croissance économique.

 Quelques mots  sur trois domaines d’application de la modélisation : l’exercice de planification, l’élaboration des lois de finance, l’énergie.

Les exercices de planification débouchaient sur une loi décrivant ce que pourraient être les cinq années à venir.  Elle était votée par le Parlement, avec des engagements de la puissance publique sur les moyens nécessaires à l’atteinte des objectifs visés. Dans ce cadre, il y avait des réflexions sur tous les domaines, à la fois sur les aspects sociaux, l’emploi, les problèmes sectoriels, en particulier l’agriculture, l’énergie, les transports, les problèmes territoriaux. Ces travaux s’appuyaient sur des études macroéconomiques menées parallèlement par le service économique, dont j’ai fait partie. On faisait travailler l’Insee pour qu’il nous fournisse des projections, des scénarios. Le Commissariat général du Plan fournissait des hypothèses et on faisait tourner un modèle macroéconomique, le modèle DMS (Dynamique Multisectoriel), un modèle assez lourd, parce qu’il voulait décrire l’économie de manière précise. Il y avait onze branches, dont trois pour l’industrie et en plus les industries agroalimentaires, le transport et l’énergie. Paradoxalement, le secteur des services était peu détaillé, alors qu’il est devenu un secteur particulièrement important. Et pour décrire cette économie, il y avait 1 900 équations dont 250 « de comportement », des équations économétriques estimées sur le passé. On était dans les années 80, et le modèle était estimé sur la période 1960-1980, donc sur une vingtaine d’année. L’estimation posait problème, car elle prenait en compte une partie des Trente Glorieuses, alors que la productivité s’était affaissée dans certains secteurs. Enfin il y avait 400 variables exogènes décrivant l’environnement international, la politique budgétaire, fiscale et monétaire, et des secteurs comme l’agriculture ou les grandes entreprises nationales, pour lesquelles on avait des informations sur les 4 à 5 ans à venir, que nous introduisions directement dans le modèle.

Le modèle était néokeynésien, avec une structure qui faisait qu’à court terme c’était la demande qui imposait son rythme. On partait donc des dépenses publiques, de la demande venant de l’extérieur, qui sollicitaient l’appareil de production, entraînant la production, l’emploi, les revenus, donc la consommation, etc. Tout cela rebouclait bien.

Le modèle étant keynésien sur le court terme, les meilleures mesures de politique économique étaient de faire de la dépense publique car les prix et les salaires, plus rigides, n’étaient pas immédiatement tirés par la croissance. À moyen terme, la croissance provoquée par une dépense des administrations relançait la production, l’emploi et entraînait des hausses de salaires, ce qui avait des conséquences sur les prix, ce qui affectait la compétitivité de l’économie ; donc, à moyen terme, on perdait un peu par rapport à ce qu’on imaginait avoir gagné à court terme. D’autant que les entreprises s’en sortaient moins bien, investissaient moins, et les capacités pour exporter étaient réduites.

Mais ce qui explique pourquoi c’est compliqué pour des hommes politiques de prévoir des mesures structurelles favorables à la croissance, c’est qu’elles mettent beaucoup de temps à produire des effets. Ce n’est pas le modèle qui est en cause, c’est la réalité. Tous les modèles rendent compte de ça : vous avez des mécanismes qui ont rapidement des résultats parce qu’ils jouent sur la demande, mais les mesures structurelles cherchant à améliorer la compétitivité et la qualification des hommes, mettent 4 ou 5 ans à produire des effets. Et en général, 4 ou 5 ans, c’est la durée des mandats politiques.

L’avantage de ce modèle, c’est qu’il explicitait ces phénomènes et alimentait la réflexion pour la construction du Plan, qui se faisait avec des partenaires : les syndicats, les entreprises, les universitaires, des associations. À ces partenaires il fallait présenter les scénarios que l’on construisait, les faire discuter, leur faire accepter ou éventuellement les modifier. En fin de parcours on pouvait avoir un certain consensus sur un certain nombre de scénarios.

Ces scénarios avaient été alimentés par les autres services du Commissariat pour tout ce qui était exogène, ce qui ne pouvait pas être calculé par le modèle dans des domaines comme l’industrie ou l’agriculture, ou encore des données sur lesquelles les points de vue n’étaient pas cohérents avec ce qu’on imaginait. On pouvait donc, à la marge, améliorer les scénarios qui, in fine, devenaient l’outil de référence pour tous ces services et les partenaires.

L’intérêt des modèles, dans cette démarche, était d’être un outil que tout le monde pouvait utiliser, un instrument de dialogue entre les différents services du Plan, qui permettait de créer une culture économique commune entre des acteurs qui n’avaient pas, au départ, une connaissance minimale des mécanismes économiques. Quand un décideur nous disait « On n’a qu’à faire ceci », nous répondions : « Ok, on regarde. » Il lui arrivait souvent d’oublier que décider une dépense publique c’est bien mais ça pose un problème d’endettement, par la suite, et que cela peut dégrader la compétitivité.

Le modèle DMS avait une force : il était assez gros et répondait donc à bon nombre de questions. Par exemple, un secteur ne pouvait pas dire : « Vous n’avez pas tenu compte du fait que les biens de consommation ce n’est pas la même chose que les biens intermédiaires… »  Ils étaient séparés. Donc, le fait d’avoir pas mal de secteurs c’est aussi une qualité qui était appréciée.

Par ailleurs, des documents expliquaient avec précision comment il était écrit, comment il fonctionnait. On faisait des « cahiers de variantes» et on étudiait les propriétés du modèle quand on modifiait des variables exogènes ; ses propriétés étaient connues, ce qui rassurait les partenaires sur l’outil.  D’une part, on ne les « truandait » pas, et d’autre part, ça leur permettait, avec le temps, de s’approprier l’outil.

Il y avait des défauts. La taille du DMS nécessitait une équipe assez importante à l’Insee, dont j’ai fait partie avant d’aller au Plan. C’est pour cela qu’il n’y a plus aujourd’hui de tels modèles. Il était lourd à cause du nombre d’équations, de l’importance des données exogènes. La prise en compte de la croissance internationale était un point fort : pour peu que vous sachiez décrire la croissance de l’Europe, celle de la France n’était pas trop différente, sauf si la compétitivité se dégradait. Donc, une fois qu’on avait introduit les données exogènes de croissance internationale on en avait déjà dit beaucoup sur ce que pouvait espérer la France en termes de croissance.

Cela dit, les hypothèses de productivité étaient faiblement expliquées et uniquement par l’estimation du passé. On utilisait, dans les années 80, des comptes nationaux 1950-1980, datant pour une grande part d’avant la crise pétrolière, une époque où la productivité était de 5 % par an. Aujourd’hui, on n’est pas du tout à ce rythme-là et même dans les années 80, elle avait sacrément baissé. On ne savait pas quel serait le futur, et on a toujours eu tendance à être optimistes. Pour un Plan, ce n’est pas une mauvaise chose, ça donne du courage à tout le monde.

Et puis, il y avait bien sûr le problème des ruptures de comportement ; j’ai parlé de la productivité, mais ça pouvait se faire dans d’autres domaines. On peut perdre de la compétitivité sur la qualité, et nous nous intéressions uniquement à la compétitivité prix et aux capacités de production, alors que certains concurrents se spécialisaient dans des produits à haute rentabilité, des spécialités. La concurrence allemande par exemple, n’était pas décrite aussi bien qu’elle l’a été plus tard… Alors, on n’arrêtait pas de dire : « Il faut faire de la formation, si on forme les gens, ils seront plus compétitifs. » Mais le problème c’est que la formation, c’était de la dépense, il fallait embaucher des enseignants… Enfin voilà, on faisait des hypothèses de ce type, mais le modèle ne pouvait pas nous dire : « Ah oui, mais ces gens sont formés donc ils vont être plus efficaces et améliorer la compétitivité ». On voit les limites de ce type d’outil.

Il y a enfin un dernier point, le côté boîte noire. Bien que tout ait été documenté et que donc on puisse avoir accès à l’information, pour la plupart des utilisateurs la documentation était aride : des équations, des coefficients, des choses peu plaisantes quand on n’est pas du métier ; il y avait donc malgré tout un côté boîte noire.

Pour terminer dessus, je parlerai de deux cas sur lesquels j’ai été amené à travailler.

Le premier est un test sur la durée au travail. C’était après le huitième Plan, François Mitterrand est élu Président de la République. Un Plan était en cours d’examen au Parlement. Les socialistes ont décidé un Plan intérimaire dans lequel ont été mises les 121 mesures du programme du candidat. On a donc refait des scénarios assez rapidement. Dans les mesures proposées, il avait les 35 heures après négociation avec les partenaires sociaux et le développement du travail en équipe de façon à être plus efficaces.

Quand on faisait tourner le modèle DMS, baisser à 35 heures, à court terme, c’était bien parce que ça créait de l’emploi, mais à moyen terme il y avait des effets négatifs : de l’inflation, parce que le chômage baissant, les salaires augmentaient, et une dégradation des capacités de production des entreprises qui n’arrivaient pas immédiatement à recruter des salariés qualifiés en nombre suffisant.

Donc ces effets n’étaient pas favorables. On a cherché pourquoi.  Le principal handicap était que les capacités de production étaient insuffisamment utilisées. On s’est dit : « Ce qu’on va faire en même temps, c’est développer, le travail en équipe. » On a donc introduit l’idée de développer le travail en équipe et des décrets sont même passés pour le favoriser. Nous avons introduit une nouvelle variable, qui n’existait pas dans le modèle : la durée d’utilisation du capital.

Si on augmentait la durée d’utilisation du capital, les 35 heures pouvaient être assez vertueuses. On devenait plus compétitifs en faisant tourner 24 heures des usines qui tournaient 8 heures jusque là.  Avec les 35 heures, les entreprises étaient de toute façon obligées de se réorganiser donc c’était plus facile pour elles de passer à ce cap-là, et on avait un effet efficace.

On a donc montré qu’il y avait un côté vertueux. Le seul problème était celui de la compensation salariale. Ce que disait le modèle, c’est qu’il ne fallait pas compenser à 100 % les 35 heures. Du coup, la décision politique a été de passer à 39 heures d’abord, avec compensation intégrale. Il n’y a donc pas eu autant d’effet qu’on l’imaginait sur l’emploi, et le gouvernement n’est pas allé plus loin. Voilà le type de mesures pour lesquelles on a utilisé le modèle.

Le deuxième cas c’est la mise en œuvre des 121 mesures. Ce n’est pas tombé au bon moment : la conjoncture extérieure n’était pas très bonne et du coup on s’est retrouvés dans une situation effroyable, avec trois points de PIB de déficit public et un peu moins de deux points de déficit extérieur. Aujourd’hui, ça fait rigoler mais à l’époque, c’était gigantesque par rapport à ce qu’on connaissait. Donc, immédiatement, il y a eu un changement de politique et on est partis sur un contrôle des salaires beaucoup plus fort parce que l’inflation montait très vite par rapport à nos voisins. La stratégie de désinflation compétitive a d’ailleurs été particulièrement efficace.

Je travaillais, à ce moment-là, sur le modèle DMS à l’Insee et on a été obligés en 1 mois, 1 mois et demi, de refaire tous les scénarios en se passant des équations de salaires, qui étaient normalement économétriques, et en prenant comme hypothèse qu’il n’y avait plus d’indexation sur les prix, ou une demi-indexation, et on a réécrit un scénario.

Le modèle DMS, donc, était très lourd. Il y a eu des versions plus légères, comme Mini DMS Énergie, avec très peu de secteurs mais un secteur énergétique assez développé parce qu’au Commissariat du Plan, les problèmes de long terme, c’était l’agriculture et surtout l’énergie et les transports, deux secteurs dans lesquels les investissements sont longs et lourds, ce qui oblige à les prévoir longtemps à l’avance.

Par la suite, l’Insee a abandonné le modèle DMS et est passé à un modèle plus léger, AMADEUS avec beaucoup moins de secteurs, et qui pouvait être mis en œuvre par des équipes plus légères.

A partir du 10e Plan, on a commencé à utiliser les modèles d’autres organismes : l’OFCE et COE-Rexecode avaient construit leurs propres outils, avec des point de vue politiques différents : l’OFCE très keynésien, COE-Rexecode qui ne regardait que le côté de l’offre et l’Insee décrivant une situation intermédiaire.

Sont ensuite arrivés des modèles multinationaux pour la construction de scénarios dont NiGEM, un modèle que les Anglais avaient mis à disposition de tous ceux qui souhaitaient l’utiliser, et qu’on utilise toujours.

Deux sujets dans lesquels j’ai été  un peu moins impliqué : la loi de finances et l’énergie.

La Loi de Finances doit s’appuyer sur une vision, mais à plus court terme que le Plan. C’est la Direction du Trésor qui est chargée de fournir un scénario, une prévision qui est celle retenue. Pour ce faire, elle a trois types d’outils : un qui présente le très court terme, c’est-à-dire les trimestres qui viennent. L’Insee produit ces prévisions, mais les gens du Trésor ne veulent pas être en retard, et ils en réalisent donc en parallèle avec leur propre outil. C’est une enquête assez lourde, et ils espèrent qu’à la fin l’Insee dira la même chose qu’eux.

Ensuite, ils ont, pour les deux années en cours, un modèle qui s’appelle Opale et qui réalise des prévisions à 1 ou 2 ans avec cinq secteurs institutionnels.

Les modèles pour ces utilisations sont trimestriels avec des ajustements de court terme sur certaines variables, et ils comportent une équation de long terme (modèle à correction d’erreur), qui permet de s’assurer de la cohérence à long terme.

Et puis, ils ont un modèle plus connu, Mésange, partagé avec l’Insee, qui est un modèle macroéconomique standard néokeynésien à 500 équations et 3 branches modélisées. Il leur sert à faire des variantes parce que les comportements économiques sont beaucoup plus travaillés que dans le modèle Opale. L’intérêt d’Opale est qu’il peut être mis en œuvre très rapidement : le Ministre veut qu’on change quelque chose, ça va très vite. Alors que Mésange est moins facile à maîtriser : il comporte beaucoup plus d’économétrie et dès qu’on commence à modifier quelque chose ça peut altérer tout le scénario global.

La Direction du Trésor fait d’abord un compte technique « brut » qui est présenté au Ministre et à son cabinet. Il y a des discussions, le Ministre peut dire « Je pense qu’on devrait pouvoir faire mieux, faire encore ceci. ». Les économistes réagissent et on arrive sur ce qu’on appelle un compte « normé » qui sera présenté au Parlement.

Entre temps, ces comptes sont examinés par le « Groupe technique de la commission économique de la nation ». Ce groupe – j’ai eu l’occasion d’y participer quand j’étais au Conseil d’Analyse Économique – regroupe les instituts qui travaillent sur la conjoncture : non seulement l’OFCE, COE-Rexecode, des universitaires, mais aussi les banques, qui ont toutes leurs scénarios. Il y a donc une confrontation. C’est très impressionnant : chacun donne ses hypothèses, ses résultats pour l’année en cours et l’année suivante . Cela oblige le Ministère à justifier ses choix ou ses résultats.

Ce qui est nouveau, c’est que ces prévisions sont ensuite présentées au Haut Conseil des finances publiques, créé pour éviter que le gouvernement ne prenne des hypothèses trop favorables pour présenter des comptes en équilibre ; si vous mettez plus de croissance, vous arrivez plus facilement à régler vos problèmes de solde budgétaire. Le Haut Conseil des finances publiques porte un avis sur la qualité et la probabilité du scénario qui est présenté.

Sur l’énergie, France Stratégie s’est intéressé aux problèmes de l’environnement et de la COP21, pour évaluer les impacts, proposer les mesures à prendre en termes de fiscalité du CO2, d’investissement dans l’isolation, enfin de dépenses possibles pour améliorer la situation. Souvent les outils utilisés décrivent bien le secteur en tant que tel mais ne parlent pas des conséquences globales pour l’économie ; c’est-à-dire qu’on subventionne un secteur pour qu’il soit meilleur, plus efficace mais une subvention reste une subvention, et dans un modèle macroéconomique c’est une dépense. Alors, il peut y avoir des effets bénéfiques mais en même temps, il y aura probablement des retombées économiques et l’État devra payer. Il peut y avoir des effets de substitution qui méritent d’être décrits.

Ils ont donc demandé à des équipes de modélisation (avec les modèles Mésange, Némésis (de l’école Centrale), et un autre modèle développé par l’ADEME et l’OFCE, de voir quelles étaient les conséquences macroéconomiques, des mesures en faveur de l’environnement. Évidemment, ces modèles disent que quand vous taxez, par exemple, le CO2, c’est un impôt donc ce n’est pas bon pour la croissance ni pour l’emploi. Mais en général ça fait des recettes pour l’État, qui peut les réallouer pour rééquilibrer.

Ils ont découvert que finalement les modèles sont assez proches pour ce qui concerne les économies de CO2 —pas Mésange : ce n’est pas du tout son truc, alors que les autres sont plus adéquats. En termes de PIB et d’emploi, ils ont trouvé, en gros, que quand vous mettez un point de PIB de taxation sur le carbone, vous gardez, plus ou moins, un point de PIB, à terme, de croissance parce que vous avez taxé mais vous avez enrichi le budget de l’État ; à lui d’utiliser le montant de la taxe à bon escient.

Le débat

Participant

Bonsoir, merci pour cet exposé. J’avais une question sur le niveau de fiabilité des modèles. Lorsqu’on utilise les séries longues, en économétrie, comment peut gérer les changements de définition fréquents sur le PIB, le calcul de l’inflation, le taux de chômage et autres qui sont quand même des données importantes ?

Pierre Joly :

Effectivement, on revoit les bases régulièrement, tous les 5-10 ans, et c’est terrible pour les modèles parce qu’une fois qu’on a changé les bases on ne peut plus travailler sur les anciennes et il faut réestimer l’ensemble du modèle. Par exemple, les chocs pétroliers ont modifié assez sensiblement la structure des prix. DMS a dû intégrer l’augmentation du prix de l’énergie et dans ce cas-là, vous avez des impacts sur un certain nombre de coefficients, qui peuvent altérer le modèle.

Mais les modèles sont basés sur une version datée de Comptabilité nationale, ils doivent le préciser dans leur notice et ils restent cohérents au moins pendant cette période parce que le PIB ne change de concept qu’à l’occasion d’une remise à niveau pour une nouvelle campagne. Récemment on a introduit dans le PIB de nouvelles grandeurs, d’autres ont été retirées, tout ça souvent pour respecter des règles internationales. C’est très organisé. On n’a pas une liberté absolue, en fait les pays sont obligés de tous faire la même chose et en plus nos comptes sont expertisés par les autres pays. Entre autres, les comptes de déficit public, d’endettement, sont discutés au niveau européen. C’est l’Insee qui fait les calculs et qui fournit les données, mais il faut que le PIB soit mesuré de la même manière pour tous, pour les raisons liées à la base de la fiscalité européenne mais aussi parce que déficits et endettement publics sont rapportés au PIB en valeur.

Participant 

On a quand même des différences de comptabilisation avec le reste de l’Europe, par exemple sur la manière dont on enregistre la valeur créée par les activités illégales, et puis aussi lorsqu’on regarde l’inflation, selon ce qu’on utilise ou pas comme produit de substitution dans les familles, qui permettent de mesurer l’évolution du prix, on arrive très vite, en fait, à créer des écarts de 1 ou 1,5 %, ce qui est énorme aujourd’hui compte tenu du niveau de l’inflation et du niveau de croissance. Est-ce que au final on peut encore avoir une fiabilité permettant de prendre des décisions ?

Pierre Joly

Sur le PIB en valeur, vous avez raison, il y a des pays qui prennent en compte la prostitution et d’autres la drogue. Vous avez aussi tout ce qui est le PIB informel, il y a des méthodes pour essayer de l’évaluer et chaque pays fait de son mieux. Par contre, pour les prix, c’est un souci ; il n’y a pas de méthodologie générale. On parle toujours de l’électronique, par exemple, où les prix devraient baisser très nettement parce qu’on vend au même prix des produits qui ont beaucoup progressé. Pour en rendre compte on utilise des techniques qui s’appellent « le prix hédonique » et tous les pays ne le font pas au même niveau. Donc, on peut avoir un impact différent d’un pays à l’autre.

Quand je dis que c’est normalisé, je dirais : le cadre est normalisé, les concepts doivent être proches enfin, il y a des règles qui sont définies ; après, dans la manière de le mesurer, chaque pays a sa méthode, et donc là, il peut y avoir des variantes. En France, on a toujours mis beaucoup de moyens sur l’information statistique. Il y a de plus petits pays, qui n’ont pas les moyens de mettre autant de ressources, sans parler des Grecs, par exemple, avec la mesure de leur PIB qui a quand même posé un sacré problème. Vous avez raison, il peut y avoir des écarts.

Participant :

Est-ce qu’il n’y a pas des pays, aussi, comme les États-Unis qui sont devenus des champions du tuning des modèles et de l’interprétation de certains concepts, notamment autour de l’inflation, pour pouvoir communiquer des données lissées un peu comme on en a envie ?

Pierre Joly :

L’inflation est souvent calculée par les Banques centrales. Aux États-Unis, la Banque centrale (FED) est indépendante. Vous ne pouvez pas changer le président du conseil des gouverneurs de la FED comme le directeur du FBI. Les Banques centrales font elles-mêmes des calculs, elles utilisent comme beaucoup des informations primaires réunies par les organismes. Par exemple, la loi numérique oblige l’Insee à mettre à disposition du public toujours plus de données ; le citoyen va pouvoir dire : « Moi, je veux ça ». Vous pouvez avoir la base Sirene par exemple, vous pouvez la télécharger, elle est désormais gratuite…

Et puis il y a un article qui est en notre faveur (c’est nous qui l’avons demandé). Il oblige les entreprises, en particulier celles du commerce et des télécom, à mettre à disposition de l’Insee leur base de données numériques sur leurs ventes de façon à pouvoir construire des indices de prix à un niveau beaucoup plus fin. Pour l’Insee ça fait une super économie : ça évite d’envoyer des enquêteurs pour aller chercher l’information, et on va avoir une base plus large. Il y a une obligation, pour les entreprises d’y participer. On espère réussir à les convaincre. En revanche, je ne suis pas sûr que les Allemands y arrivent.

Participante :    

J’ai une question double. Comment évaluez-vous les modèles que vous utilisez, par rapport aux autres pays européens ? Comment tout cela fonctionne, fonctionnait et fonctionnera ? Est-ce qu’on va pouvoir avoir une vision européenne fiable et comment ce groupe de pays fonctionne, est-ce qu’il y en a qui sont plus évolués que la France ?

Pierre Joly :

La Commission a un modèle macroéconomique qui s’appelle Qwest et qui décrit, pour chacun des pays, des éléments de croissance. Et le FMI a un modèle, Multimod, qui décrit aussi chacun des pays.

Les modèles nationaux peuvent être gémellaires : vous décrivez de la même manière les comportements dans les deux pays, et dans ce cas, quand vous faites un choc dans un pays il se passera des choses relativement voisines dans l’autre. La deuxième possibilité est qu’il y ait des différences de comportement d’un pays à l’autre.

La formation des salaires en Allemagne et en France, par exemple : c’était un sacré problème parce que les équations étaient très différentes. Les Allemands étaient très sensibles à l’emploi. On voyait bien que chez eux c’était le plus important et que les mécanismes économiques jouaient toujours en faveur de l’emploi alors qu’en France on avait le salaire minimum, qui atténue l’impact du chômage sur le niveau des salaires alors que chez les Allemands cet impact était beaucoup plus fort. Quand on faisait des variantes, on avait donc des effets extrêmement contrastés.

Ça ne répond peut-être pas complètement à votre question mais il n’y avait pas de bonne solution. Si on prenait exactement la même structure des descriptions de l’économie, on se tromperait un peu sur la France, un peu sur l’Allemagne mais les propriétés paraîtraient relativement homogènes. Mais ces modèles différenciés étaient bons parce qu’on voit bien qu’entre la France et l’Allemagne nous n’avons pas le même système de régulation et que ça a un impact : cela a joué contre eux à une époque, et ça joue plutôt contre nous à présent.

Participant

Je compléterais bien par une question sur les doctrines. Tu disais : «DMS était néokeynésien.» Alors aujourd’hui, dans les modèles, on a souvent un mix avec du classique et du keynésien, en fait du néoclassique et du néokeynésien. Quelles peuvent être demain les doctrines par pays ? Quels choix politiques ?

Pierre Joly 

Un modèle c’est de la responsabilité de ceux qui le font, déjà. Donc, c’est eux qui vont mettre les hypothèses qu’ils jugent bonnes. Ce sont des économistes, des gens sérieux qui vont y mettre ce qu’ils jugent bon.

Pour faire court, quand on était au Commissariat du Plan, on savait que le modèle de l’OFCE était keynésien. C’est moins vrai maintenant j’ai vu leur dernier modèle ils ont un petit peu amélioré, enfin, en gros il faut toujours faire de la dépense publique, alors que d’autres vont dire : « C’est efficace à court terme mais ça va dégrader terriblement la compétitivité. » Alors, c’est là qu’il peut y avoir, effectivement, une dose différente de description des comportements d’offre.

Je pense que la partie keynésienne des modèles, c’est la comptabilité nationale qui dit que le PIB c’est la consommation plus l’investissement plus les exportations et moins les importations puis après vous avez la distribution des revenus, l’emploi… Tout le monde décrit plus ou moins la même chose parce que ce n’est pas facile, en tout cas à court terme, de se différencier sur ces points-là.

Par contre, après, vous pouvez être plus ou moins précis sur l’offre et vous pouvez faire jouer un rôle plus important, par exemple, à l’investissement. L’investissement va affecter les équations de l’exportation et de l’importation. Si les entreprises investissent moins parce qu’elles ont moins de profit, elles vont dégrader leur compétitivité vis-à-vis de l’extérieur, en plus des prix. Si on imaginait un modèle dans lequel on dirait : « L’éducation, la formation des gens, ça compte. », il faudrait l’écrire et réussir à l’estimer. Il y a une règle chez les modélisateurs, c’est qu’ils estiment l’équation de comportement, et ne se permettent donc pas de garder des variables non significatives. Il y a un système de tests, une méthodologie que les économistes doivent respecter. Les grosses différences sur les modèles, enfin sur ce type de modèle néokeynésien c’est comment est traitée l’offre. Parce que la première partie, celle de court terme, n’a pas de raison d’être très différente d’un modèle à l’autre.

Par contre, il existe d’autres types de modèles, des modèles d’équilibre général. Je ne vais pas en dire plus mais ils sont également utilisés et sont plus intéressants pour faire de la prévision longue. Ils introduisent des principes d’équilibre de long terme basés sur des comportements respectant la théorie macroéconomique. Le problème, c’est que leurs résultats ne sont pas toujours facilement utilisables par les décideurs publics.

Participant

Je voudrais revenir sur un aspect de la modélisation. D’une génération de modélisateurs à une autre, y a-t-il des représentations, des modélisations qui diffèrent parce que, à un moment, on considère que le modèle a fait son temps, indépendamment des aspects doctrinaires que vous avez évoqués ? Est-ce qu’il y a des évolutions qui interviennent par sauts ou simplement parce que la puissance informatique offre des capacités de raffinement qu’on n’avait pas autrefois.

Est-ce que vous introduisez dans ces modèles, de façon explicite, des variables aléatoires comme on peut le faire dans des disciplines comme la Finance. Dans la banque, on a introduit explicitement l’incertitude dans les modèles. Sous quelle forme ça existe dans ce que vous évoquez ? Et puis, une dernière question : quid de l’intelligence artificielle, qui aura certainement à moyen terme des effets de substitution probablement assez importants sur le travail. Est-ce que ces éléments-là sont pris en compte ?

Pierre Joly :

C’est vrai qu’aujourd’hui, on ne fabrique plus de très gros modèles économétriques. Il y en a, en revanche, pour travailler sur les problèmes d’environnement. Némésis, qui ressemble beaucoup à DMS, est utilisé pour des contrats avec la Commission européenne parce que les Français sont plutôt bons, ils ont de bons outils.

Quant au calcul stochastique, on ne l’introduit pas tellement parce que les utilisateurs n’aiment pas avoir un produit qui, suivant que vous le faites tourner à deux heures, à trois heures ou à quatre heures, vous donne des résultats différents. On peut dire : « Sur des données exogènes, je mets de l’aléa et puis je fais un très grand nombre de simulations et après je regarde les résultats. Je ne suis plus suffisamment dans l’opérationnel pour savoir si ça se fait. Ça doit être assez coûteux, je comprends que ça puisse servir dans les métiers de la Finance mais les outils dont je vous ai parlé ont vocation à répondre à des demandes publiques importantes. Je ne sais pas comment vous pourriez expliquer à un ministre qu’on a mis des aléas et que suivant les aléas, il faudrait prendre des mesures différentes…

Quant à l’intelligence artificielle, il est certain qu’elle va prendre de la place. Personnellement, je suis un peu choqué de voir utiliser des techniques, pour mesurer des grandeurs, consistant à dire : « Je prends toutes les variables existantes, je fais tourner l’ordinateur et je regarde celles qui sortent. » Je fais partie d’une école où l’on voulait comprendre les mécanismes, pouvoir les expliquer, pouvoir dire : « La consommation augmente de telle manière parce que les prix baissent, ou les prix baissent parce que le taux de chômage a augmenté ». Enfin, on voulait pouvoir tenir, derrière des chiffres, un raisonnement économique.

C’est pour ça que je dirai que l’intelligence artificielle est une facilité, qui dégrade, à mon avis, le principe même d’essayer de comprendre les mécanismes.

Pierre Joly

Il faut savoir comment les big data vont être utilisées. Les jeunes de l’Ensae vont se régaler avec les modèles qu’on va construire. À un moment on avait intégré ce qu’on appelait les modèles VAR (vectoriels autorégressifs). c’était des modèles purement statistiques où on expliquait une variable par rapport à son passé. Il y avait plusieurs types de modèles VAR. C’était assez compliqué mais ça faisait des super courbes statistiques à l’Ensae. Mais derrière on se demandait : « A la limite, pourquoi on ne tire pas une droite. C’est dix fois plus simple que de faire des maths de haut niveau. » Donc, je pense que l’avenir ça sera ça.

Il y a juste une chose que je voudrais mettre en avant, par rapport à ces outils. Ces modèles ont quand même des cadres comptables stricts, qui constituent des forces de rappel importantes pour tempérer les opinions des décideurs. Quand on dépense de l’argent il faut le retrouver quelque part et lorsqu’on prend une mesure de politique économique elle peut impacter à la fois les taux de change, l’emploi, la consommation, l’investissement… Elle va jouer sur de nombreux domaines et ça rappelle à tout le monde que des équilibres vont être affectés et qu’on ne peut pas imaginer une mesure dans l’absolu sans regarder toutes les conséquences induites. C’est le problème des modèles non bouclés. Les modèles macroéconomiques sont tous bouclés et c’est leur force et leur utilité « sociale » alors que des modèles, par exemple, sur l’environnement, sont plutôt techniques ; ils expliquent bien comment des mesures vont influer d’un secteur sur l’autre mais derrière on ne décrit pas ce que ça signifie pour le consommateur, ce qu’il va payer, ce qu’il ne va pas payer. L’État subventionne, mais avec quel argent ? Donc, les modèles du genre de Némésis ont l’intérêt d’être bouclés. Ils décrivent plutôt mieux la réalité, et ils ont des appendices qui permettent de dire en plus que quand un secteur fonctionne, il produit tant de carbone ; à la limite c’est une variable accessoire, elle n’a pas d’impact économique direct, sauf si on met une taxe sur le carbone. Là, on peut dire : « Ça aura tel impact sur tels secteurs. ».

Participant

Moi aussi, je suis un grand amateur des modèles qui bouclent mais est-ce que dans le monde d’aujourd’hui, dans l’économie d’aujourd’hui, on peut encore envisager des modèles qui bouclent là où on a des économies beaucoup plus ouvertes qu’autrefois ; lorsqu’on était dans le Plan, c’était le circuit du Trésor, le contrôle des changes. Aujourd’hui, on a non seulement des économies beaucoup plus ouvertes mais aussi des systèmes financiers complètement ouverts avec des masses énormes de capitaux qui peuvent impacter l’économie réelle. Est-ce que dans ce contexte-là, on peut encore imaginer un niveau de bouclage qui inclut cette partie financière ?

Pierre Joly

Tout à fait. Dans les modèles dont je parlais, dont on se servait au Plan, c’était le début de la libéralisation financière, avec tous ses impacts et on décrivait la partie financière  de manière presque exogène. L’état fixait les taux des livrets, les taux d’intérêt, la masse monétaire. Tout était sous contrôle. Et puis on a eu l’euro d’un côté, et la libéralisation du secteur financier. Les financements peuvent aller partout. Ça a un avantage pour le modélisateur, qui peut tabler sur la rationalité de ceux qui déplacent ces sommes et en rendre compte dans le modèle alors que ce qui est contrôlé par un État, vous ne pouviez que le considérer comme exogène.

Donc, ça a une vertu pour les modélisateurs. En même temps, les modèles actuels ont des équations sur les changes vis-à-vis des zones non-euro. Mais dans la zone euro, il n’y a pas de différences de change entre ses membres.

Le fait, par exemple, que des entreprises vont choisir de s’installer à un endroit ou à un autre n’est pas remarquablement décrit, mais ce qu’on dit sur l’investissement va toutefois en rendre compte : si les conditions économiques sont plutôt favorables, les entreprises vont s’installer et l’investissement va croître. C’est à travers des règles de ce genre qu’on pourra dire que des conditions d’installation favorables ont un impact favorable sur la croissance du pays. A l’opposé, si les conditions sont moins bonnes, il y aura moins d’investissements. Mais c’est l’entreprise qui prend une décision d’investissement, et les modèles ne vont pas à ce niveau de finesse sur le comportement de chaque type d’entreprise.

Participant :

Avec les raisonnements qui dépassent le cadre économique classique, on a vu des quantités monstrueuses de capitaux qui, au lieu d’être utilisés en investissements productifs ont été utilisés pour racheter des actions afin de doper les cours, parce qu’il y avait un afflux de capitaux sans commune mesure avec ce qui existait auparavant. Et là, on perturbe de manière négative — et imprévisible par les modèles classiques — les décisions d’investissement qui font tourner l’économie réelle.

Pierre Joly :

Je pense en effet que les modèles n’en rendent pas bien compte.

Participant :

On a parlé de modèles puisque c’est la base des prévisions macroéconomiques, mais à côté il y a toujours eu des monographies, des études spécifiques. Les gens du Plan (ou maintenant d’un service quelconque de prévision) vont voir le Ministre en disant : « Voilà le modèle et puis à côté on a fait quand même un petit travail sur les comportements.» Je regardais, par exemple, récemment le financement des start-ups en France. Nous sommes les champions du financement de la phase de démarrage et des deux premiers tours de table. A partir du moment où on arrive dans la phase de croissance forte, on est nuls, on n’a pas assez d’investisseurs et les entrepreneurs sont forcés de traverser l’Atlantique. C’est complexe comme mécanisme, on ne peut pas facilement le rendre par une variable d’investissement. Donc, il faut bien, à côté, qu’il y ait des monographies.

Pierre Joly :

Sur un sujet comme celui-là, à la Direction du Trésor, ils ont un modèle mais c’est une toute petite partie de leur production. Ils travaillent sur les secteurs, ils lisent les monographies, ils font des maquettes, il y a toute une production économique qui peut passer par des outils ad hoc ou simplement par la lecture d’études. Mais c’est vrai que le Trésor a toujours envie de revenir à des chiffres.

Du côté des modèles macroéconomiques, les start-ups c’est le petit côté des entreprises. Ce n’est pas le problème du modélisateur, qui décrit certes les grandes entreprises, les entreprises de taille intermédiaire et les PME. Mais en termes d’emploi et d’investissement, les grandes entreprises c’est gigantesque. On dit que small is beautiful mais en réalité ce sont les grandes entreprises qui ont la plus grosse partie de l’emploi, la plus grosse partie de l’investissement, qui sont présentes à l’exportation, à l’importation. On espère que les petites entreprises vont se développer, que quelques-unes vont devenir Google. Mais pour le modélisateur qui doit prévoir le PIB et l’emploi, elles ne méritent pas qu’il s’y investisse particulièrement!

Participant :

À propos des start-ups, leur impact immédiat va être très faible dans l’économie réelle, mais l’aspect financier, avec les fonds qui vont amener des survalorisations peut, en revanche, avoir un impact non négligeable sur les cours de bourse et sur des indices purement financiers.

Pierre Joly

En fait, on n’en tient pas tellement compte, le financement des entreprises, en général, c’est des descriptions relativement sommaires, avec les outils dont je vous ai parlé. Il y a des services, à la Direction du Trésor, plus spécialisés sur ces questions, et je ne connais pas bien leurs outils. Ce sont le plus souvent des énarques, et je ne sais pas s’ils sont aussi modélisateurs, ils sont moins « Insee » que dans l’autre partie du Trésor, qui est plutôt du côté de la modélisation. Mais, pour faire court, en-dessous du milliard d’euros, ça n’intéresse pas tellement le modélisateur, cela relève de la maquette. Les scénarios sont un outil qui peut aussi être utilisé pour aller un peu plus dans le détail de ce qui se passe dans une région ou dans un secteur particulier ; ils ont l’avantage de donner un cadrage qui peut être pertinent.

Pierre Joly :

Encore un point que j’aurais pu évoquer… la conjoncture utilisait beaucoup, à une époque, le modèle METRIC dont Patrick Artus était l’un des fondateurs, et on s’en servait aussi au Plan. Le problème des modèles c’est qu’ils lissent beaucoup et donc pour de la conjoncture ce n’est pas terrible. Quand il y a eu les grands ralentissements en 1990, nous avions rencontré, avec le Commissaire général du Plan, le patron du Medef, qui disait : « Mais vous ne vous rendez pas compte. » On voyait bien qu’il y avait un ralentissement, mais lui nous disait : « Mais ça s’effondre ! » Effectivement même les conjoncturistes avaient du mal à le percevoir parce qu’ils utilisaient des outils où l’on voyait que ça baissait, mais qui faisaient jouer des forces de rappel, minimisant beaucoup la crise. Les chefs d’entreprise disaient : « Mais attendez, c’est la « cata », ça ne marche plus du tout. » Leur diagnostic était juste, et là il y a eu presque un conflit au sein de l’équipe, entre ceux qui défendaient la manière traditionnelle et ceux qui dénonçaient cet aspect négatif des modèles. Finalement, maintenant, on utilise beaucoup plus les enquêtes de conjoncture, qui sont nettement plus réactives ; on leur donne plus de poids pour décrire la conjoncture. A l’opposé, si vous prenez le modèle Mésange, il est utilisé une fois que la conjoncture est passée pour essayer de comprendre, parce qu’il apporte des éléments de compréhension globaux sur les comportements économiques à l’œuvre et qu’il peut aider à les décrypter ex-post. Il y a donc une inversion de l’utilisation de ces outils.

Marc Mousli 

Merci beaucoup, Pierre. Grâce à toi nous avons fait une plongée dans un domaine que nous n’avions jamais exploré jusqu’ici et qui est considérable. Il y resterait beaucoup à dire sur la façon dont les clients de l’Insee prennent leurs décisions. Quand on a donné les prévisions au Ministre, qu’est-ce qu’il en fait ? C’est autre chose, d’extrêmement intéressant d’ailleurs. Nous en avons un peu parlé au Café avec Stéphane Cordobès, de la DATAR, et Bruno Hérault, du Centre de prévision du Ministère de l’Agriculture : comment faire accepter des résultats à un décideur ? Mais ce n’est plus la responsabilité des modélisateurs. Merci beaucoup pour cette séance.

Café de la prospective du 15 mars 2017 – Agence française de développement

Café de la prospective du 15 mars 2017 – Agence française de développement

Le Café de la prospective a reçu le 15 mars 2017 Cyrille Bellier et Alexis Bonnel, de l’Agence française de développement (AFD).

L’AFD a célébré en décembre 2016 ses 75 ans. Cette institution créée à Londres par le Général de Gaulle en 1941 s’est transformée à plusieurs reprises jusque très récemment. C’est une institution financière au cœur du dispositif français de l’aide publique en faveur des pays en développement et de l’Outre-mer. Depuis quelques années, elle se trouve confrontée à de nombreux bouleversements sur ses terrains d’action traditionnels, qui interpellent sa mission de solidarité et de développement durable face aux grands défis de la planète, et questionnent son identité ; le monde a beaucoup changé et il continuera de le faire à un rythme soutenu. Comment une institution dont toute l’activité est ancrée dans l’actualité mais qui cherche à se projeter sur le temps long peut-elle rester pertinente dans des contextes incertains ?

Pour s’adapter aux changements en cours et se préparer à ceux qui surviendront dans les dix prochaines années, l’AFD a engagé une démarche prospective : Quels avenirs pour une agence de développement ? AFD 2025.

Cyrille Bellier et Alexis Bonnel, qui ont animé cette démarche, ont débattu avec nous des apports de la prospective à la réflexion et à la mobilisation des collaborateurs de l’AFD, qui s’est donnée une mission ambitieuse : concilier développement, sécurité et durabilité, trois objectifs remis constamment en cause par une donne géopolitique complexe et incertaine.

Cet exercice créatif, transversal et collectif, ouvert à tous les collaborateurs du groupe en France et à l’étranger, a été l’occasion d’explorer à la fois les valeurs et l’histoire de l’Agence, et les grands thèmes actuels et à venir qui structurent les champs d’action d’un bailleur de fonds. L’AFD s’est notamment interrogée, en s’appuyant sur quatre scénarios contrastés, sur son rôle dans l’agenda de développement qui prendra en 2030 la suite des Objectifs de Développement Durable portés par l’ONU.

 

Café de la prospective du 1er février 2017 – Luc Mathieur

Café de la prospective du 1er février 2017 – Luc Mathieur

Ce mercredi 1er février nous avons reçu Luc Mathieu, Secrétaire général de la Fédération CFDT Banques et Assurances, qui nous a raconté les deux démarches prospectives qu’il a animées dans sa fédération, à dix ans d’écart.
Accueillis au début avec un certain scepticisme par des militants très pris par leurs combats quotidiens, ces travaux ont permis de riches débats et réflexions internes. La première démarche, en 2006 – 2007, a notamment aidé le syndicat à comprendre la crise et à y répondre. Et les deux-tiers des 125 actions décidées à son issue ont été suivies d’effet à ce jour. Un bilan plus qu’honorable, qui prouve que les syndicats, jusqu’ici peu attirés par la prospective, gagneraient à s’y intéresser et à se l’approprier. Ce dont Luc Mathieu, dont les participants au Café ont apprécié la lucidité et la hauteur de vue, est totalement persuadé.

Café de la prospective du 14 décembre 2016 – Carine Dartiguepeyrou

Café de la prospective du 14 décembre 2016 – Carine Dartiguepeyrou

Carine Dartiguepeyrou

Carine Dartiguepeyrou est une prospectiviste confirmée et a cette caractéristique, qui tout compte fait est assez rare, de travailler dans plusieurs domaines. Elle travaille aussi bien pour des entreprises que pour des collectivités, elle fait du territorial et également des choses assez originales dont elle va vous parler. Elle est diplômée de la London School of Economics, elle a un doctorat où elle parlait déjà un peu de prospective, etc. Je vais la laisser se présenter.

 Je suis très émue de venir parce que c’est la première fois qu’on me demande de parler de comment je suis arrivée à la prospective et je voulais vous remercier.
Ma présentation est articulée en deux temps :

  • d’où je viens, car ce qui intéresse les gens du Café c’est de savoir comment je suis arrivée à la prospective.
  • ce qui me caractérise en termes d’actions, de types de projets sur lesquels je travaille.

Comment je suis arrivée à la prospective

Altérité et langues étrangères

Je suis Française, née en France et ce qui très tôt m’a caractérisée, c’est la passion pour l’altérité. C’est quelque chose qui est né très jeune puisque dès la maternelle, j’étais toujours amie avec « l’étranger de l’école », en l’occurrence une Japonaise — qui ne parlait pas français et qui a été ma première amie ; la deuxième était Finlandaise… J’allais toujours vers l’enfant arrivé en milieu d’année… En même temps, très jeune j’ai voulu pratiquer les langues étrangères pour mieux comprendre l’autre.

Ce goût pour les autres, pour la culture, a fait que j’ai fait de l’anglais dès la primaire, du russe — alors que mes parents n’étaient pas communistes tout en étant très engagés politiquement, puis de l’espagnol, du latin, un peu de grec, etc. Ce goût pour les langues m’a valu d’aller dans de bonnes écoles.

Russie et pays de l’Est

Je me destinais au concours d’Orient (conseiller des affaires étrangères). J’avais déjà vécu en Russie à la fin de l’Union soviétique avec une bourse du ministère des Affaires étrangères. J’ai fait mon DEA avec Hélène Carrère d’Encausse à Sciences Po. L’année où elle a été nommée académicienne, j’ai été chargée par les élèves de la classe de lui rédiger son discours de félicitations. Mon mémoire de thèse consistait à anticiper que l’URSS allait imploser par l’intérieur, par l’âme russe et qu’il y aurait une reconquête de l’identité russe. A l’époque Hélène Carrère d’Encausse pensait qu’il s’agirait d’une explosion à la périphérie de l’empire et qu’elle se ferait par les républiques musulmanes. Mais je fus quand même acceptée en thèse de doctorat !

En 1991, après la chute du mur de Berlin j’ai vraiment eu envie de participer à ce moment phare de l’histoire. Je suis partie du jour au lendemain en Pologne pour mon premier employeur, le ministre du travail polonais. Pour 150 dollars mensuels, j’ai travaillé sur la transformation de la Pologne un des pays les plus actifs à l’époque sur la voie de la transition.

London school of economics et banque européenne de reconstruction

Après cette première expérience, j’ai fait à la London School of Economics (LES), le master Politics of the World Economy. La Politique économique, le fleuron de la LSE, c’est étudié en Angleterre plus qu’en France où l’économétrie domine souvent. Quelques années auparavant, George Soros avait suivi le même master.

À la suite de mon master, j’ai intégré un cabinet britannique — j’y étais la seule française – créée par d’anciens ministres d’un peu partout en Europe et en particulier des pays d’Europe centrale et orientale et aussi britannique.

J’ai accompagné les travaux de la Banque européenne pour la reconstruction et le développement (BERD) à l’époque où Jacques de Larosière était président. Il était proche du président de l’entreprise Central Europe Trust dans laquelle je travaillais. J’ai eu la chance de le côtoyer. Je conduisais des missions de stratégie et de développement qui m’ont amenée partout en Europe centrale et orientale au-delà de l’Oural où j’ai travaillé sur les premiers fonds de capital-risque en Sibérie …. Puis j’ai effectué une mission sur la reconstruction de la Bosnie-Herzégovine. J’ai été une des premières et quasiment une des seules civiles à être allée dans ce pays au tout début de la réconciliation, de l’accord de Dayton. J’étais très jeune. Je suis partie là-bas pour la Banque mondiale et pour la Banque européenne pour la reconstruction et le développement avec 150 kilos de bagages dans un contexte de guerre, en avion pour parachutistes, avec l’Armée française. J’ai atterri à Sarajevo accompagnée d’une équipe composée uniquement de jeunes femmes. Nous sommes arrivées au fameux hôtel Holiday Inn — un des seuls hôtels subsistant sans fenêtre dans les chambres — pour vous dire que c’était un moment très particulier. Il y avait des centaines de gens qui nous attendaient pour pouvoir bénéficier de crédits alors que notre travail consistait à faire un état des lieux des actifs dans l’ensemble du pays. Tout l’enjeu a été, après, de circuler dans les trois zones dans un contexte extrêmement risqué. Pour arriver à sortir du pays, J’ai quasiment été exfiltrée. C’est une histoire que je ne raconte que très rarement qui fera peut-être l’objet d’un prochain livre.

Je suis rentrée en Angleterre et j’ai rédigé mon rapport pour la Banque européenne pour la reconstruction et pour le développement. À l’époque, la politique de la Banque était de mettre en place un dispositif de prêts moyens d’environ 1 million d’euros par investissement. Dans mon rapport mes conclusions étaient à l’opposé : « Le pays est complètement détruit, il faut développer le microcrédit ». C’était en 1995, et le sujet n’était pas d’actualité. On m’a dit : « mais tu n’y penses pas, ce n’est pas du tout ce qui est prévu, on n’a pas de lien là-bas, on n’a pas les maillons intermédiaires qui pourraient nous aider à faire. ». Avec ce séjour, j’avais appris la différence entre un pays en transition – c’est-à-dire qui aspire à plus de liberté, à la démocratie… portée par des intellectuels, des écrivains, des gens qui souhaitaient faire advenir une autre vision du monde comme cela s’est passé dans les pays d’Europe centrale dans les années 1990, et la Bosnie-Herzégovine un pays qui lui sortait de la guerre avec toutes ses atrocités. Ce séjour et les conclusions de nos travaux ont été très difficiles à vivre pour moi petite jeune femme un peu crédule. À partir de ce moment-là je me suis dit que j’allais continuer à être passionnée par ce que je faisais, mais qu’il fallait que je travaille beaucoup plus sur moi, sur ma distanciation, sur ma prise de recul, sur le sens de mes actes et au service de quelle mission je devais mettre mon énergie à l’avenir. Je vous raconte « ce détour » parce que c’est aussi de cette façon que je suis arrivée à la prospective.

Thèse sur la société de l’information, collaboration avec la Rand Europe et post doc chez orange lab

À mon retour en France, j’ai repris ma thèse en 2000, mais j’ai fait le choix de m’inscrire en relations internationales à Paris I Panthéon-Sorbonne car je voulais travailler sur l’Europe et les enjeux de la globalisation. J’ai eu la chance de rencontrer des personnes extraordinaires : Thierry Gaudin, Francis Jutand, Armand Mattelart, également Michel Saloff-Coste qui ont beaucoup compté pour moi. Ma thèse portait sur la société de l’information avec une forte dimension systémique par laquelle je suis arrivée à la prospective.

Ma thèse a porté sur l’étude de la politique européenne en matière de société de l’information avec une comparaison des scénarios d’avenir de l’Europe. J’y analysais le changement de paradigme civilisationnel.

J’ai rejoint en parallèle un cabinet de conseil — je crois qu’il n’existe plus. Un jour un manager est venu me dire : « Tu dois parler anglais, il y a des missions pour la Commission européenne, personne n’en veut parce que ce ne sont pas des business profitables, est-ce que ça t’intéresse ? ». J’ai dit : « Oui, bien sûr. » Dans les années 2000 — c’était l’époque de l’émergence de la politique européenne en matière de société de l’information.

C’est à cette époque que j’ai connu la RAND Europe qui est la filiale européenne de la RAND corporation (grand organisme de recherche très investi sur deux domaines : la sécurité et les politiques publiques, en lien direct avec l’administration américaine). La RAND Europe était basée en Hollande et ses chercheurs étaient très investis dans les projets européens dans le domaine des nouvelles technologies et de la société de l’information. J’ai effectué donc des missions de prospective pour la Commission européenne. J’ai participé à une des plus grandes démarches Delphi — la plupart d’entre vous connaissent cette technique — et j’ai eu la chance de participer à cette démarche Delphi à l’échelle planétaire sur le Global Course of the Information Revolution, en Asie, aux États-Unis, en Europe…

Une fois ma thèse finie, j’ai été invitée à faire mon post-doctorat à Orange R&D. Francis Jutand en était le directeur scientifique avant de partir pour aller ouvrir ce qui allait devenir le premier département sur les TIC au CNRS. Mon post-doctorat ne portait pas sur des questions de prospective à proprement parler, mais je comparais différents scénarios de l’Europe à l’horizon 2020 et je proposais ma propre vision d’avenir.

En 2010 je créé mon entreprise et depuis je consacre mon temps uniquement à la recherche et à la prospective.

À travers les premières étapes de mon parcours, j’ai essayé de vous dire que pour moi la prospective est forcément très nourrie de vision et de stratégie cela me donne une empreinte particulière par rapport à d’autres confrères.

Ma vision de la prospective

La prospective, comment est-ce que je la vois ? Je me retrouve complètement dans la vision de Gaston Berger. C’est somme toute assez classique. J’ai connu Philippe Durance alors qu’il était en thèse d’ailleurs à l’époque. Il allait créer aux Éditions L’Harmattan la collection Recherche et prospective qui est admirable. Nous avons commencé à dialoguer à ce moment-là et c’est lui qui m’a sensibilisé à l’héritage de Gaston Berger. Je me retrouve complètement sur les trois paramètres que donne Gaston Berger : le « voir large », le « voir loin » et le « creuser profond ».

Creuser profond & représentations & pâte humaine

Ce qui m’intéresse, c’est le « creuser profond », c’est-à-dire d’essayer de comprendre ces plaques tectoniques qui évoluent de manière très profonde concernant l’évolution des cultures, des sociétés, qui nous permettent non seulement d’anticiper à beaucoup plus long terme, mais qui aussi nous permettent de comprendre comment les évolutions sont arrivées par le passé.

Cet intérêt pour les évolutions socioculturelles est aussi relié à une belle rencontre aux États-Unis — dans les années 2000, en Californie — avec Brian Hall et je travaille beaucoup à partir de son analyse des systèmes de valeurs.

Ce travail, ce « creuser profond », consiste à comprendre les représentations des personnes, des groupes, des institutions. La représentation, c’est la première étape de la prospective. Se forger une représentation du monde c’est déjà comprendre dans quel paradigme on est ; c’est également comprendre les représentations et les paradigmes des autres. Pour cela il faut un travail énorme.

Souvent, les institutions, les organisations ont du mal à rentrer dans cette étape, car c’est contre-intuitif ce  « creuser profond » de Gaston Berger. On se dit qu’on veut aller loin, vite, que l’on veut anticiper, mais en fait c’est en creusant profond que l’on gagne du temps, car on va pouvoir s’appuyer sur une dimension vraiment tangible : la pâte humaine. Ce n’est pas à vous que je vais dire qu’aujourd’hui, avec les fulgurances existantes en matière technologique ou écologique, que l’on a besoin de cette « pâte humaine », de cette compréhension de l’homme, encore plus parce qu’on est — comme dirait Hartmut Rosa — dans cette « accélération sociale ».

Ce qui me caractérise et qui m’intéresse ce sont les émergences socioculturelles, les signaux faibles, c’est-à-dire les outils de base du prospectiviste : qu’est-ce qui émerge ? Qu’est-ce que l’on peut voir, sentir ? Quels sont les signes qui donnent à voir et qui nous permettent en terme socioculturel de voir des possibilités d’évolution des sociétés ?

Les changements de paradigmes : technologie et écologie

Ma thèse déjà portait sur le changement de paradigme sociétal.

Le changement de paradigme est aujourd’hui au cœur de beaucoup de choses notamment parce qu’on le comprend par notre rapport aux technologies : veut-on investir massivement dans ces technologies ? Préfère-t-on au contraire se distancer et avoir, je ne sais pas, un usage de l’intelligence artificielle faible, mais se dire : « On ne va pas au-delà », etc. ?

L’autre grand changement de paradigme, c’est l’écologie. Très souvent, l’écologie ne rejoint pas le numérique. Pour ma part, je les ai intégrés très tôt. J’ai prolongé après Edgar Morin le concept de l’écologie de l’action, où j’ai repris, mais pas comme il entendait écologie de l’action, sur des futurs, des trajectoires qui peuvent être détournées dans l’histoire ; pour moi c’est plutôt au contraire prendre conscience de son interdépendance avec les humains et la planète, essayer de déconstruire ses préjugés, essayer de s’ouvrir à un cadre beaucoup plus large celui du vivant, à tout ce qu’on connaît, mais aussi à ce qu’on ne connaît pas et agir en conscience avec nos rythmes biologiques, etc.

Pour revenir aux représentations, on voit bien que travailler sa représentation ne signifie pas uniquement travailler la représentation de son business, c’est travailler la représentation du monde, de la planète, de son groupe, de son action, de son collectif et aussi de soi. Le travail que je fais est beaucoup sur cette articulation entre le « je », le « nous », la « planète » et je trouve que l’idée de la planète nous relie à notre dimension de conscience, d’empathie, d’altruisme, et donc en cela c’est écologique.

Enfin, avec le rythme effréné d’accélération, on voit bien comment la connexion, le numérique est en fait complètement lié à la dimension du vivant, de la nature, de l’écologie…

Mes actions concrètes en matière de prospective

Les missions que je conduis se font au fil de l’eau. Je ne démarche pas. On vient à moi parce que ce qui intéresse les personnes, c’est de travailler sur leur vision prospective, sur ce changement de représentation, de posture en embarquant les acteurs, les collaborateurs. Ces missions sont toujours décidées au plus haut niveau de l’organisation même si les démarches bottom-up sont essentielles, car on a besoin des deux. Mais aujourd’hui, la décision de changer de braquet, de se transformer, de travailler la vision d’avenir à 20-30-50 ans vient toujours par le haut.

J’ai envie de vous parler de trois exemples.

– le travail de prospective dans le cadre de la Fondation Télécom

– pour les grandes organisations : visions du monde et système de valeurs

– prospective et innovation publique pour le département des Hauts-de-Seine :

Le travail de prospective dans le cadre de la Fondation Télécom et le questionnement prospectif

Ce travail porte sur les transformations numériques des organisations à l’horizon d’une dizaine d’années. Il a été financé par la Fondation Telecom et réalisé dans le cadre du think tank « Futur numérique » créé par Francis Jutand en partenariat avec Accenture, Orange, BNP PARIBAS, SFR, Alcatel-Lucent, etc. On a été rejoints par Google sur les enjeux de données personnelles. Tous ces travaux ont été rendus possibles en créant un cadre de confiance permis par la prospective.

La première année, en 2010, on a travaillé sur les nouvelles formes d’organisation à l’ère des réseaux, en se posant la question : « Est-ce que finalement le réseau social d’entreprise va anéantir la hiérarchie d’ici à 10 ans ? » L’année d’après, on a travaillé sur l’innovation ouverte pour savoir comment elle allait réinventer ou non les organisations. On a aussi travaillé sur les données personnelles, les générations, le leadership et les nouvelles expressions de pouvoir, plus récemment sur l’efficacité collective, etc.

On proposait donc un sujet chaque année et ce qui était original c’est que l’on partait des problématiques des entreprises. Je faisais un tour d’horizon pour voir quels étaient leurs problématiques et leurs questionnements ? À partir de là, on concoctait un programme et on mobilisait des chercheurs pour éclairer les problématiques, à commencer par les chercheurs de la maison de l’Institut Mines-Télécom — mais pas uniquement.

Ce travail est caractérisé par un dispositif en trois éléments.

– Décloisonnement entre acteurs qui acceptent de travailler ensemble, car nous sommes arrivés à créer un cadre de confiance, la prospective permettant cela. Si on regarde le camembert sur le très court terme, on se dit : « On est tous concurrents… », mais si on regarde le monde à venir, à 10-15 ans, on est beaucoup moins centré sur ses propres enjeux de court terme et on a intérêt à coopérer et à partager ses différentes visions du monde à venir.

– Décloisonnement aussi avec les chercheurs. On invite des chercheurs à contribuer aux travaux avec les opérationnels  venus de tous les univers, de l’innovation, du marketing, du business, du juridique, de la R&D etc.

– Questionnement prospectif avec génération du maximum de questions dans un temps record sur une problématique. Cela est très facile à faire et c’est très riche. Maintenant, j’utilise ce questionnement prospectif, quel que soit l’environnement. En générant le maximum de questions, on arrive à faire que chacun s’exprime sur sa représentation du monde, du sujet et on voit les points convergents et divergents.

Souvent, il y a surtout des convergences. À partir de ce matériel, il s’agit en fait d’arriver à voir ce qu’il y a comme « trous dans la raquette » et quelles sont véritablement les questions qui nous manquent. Là je m’inscris complètement dans la philosophie de Gaston Berger pour qui : « Imaginer le monde de demain n’est pas forcément avoir les solutions. ». On sait bien qu’on n’aura pas les solutions qui vont exister dans 10-15 ans, mais c’est déjà arriver à se poser les bonnes questions.

L’ensemble de ce travail est ensuite réuni dans un cahier de prospective avec les contributeurs aux ateliers qui mêlent toujours cette idée de décloisonnement avec à la fois des contributions des chercheurs, des opérationnels en étant allé les chercher dans leur questionnement prospectif.

Pour les grandes organisations : visions du monde et système de valeurs

Un deuxième type de mission, très différente, dans le cadre d’une organisation, généralement une grande entreprise ou une institution publique. Je ne vais pas parler des missions en particulier spécifiquement — mais vous exposer comment, en faisant travailler la représentation des personnes, je leur fais écrire leur vision du monde. En premier lieu il s’agit d’arriver à convaincre, surtout dans le cas des entreprises, de ne pas entrer tout de suite dans la vision business, car vous le savez, l’incertitude et les points d’inflexion vont venir dans la plupart des cas de la vision du monde. En effet, sur la vision business, il n’y a pas grand-chose à discuter. La vision du monde, c’est là où on peut exprimer la singularité des uns et des autres, la diversité. C’est une approche que j’emploie souvent au niveau international  pour exprimer les diversités culturelles sur « comment le monde à 20-30 ans, etc. se dessine ».

À partir de ces productions de visions, je fais une analyse en termes de systèmes de valeurs. Concrètement, à partir des histoires qui ont été générées, je repère les systèmes de valeurs par une approche systémique et je fais un retour sur le paradigme dans lequel le collectif, l’organisation se trouve. Je vais révéler des paradigmes modernes ou technologiques, des paradigmes très éthiques, très écologiques. Ce qui est aussi très intéressant à travers ces systèmes de valeurs c’est de voir, bien sûr, les convergences, par exemple dans une organisation, un secteur, tous convergent sur le fait que le monde va s’écrouler quels que soient les sujets, les types de business et après une remontée, et aussi bien sûr les « trous dans la raquette ».

Ce qui est intéressant aussi c’est de voir l’énergie qu’il y a derrière ces représentations du monde, et ce qui fait la singularité de l’organisation. Ce qui compte c’est que l’organisation soit cohérente par rapport à sa vision du monde. Si elle est dans une vision du monde complètement béni-oui-oui et que, par ailleurs, elle n’est pas du tout comme ça dans ses pratiques business de tous les jours, forcément il y a un problème.

À partir de ces inputs, les acteurs sont ensuite d’accord pour construire une vision collective et surtout pour la mettre en place.

Je pense que ce travail sur les visions du monde à venir et le business est extrêmement riche. Il était souvent considéré comme un détour jusqu’alors, il l’est de moins en moins à présent. Les organisations se rendent compte à quel point elles ont intérêt à faire ce « détour » en créant leur avenir. Anticiper l’avenir, c’est déjà le faire advenir opérationnellement.

Prospective RH

Je mène également d’autres missions comme, par exemple, des missions de prospective RH… où on est plus sur la question — non pas celles relatives aux métiers — il ne s’agit pas de déterminer comment les métiers se pratiqueront dans le temps à 30-40 ans  – mais d’identifier comment les disruptions peuvent impacter les activités et comment ces dernières vont pouvoir s’appuyer sur des compétences et des capabilités et quelles sont les compétences dont les organisations auront besoin.

Ce sont des méthodes assez classiques de backcasting : on travaille sur des visions d’avenir et ensuite on se met d’accord sur des positionnements stratégiques et après, en backcasting,  on répond à la question : comment on fait en termes de stratégie, quel est l’impact RH en termes de compétences, formation, recrutement, etc.

Pour le département des hauts de seine : prospective et innovation publique

Le troisième type d’exemple de mission est très différent des deux précédents.

En 2011, la directrice de cabinet de Patrick Devedjian, président du département des Hauts-de-Seine, connaissait bien mon travail et m’a demandé de réfléchir à ce que pourrait devenir la maison Albert-Kahn située derrière le musée du même nom à Boulogne-Billancourt.

Albert Kahn

J’ai fait une recherche documentaire sur la vie d’Albert Kahn. Pour ceux qui ne le connaissent pas : il a vécu à la fin du 19e — début du 20e siècle. Il est mort très peu de temps après la crise de 1920. Issu d’un milieu assez modeste alsacien juif, il a fait une fortune considérable à l’équivalent de celle des Rothschild. Cette personne était assez énigmatique. Il a toujours vécu seul dans un hôtel particulier ; il ne mangeait que végétarien. Il a eu comme précepteur Henri Bergson. Des ambassadeurs japonais venaient régulièrement lui rendre visite. J’ai découvert un homme passionné de culture, d’altérité.

En lisant les archives, je me suis rendue compte qu’Albert Kahn n’était pas quelqu’un qui a écrit, qui a pris la parole… Il finançait des bourses des premières femmes étudiantes — il savait que c’était une manière de créer la paix, d’enrayer la guerre. Il a financé des expéditions photographiques dans le monde entier, les « archives de la planète », ces fameux autochromes — c’est la collection du musée — avec ce sentiment qu’il fallait photographier le monde, les cultures, les traditions… qui, peut-être, allaient disparaître.

Mais Albert Kahn ce n’est pas que cela, c’était aussi des rencontres du « comité national d’études sociales et politiques » où il rassemblait des cercles de décideurs qui venaient de l’univers du politique, de l’économique, de la recherche sur des sujets d’avant-garde. Ainsi, à l’époque dans les années 1920, ils réfléchissaient par exemple au statut des femmes, à leur place dans la société, aux moyens de contraception, à l’éducation.

Les entretiens Albert Kahn rétrospectifs-prospectifs

Ce Comité m’a inspiré. C’est ainsi qu’est née l’idée des Entretiens Albert-Kahn qui ne sont pas uniquement des rencontres où l’on parle du passé, mais surtout de prospective, c’est-à-dire que l’on discute de l’avenir du territoire avec cette idée de décloisonner les acteurs et d’articuler le local avec le global (penser large).

Le président Patrick Devedjian souhaitait ce décloisonnement. II m’a dit : « Il faut faire venir tous les élus, quels que soient les partis. Il faut non seulement que les élus viennent, mais aussi que les administratifs et les partenaires du département. Il faut que les gens se parlent en dehors du quotidien. » Au début, tout le monde m’a dit : « Tu n’y arriveras jamais, c’est impossible, comment veux-tu aller réfléchir à l’avenir comme cela… ». Cela s’est fait. Les Entretiens Albert-Kahn ont été lancés en octobre 2012. Aujourd’hui en 2016, nous avons tenu 25 entretiens. Nous abordons des sujets très divers de prospective comme, par exemple, l’open data, l’attractivité des villes de demain, le bien-être territorial, le rôle de la culture, l’innovation numérique, les biens communs, etc. Chaque entretien fait l’objet d’un petit cahier. Ces cahiers sont en accès libre. C’est important. Pour les élus et l’administration, c’est un véritable terreau de formation. C’est un vecteur pédagogique et de préparation des questions d’avenir. Ce sont souvent des sujets qui nourrissent en amont les politiques publiques et peuvent faire l’objet d’expérimentation.

L’innovation publique expérimentale

Nous sommes le premier département à avoir créé un laboratoire d’innovation publique. Son deuxième axe, à côté des entretiens, c’est la dimension d’innovation expérimentale. Aujourd’hui les laboratoires d’innovation publique sont nombreux : à Pôle Emploi, dans les régions, avec le secrétariat général pour la modernisation de l’action publique (SGMAP) qui anime le réseau d’innovation publique à l’échelle nationale. À l’époque, nous avons fait partie des précurseurs sur cette question. Je m’en tiendrai à deux exemples.

Les jardins sur les toits. On a travaillé aussi sur les jardins sur les toits pour voir comment on pouvait développer une politique qui favorise leur développement. On s’est dit : « on va commencer par nos toits — on ne va pas faire comme à Paris qui a choisi l’empowerment des citoyens, c’est-à-dire la végétalisation des toits des citoyens. » On a préféré commencer par nous-mêmes et essayer déjà de valoriser les toits des bâtiments du département. » En fait, nous n’avons pas réussi, car après une étude sur des centaines de toits, on s’est rendu compte que soit ils n’étaient pas assez solides, soit ils n’étaient pas assez accessibles, ou encore il n’était pas à la bonne échelle. Résultat : pour renforcer l’étanchéité, cela allait coûter trop d’argent. En conclusion, il a été décidé que pour développer les jardins sur les toits il faut des toits neufs, des nouveaux bâtis ». Cela a été un échec — on se trompe aussi dans les innovations expérimentales, mais aussi un succès parce depuis on développe les jardins partagés, thérapeutiques ou pédagogiques, par exemple, mais pas sur les toits des bureaux de l’administration départementale !

Pôle social et économie collaborative. Un second exemple d’expérimentation qui nous a valu de nombreuses félicitations, c’est un travail mené dans le cadre du pôle social. 50 à 60 % du budget d’un département est consacré à l’action sociale : le RSA, les autres aides sociales, au logement… La dimension sociale est vraiment au cœur de la vocation d’un département. Avec l’administration en particulier avec le pôle social et le pôle attractivité économique, on a lancé une expérimentation, il y a un an, sur le renouveau des pratiques d’accompagnement social. On a complètement revu la manière dont on recevait les personnes qui viennent pour des aides sociales, à partir d’un questionnaire sur les valeurs et leurs besoins. Nous avons défini ce questionnaire en l’axant dans un premier temps sur des questions sur le rapport au monde. D’entrée de jeu, on leur posait des questions telles que : quelle était leur représentation du monde ? Quelles étaient les valeurs importantes pour eux, Quels étaient leurs besoins… Dans une deuxième partie, le questionnaire comportait des questions sur leurs modes de vie pour identifier comment la personne interrogée pouvait d’autres ressources que celles financières, à commencer par l’économie collaborative ou de partage. On a suivi des personnes pendant 6 mois, puis on a fait une remontée bottom-up de toutes les innovations sociales en matière d’économie collaborative appliquées au social, c’est-à-dire des innovations vraiment utiles pour le travailleur social et pour la personne qui était concernée. L’expérimentation est en train d’être déployée dans le département, les travailleurs sociaux volontaires vont être formés à cette technique d’empowerment. Le guide des initiatives collaboratives au service du travail social va être transformé en plateforme numérique collaborative.

Ce dont je me rends compte c’est que l’innovation expérimentale est une réussite lorsque les gens se l’approprient tout de suite. En fait, ils le font, ils rentrent dedans, etc. Nous en sommes à la phase de déploiement… ce n’est pas seulement une centaine de travailleurs sociaux qu’il faut impliquer, c’est aussi une manière de travailler différemment. Le Département est en train de revoir les lieux pour mieux accueillir les personnes, en faire des sortes de tiers-lieux beaucoup plus ouverts, décloisonnés, reliés à d’autres services sociaux tels que ceux de l’Enfance, de la Famille, espaces de coworking

Café de la prospective du 16 novembre 2016 – Thierry Gaudin

Café de la prospective du 16 novembre 2016 – Thierry Gaudin

Présentation de la réunion et de l’intervenant par Marc Mousli 

Ce soir nous avons l’immense plaisir d’accueillir Thierry Gaudin, un grand nom de la prospective, le président fondateur de Prospective 2100, expert international en politique d’innovation et en prospective, qui a notamment dirigé le travail collectif 2100, Récit du prochain siècle en 1990, et un fidèle du café de la prospective.

Je vais laisser Thierry Gaudin se présenter et nous parler de son parcours, de sa réflexion, de ses travaux passés et actuels, et de ses méthodes.

Intervention de Thierry Gaudin :

Les années 60, prémices d’une approche prospective

Je vais remonter loin dans le passé lorsque j’étais affecté comme ingénieur à ce qui est maintenant la DRIRE (Direction Régionale de l’Industrie de la Recherche et de l’Environnement) Nord Pas-de-Calais pendant les années 60. Vers la fin des années 60 se sont passés deux événements qui, d’une certaine manière, ont été mes premiers contacts avec la prospective.

L’élaboration du Livre blanc de la région Nord–Pas-de-Calais, ou le succès d’un dispositif participatif « neutre »

Le premier événement est l’élaboration du Livre blanc de la région Nord–Pas-de-Calais par une organisation — qui n’existe plus — qui s’appelait l’OREAM (l’Office régional d’aménagement), une émanation de la DATAR (Délégation à l’aménagement du territoire et à l’aménagement régional).

Nous avions organisé une sorte de jeu : il y avait une carte de la région et nous demandions aux joueurs d’y placer des zones d’habitation (carrés jaunes), des zones industrielles (carrés violets) et des zones vertes (carrés verts). Il y avait les fonctionnaires de rang N-1 et N-2 des deux départements. Le problème était que ces deux départements se regardaient en chiens de faïence. En effet, le Pas-de-Calais réclamait des financements suite à la fermeture des houillères. Et le Nord faisait aussi face à des difficultés : d’une part, l’industrie textile n’allait pas très bien, et d’autre part, ils avaient envie de se rapprocher de la Belgique, ce qui supposait là aussi des financements.

Donc, les fonctionnaires des deux départements se voyaient très peu, et n’avaient pas l’habitude de travailler ensemble, et ils se sont retrouvés pendant deux jours à « jouer ». Comme il n’y avait pas tellement d’enjeu de pouvoir entre eux puisqu’ils étaient sur le même niveau, ils sont donc finalement tombés d’accord.

Ils ont donc dit : « Ceux du Nord, vous voulez aller vers la Belgique, ceux du Pas-de-Calais vers Arras et Paris », il est plus intelligent de meubler ce qui était entre les deux : d’où les zones industrielles de Seclin et de Douvrin, qui sont nées de cet exercice, ainsi que le tracé de l’autoroute qui reprend Calais-Bâle, la ville nouvelle de Lille-est (Villeneuve d’Ascq) et le parc naturel de Saint-Amand-Les-Eaux.

Je suis revenu 30 ans après sur le site et qu’est-ce que j’ai vu ? Le dessin de ce « livre blanc » de la région Nord–Pas-de-Calais, a été réalisé sur le terrain. Ce travail, qui avait été fait avec des fonctionnaires de rang moyen, qui ne se connaissaient pas, qui n’ont eu qu’un jour et demi pour se connaître, a porté ses fruits ! Sans doute parce qu’ils étaient entre « collègues », et s’étaient mis à parler non pas en tant qu’institution, mais avec leur cœur. Cela m’a beaucoup marqué.

La régionalisation : une idée née d’un collaboratif national… de chargés de mission

Le second événement se déroule à la fin des années 60 : le préfet de région — un homme affable, ancien professeur de lettres — m’avait demandé de suivre les affaires de l’industrie et de la recherche. Mai 68 est arrivé, la région du Nord–Pas-de-Calais était un peu plus tranquille que le reste de la France parce que c’était à côté de la Belgique, il n’y avait pas de problème d’approvisionnement en essence, donc les blocages des raffineries n’étaient pas à craindre. Mais il y avait quand même des manifestations et le Préfet passait une bonne partie de son temps à négocier des cars de CRS avec ses collègues. Il réunissait régulièrement les quatre ou cinq « jeunes » de la mission régionale : un ingénieur de génie rural et des eaux et forêts, un inspecteur du travail, un ingénieur des télécoms un sous préfet et moi. Un jour, le lundi matin, il demanda : « A votre avis pourquoi les Français se comportent-ils ainsi ? » Je lui ai répondu : « Nous ne pouvons pas répondre comme ça, donnez-nous quelques jours. »

Nous sommes rentrés dans nos bureaux, nous avons téléphoné à nos collègues chargés de mission des autres régions de France. Nous nous sommes réunis pendant une journée au sud de Paris, à Nainville-Les-Roches et nous avons discuté entre nous sur la question du préfet. Nous avons fait une note qui disait en substance : « Ce n’est pas étonnant que les gens se comportent de façon irresponsable, ils n’ont pas de responsabilités, ce qu’il faut faire, c’est leur en donner, autrement dit la régionalisation ».

Puis, comme vous le savez, le général de Gaulle a mis la régionalisation dans son référendum, mais malheureusement pour lui, il a rajouté la suppression du Sénat. Il s’est donc mis à dos tous les notables régionaux qui n’avaient qu’une envie, celle de devenir sénateur, parce que c’est un poste particulièrement agréable et confortable. Il a finalement fallu attendre la loi Defferre, 12 ans après, pour que la régionalisation se fasse.

Aujourd’hui, la France, dont le découpage régional a été redessiné sous la présidence de F. Hollande, va davantage ressembler à l’Allemagne. C’est peut-être un pas vers l’Europe des régions

Les prémices d’une démarche de prospective

Dans les deux cas évoqués, c’étaient des fonctionnaires de rang très moyen qui discutaient entre eux, sans enjeu et sans être des représentants d’une hiérarchie ou d’une institution. Ils laissaient donc parler leur conscience ; or il est très difficile de faire des opérations au cours desquelles les gens laissent vraiment parler leur conscience. Il y a toujours des enjeux. Et là, du point de vue méthodologie de la prospective, c’est essentiel. C’est pour cela que je voulais commencer par vous raconter ces deux événements qui se sont produits à quelques mois d’intervalle.

Les années 70 : construire une politique d’innovation, l’occasion de créer un réseau d’échanges et de réflexion, et de déployer la diffusion des connaissances

Pendant les années 70, j’étais en charge, au ministère de l’Industrie, de construire une politique d’innovation. Au départ, nous ne savions pas ce que c’était. Nous savions simplement qu’il y avait aux Etats-Unis le rapport Charpie, rédigé en 1967 à la demande de Herbert Hollomon, à l’époque secrétaire d’État au commerce. Ce rapport reprenait l’idéologie du small business à l’américaine et ne disait pas grand-chose sur les aspects pratiques qu’il faut implémenter dans les administrations pour avoir une vraie politique d’innovation[1]. Nous avons passé quelques mois à regarder comment ça se passait, puis nous avons commencé à avoir une interprétation qui n’est pas tout à fait celle qui a fonctionné par la suite.

Le rôle de la commande publique dans l’acquisition de technologies et de savoir-faire

Je me souviens particulièrement d’une visite — nous sommes évidemment allés à Boston voir la route 128, il n’y avait pas encore la Silicon Valley — d’une entreprise qui s’appelait Itech. Le fondateur de cette dernière nous a raconté son histoire :

« Un jour, je reçois un appel du ministère de la Défense, c’était un de mes camarades de promotion du MIT qui me dit : John nous avons besoin d’un appareil à infrarouge pour voir le Vietcong à travers les feuilles des arbres, tu es le seul à pouvoir faire ce genre d’appareil, dis-moi combien cela coûte et nous te passons contrat. Je raccroche. Au bout du 4e appel, je vais le voir avec une proposition que je considère comme quasiment impossible à financer. À ma grande surprise, il signe le chèque tout de suite. La première fois que j’ai dû retourner pour lui dire que c’était trois fois plus, j’avais honte, la troisième fois, j’avais pris l’habitude. Or, une fois que le matériel de thermographie était fabriqué, vendu, répandu dans les armées, ils ont arrêté les commandes ; je me suis donc demandé ce qu’il fallait faire, et c’est comme ça que nous sommes devenus leader en thermographie médicale, pour détecter le cancer du sein et autres problèmes de dysfonctionnement, mais aussi dans d’autres registres de la thermographie, per exemple pour détecter les pertes thermiques des bâtiments »

Nous sommes donc revenus avec l’idée que les commandes publiques jouaient un rôle crucial dans l’acquisition de technologies et de savoir-faire.

D’une réflexion philosophique vers la création d’un réseau de délégués aux relations industrielles

À  partir de ce moment-là, nous avons commencé à nous intéresser de très près à la question de la technique. Certains d’entre nous avaient une formation philosophique, donc nous avions lu le texte de Heidegger, qui disait : « L’essence de la technique est l’être lui-même. » Or les philosophes français, Sartre en premier, méprisaient complètement la question de la technique. Le philosophe allemand amenait un nouvel éclairage. Il donnait un enseignement philosophique aux ingénieurs, notamment en leur disant : « Au lieu de laisser le Rhin couler dans son lit nous allons mettre des barrages en béton et nous allons contraindre la nature par la technique. », son idée de Gestell, la construction dans la rigidité, c’est cette idée de contrainte sur la nature.

Cette réflexion sur la technique nous a amenés à une réflexion sur le langage, et l’importance de la communication. Comme vous le savez, pour se débrouiller dans la rue quand vous allez dans un pays étranger, le vocabulaire dont on a besoin représente 600 mots. Un grand auteur tel que Balzac parlera avec 4000 à 6000 mots, un dictionnaire complet d’une langue, c’est 60 000 mots. Or, quelques inventaires connus en technologie représentent 6 millions de références : 100 fois le vocabulaire d’un homme normal, 1000 fois le vocabulaire d’un homme cultivé… d’où le problème suivant : comment fait-on communiquer entre eux les différents éléments de la technique ?

Tout devenait question de communication, de lien, de transfert de connaissances : alors nous qui avions, en théorie, la responsabilité de faire une politique d’innovation, une des premières choses que nous avons faites a été de créer les « délégués aux relations industrielles ».

C’est-à-dire des gens payés par des associations dans les régions, des associations université-industrie. Leur métier était d’aller visiter les industriels, les laboratoires et de mettre ensemble les gens qui avaient des choses à se dire. Ainsi, nous connections des « éléments de vocabulaire »… et ça a fonctionné. En 6 ans de fonctionnement, ils ont sorti environ 2000 dossiers d’innovation qui, ensuite, ont été financés par ce qui est devenu l’ANVAR (Agence nationale de valorisation de la recherche, devenue depuis OSEO puis intégrée dans la BPI).

Ces délégués aux relations industrielles étaient rattachés aux associations, nous avons passé un contrat avec les associations. La seule obligation de ce contrat était d’embaucher un délégué aux relations industrielles et la seule obligation de ce dernier était de participer aux réunions de coordination que nous animions à Paris.

Donc, vous voyez comment les choses ont commencé à s’organiser à partir de ces expériences. D’une part, les dialogues à égalité entre des gens qui ne se connaissaient pas forcément, mais qui avaient, d’une certaine manière, des choses à se dire, en évitant la pollution soit par des hiérarchies, soit par des formalités — ça c’est très important — et ensuite le fait que justement on pouvait, de façon volontaire, animer ces contacts.

Appropriation et apprentissage : vers une diffusion des connaissances

Nous avions donc des gens à identité variable selon les régions de France. Au début, ils étaient un peu perdus ; ils ne savaient pas comment se présenter, quoi dire à leurs interlocuteurs Dans le réunions, ils faisaient part de leur incertitude. Alors un autre délégué se levait et disait : « Moi, je fais comme ça et ça a marché dans telle ou telle condition. » Donc, petit à petit, ils ont appris leur métier par échange d’expériences avec leurs collègues. Je ne jouais pas le rôle de leur apprendre ce qu’ils avaient à faire, je n’étais pas en position de savoir quelles étaient les difficultés auxquelles ils étaient confrontés. Évidemment, j’utilisais à ce moment-là les techniques d’animation de groupe, de fonctionnement non directif qui étaient d’ailleurs très à la mode à la fin des années 60 et au début des années 70. C’est un métier que nous avons un peu perdu aujourd’hui, mais qui a quand même bien fonctionné.

Je faisais cette introduction pour montrer à quel point la question de la technique a été présente dès le début non seulement dans ses relations de créativité, mais dans la manière dont la technique transformait la société. C’est pour cela que vers 1973-1974, nous avons fondé un atelier ethno technologie, c’est-à-dire l’étude des relations technique-société. Ce qui a donné lieu à la constitution du Centre de recherche sur la culture technique, lequel a publié une revue, Culture technique, dont 30 exemplaires sont aujourd’hui, en libre téléchargement sur internet. Si vous tapez « culture technique », vous trouvez tous les volumes mis en ligne par le CNRS.

Ce mouvement s’est peu à peu amplifié et est arrivé – en partie d’ailleurs par Jocelyn de Noblet, rédacteur en chef de cette revue – la référence en matière de design. Jocelyn de Noblet avait écrit le premier livre français important sur le design, une discipline à l’époque très négligée, même s’il y avait un Conseil supérieur de l’esthétique industrielle dirigé par un conseiller maître à la Cour des comptes (Mr Raison) tout à fait affable. Comme nous avions quelques moyens au ministère de l’Industrie, nous sommes allés plus loin. Nous avons commencé à faire un appel d’offres pour enseigner le design, l’université de Compiègne a été la première à répondre pour monter des cycles d’enseignement du design.

L’école de design : un terreau fertile pour l’innovation technologique de rupture

Puis, au début des années 80, la gauche est arrivée au pouvoir et un jour le directeur du cabinet de Jack Lang m’a téléphoné et m’a dit : « ça y est ! Nous avons l’argent ! As-tu l’idée d’un directeur pour la grande école de design qu’on veut fonder ? » J’ai répondu : « Oui. » car j’avais eu une expérience dans les années 70. En effet, il y avait une école — qui aujourd’hui s’appelle l’ESIEE, mais qui, à l’époque, était l’école Breguet — dirigée par un certain Jean-Louis Monzat de Saint-Julien, lequel avait une expérience de médecin et de conseil en créativité.

J’étais allé la visiter parce que j’essayais de connaître les endroits où on faisait de la technique. À la fin de la visite, Jean-Louis m’a dit : « Je suis bien embêté, car les industriels Thomson ou les autres nous passent des contrats pour les étudiants de dernière année — la dernière année, les élèves passaient 1200 heures de travail pour réaliser un projet — donc nous n’avons pas de problème pour avoir des contrats industriels ; mais ce sont les élèves qui ne sont pas intéressés. »

Je lui ai dit : « Écoutez, je vais me substituer à l’industriel en vous passant un contrat, mais le projet sera choisi par les élèves. »

Nous avons donc conclu un contrat et au bout de six mois, en 1977, le projet était réalisé. C’était un combiné éolienne-solaire à installer chez un berger des Pyrénées. Trois élèves l’ont fait et quand nous avons installé le combiné, toute la promotion était présente. Là, j’ai commencé à comprendre que quelque chose allait changer avec le changement de génération.

Aujourd’hui, c’est le film Demain[2] qui donne cette tonalité. Mais quand nous avions fait un salon de l’innovation, en 1974, Reiser, le dessinateur, nous avait déjà fait des illustrations sur l’énergie solaire, on voyait très clairement que les générations qui étaient encore en scolarité avaient vraiment d’autres désirs en tête que ce que faisaient alors les industriels. Car à l’époque nous étions dans le Gestell d’Heidegger (la contrainte sur la nature) et cette envie d’en sortir, c’est à dire entrer en synergie avec la nature par la technique. Aujourd’hui, on le sait, c’est admis, c’est même reconnu politiquement, à l’époque c’était complètement marginal.

En ce qui concerne Jean Louis Monzat, le ministère de la culture lui a effectivement demandé de créer cette école, mais, au bout de quelques mois, il s’est avéré qu’il n’était pas l’homme de la situation. J’ai alors dit à Anne Marie Boutin, qui avait été directeur des études de l’ENA : « avec tous tes anciens élèves dans les cabinets ministériels, tu es la seule qui puisse sauver ce projet ». C’est ce qu’elle a fait. Les enseignements du design se sont multipliés, et aujourd’hui encore, trente cinq ans après, elle continue à militer pour le design comme présidente de l’APCI (Association pour la promotion de la création industrielle).

Les années 80 : « 2100, récit du prochain siècle », une démarche de prospective séculaire

De la veille technologique à un ouvrage majeur de prospective

Lorsque la gauche est arrivée au pouvoir en 1981,  je me suis retrouvé avec comme ministre Jean-Pierre Chevènement. Il savait qu’il y avait d’un côté la DGRST, de l’autre côté la Délégation à la technologie et qu’elles étaient en rivalité. Il a dit : « Je veux les deux dans mon ministère. » Nous nous sommes donc retrouvés avec lui. Je l’ai un peu aidé à organiser son ministère, et Louis Gallois qui était son directeur de cabinet m’a dit : « Ce qui serait bien ce serait que tu fasses un centre de prospective et d’évaluation. » J’ai répondu qu’il y en aurait quand même pour 30 millions de Francs, j’ai obtenu environ 11 ou 12 millions.

Comme il y avait eu un centre de prospective et d’évaluation aux armées, Chevènement avait dans l’idée de faire la même chose dans son ministère ; du fait qu’on allait complètement réorganiser le système industriel et financier, nous allions avoir besoin d’une vigie pour dire ce qu’il fallait faire sur le long terme, pensait-il J’avais quand même une expérience suffisante de l’administration, je me suis dit : « Le ministre en place est intéressé, mais la durée de vie d’un ministre c’est 18 mois et pour faire quelque chose de sérieux dans ce métier-là, il faut au moins 5 ans. Il faut donc se faire une clientèle extérieure capable de défendre l’existence de cette activité le jour où le ministre suivant — qui risquerait de s’en moquer et ce fut le cas, puisque Fabius s’en fichait — sera nommé. »

Nous avons donc fait de la veille technologique. Nous avons ramassé les copies de tous les conseillers scientifiques dans les ambassades, ils étaient même contents de se lire mutuellement parce qu’on publiait sous forme d’un cahier diffusé dans l’industrie, mais qui allait aussi aux auteurs et pour eux c’était une valorisation d’être publié dans le cahier de notre CPE (Centre de prospective et d’évaluation). Pendant une dizaine d’années, nous avons fait fonctionner ce système de veille technologique, piloté par un biologiste prof à Orsay, Marcel Bayen.

Nous avons eu quelques petits problèmes au moment de l’alternance. Puis, lorsque Hubert Curien est revenu comme ministre en 1988, je suis allé le voir, je lui ai dit : « J’ai deux possibilités, la première c’est qu’en France c’est vraiment le désordre dans la recherche technique : vous avez les centres techniques, les écoles d’ingénieurs, le CEA, les grands organismes… Il faudrait faire un audit et remettre de l’ordre dans tout cela. La deuxième possibilité c’est que maintenant, avec toute la veille technologique que nous avons engrangée et l’expérience de la politique d’innovation, nous en savons assez pour vous faire un rapport de prospective mondiale. »
Il m’a regardé, a penché la tête de côté et a dit : « Vous ne pensez pas que la recherche technique c’est un peu compliquée ?  (sous-entendu :  je n’ai pas envie d’avoir d’ennuis avec mes copains). » Il était vraiment du milieu de la recherche jusqu’au bout des ongles. C’était d’ailleurs un excellent ministre de la Recherche parce qu’il connaissait bien le sujet, je n’en dirais pas autant de tous les ministres qui sont passés à ce poste. Donc, à ce moment-là, on a dit « Oui, on va le faire ce rapport. »

Nous étions tous d’accord dans notre équipe, sauf un : Michel Godet, qui avait des ambitions de consultant. Il avait démarré chez nous une collection CPE chez Economica où il y avait déjà une dizaine de livres, dont mon premier ouvrage de prospective, Les métamorphoses du futur, dans lequel les bases de 2100 était déjà explicitées. J’ai alors parlé à Raymond Saint Paul, qui dirigeait le CNAM, et nous sommes tombés d’accord pour faciliter la nomination de Godet comme prof au CNAM, ce qu’il a été jusqu’à sa retraite.

L’élaboration de 2100, récit du prochain siècle a pris un an et demi de travail, pendant lequel j’étais heureusement assisté de mon ami Jean François Degrémont, et nous avons publié fin 1990 « 2100, récit du prochain siècle ».

Au départ, je n’ai pas dit à Hubert Curien que c’était une prospective séculaire, et puis le livre est sorti en librairie avant que le ministre et son cabinet l’aient lu. Jérôme Bindé faisait quelque chose de tout à fait voisin à l’UNESCO, qui nous a inspirés. Nous avions déjà énormément d’informations par la veille technologique, nous avons constitué une équipe, nous avons fait des séminaires. Il y a eu 15 séances de séminaires : la partie agronomique, énergétique,… Nous avons même eu un séminaire intéressant sur les religions dans lequel les chercheurs de l’ORSTOM (Office de la recherche scientifique et technique d’outre-mer) sont venus nous parler de la créativité religieuse en Afrique. Nous nous sommes aperçus que dans ce registre-là également, il y avait un mouvement, une créativité tout à fait insoupçonnée ; dans notre pays on entend parler des grandes religions, mais il y a bien d’autres choses à apprendre à travers ce qui se fait dans les autres continents.

Le travail en question, édité par Payot, a été vendu à 55 000 exemplaires (les droits sont allés à une ONG, le GRET). La traduction en anglais n’a jamais été faite ne serait-ce que parce que ça posait des problèmes du point de vue des images, car c’est un texte qui est très illustré, nous avions d’ailleurs utilisé quatre sources différentes d’illustrations. Nous étions deux ou trois, nous nous étions installés dans un sous-sol du ministère de la Recherche, nous avions affiché toutes les illustrations possibles au mur, nous choisissions ce qu’il fallait mettre dans tel ou tel chapitre, nous nous sommes beaucoup amusés. Si vous l’avez regardé, vous verrez qu’il y a un certain nombre de remarques ironiques, de plaisanteries, de caricatures qui montrent qu’on a absolument voulu dire : « C’est un récit, ne nous prenez pas au sérieux ».

Les années 90 et les suivantes : Quand la réalité rattrape le scénario

Malheureusement, quand nous le regardons aujourd’hui on se dit : « Le récit a quelques ressemblances avec ce qui s’est passé, en tous cas jusqu’à maintenant. » En effet, dans ce récit, il y a trois périodes de 40 ans :

  • 1980-2020 les désarrois de la société du spectacle
  • 2020-2060la société d’enseignement
  • 2060-2100 la société de libération (de création)

 Lorsque nous voyons ce qui est en train de se passer dans le cyberespace, nous pouvons nous poser des questions : « Qu’est-ce que c’est que cet enseignement, n’est-ce pas une saturation du mental qui se précise parce que la logique de la production habite aussi cet univers-là ? » Les cerveaux ne sont pas invulnérables. Nous sommes en face de questions extrêmement importantes et graves. Dominique Lacroix pourrait en parler mieux que moi parce qu’elle est davantage versée dans le,cyber espace. Puis peut-être que vers la fin du 21e siècle, nous pourrions passer à la société de création.

En définitive, je crois que près de 600 personnes qui y ont contribué, j’ai rédigé les parties qui sont en couleur, mais il y a eu bien d’autres apports et des apports tout à fait remarquables.

Après ça j’ai voulu écrire à titre personnel quelque chose qui dise : « Enfin, peut-être qu’on pourrait s’expliquer un peu plus sur les programmes possibles et souhaitables du 21ème siècle, sur ce qu’on pourrait faire ? »

J’ai donc écrit « 2100, Odyssée de l’espèce[3] » — en libre téléchargement sur internet — avec une liste d’une douzaine de grands programmes d’aménagement qui devraient contribuer à la résolution des problèmes du 21e siècle. Dans ces programmes d’aménagement, deux ont donné lieu à des colloques importants :

Le premier a été l’organisation du symposium les cités marines[4] à Monaco en 1995, et vous avez vu que le nombre de cités marines s’est quand même beaucoup multiplié depuis. D’ailleurs, ça fait un peu comme ce que j’ai montré par le passé, c’est-à-dire qu’il y avait des gens qui avaient des idées de cités marines un peu partout sur la planète, ils se sont retrouvés là et se sont aperçu qu’ils n’étaient pas les seuls alors qu’au milieu de leurs nations respectives, ils étaient isolés ; ça leur a donc donné du courage et cela a permis de surmonter un certain nombre d’obstacles, de préjugés ; il y a les cités marines flottantes, sur pilotis, différentes formules ont été analysées dans ce colloque.

L’autre a été le symposium Jardin planétaire[5] en 1999 ; alors là, nous avons eu beaucoup de mal — nous avons encore du mal aujourd’hui — parce que tout le monde fonctionne avec l’expression du rapport Bruntland, c’est-à-dire « développement durable ». Pour nous, « développement durable », c’est un oxymore, une contradiction dans les termes. Nous pensons que le véritable projet c’est Jardin planétaire : jardinier a la même étymologie que gardien et en même temps le jardinier est un artiste, sa créativité n’est pas seulement destinée à faire de l’argent, mais aussi à manifester un art de vivre pour que chacun ait son propre jardin. Donc, il y a autre chose que le développement dans ce concept de Jardin planétaire, j’ai eu la joie de voir à Cerisy qu’il y a déjà eu deux rencontres d’une semaine sur le sujet[6], que Gilles Clément avait utilisé ce mot aussi, puis l’École du paysage de Versailles, mais nous n’avons pas encore vaincu l’oxymore du développement durable.

Ces questions sont importantes, car finalement elles sont philosophiques et si les concepts sont en porte-à-faux, c’est toute la société qui en souffre. Nous n’avons pas encore réussi à faire passer l’idée que le véritable projet mondial c’est le Jardin planétaire.

Il y a également eu beaucoup de travail autour du spatial. Nous avons, après-demain, une conférence d’Alain Dupas sur Mars : où en est le projet martien ? Nous étions plutôt partis sur le système habité, localisé à l’un des points de Lagrange (les points de Lagrange font un triangle équilatéral avec la terre et la lune, ce sont des zones relativement stables du point de vue de la gravité). L’idée était de faire une station spatiale abritant un écosystème complet, qui tourne sur lui-même de manière à produire une gravité, par force centrifuge, et dans lequel on puisse avoir des humains, de la végétation, des animaux… Donc un écosystème capable de survivre assez longtemps ; puis peut-être, après avoir stabilisé cela, nous pourrions nous permettre d’aller vers d’autres planètes. Les projets américains sont d’allér vers Mars tout de suite, mais vous avez sans doute vu le film Seul sur Mars, après il y a quand même un certain nombre de problèmes pour en revenir !

Je vais terminer sur un point, car il serait mieux qu’il y ait des questions-réponses. En matière de prospective, j’ai le sentiment — c’est pour cela que je parlais de ce film, Demain — que les films nous disent quelque chose qui est quelquefois en dessous de la ligne de flottaison, mais qui est bigrement important pour comprendre ce qui est en jeu.

Je me souviens que peu de temps — ça doit être 3 ans — avant l’ouverture des pays de l’Est, il y avait un film qui s’appelait La petite Vera, de Vassili Pitchoul. La petite Vera est une adolescente en rupture avec sa famille, cette dernière ayant la mentalité des Komsomols, très disciplinés, la Russie soviétique à l’ancienne. Vera organisait sa vie et ses rendez-vous par téléphone, car à ce moment-là, dans certaines parties de la Russie, on commençait à avoir suffisamment de téléphones pour que les adolescents puissent se donner rendez-vous et se parler entre eux. Et là nous avons pressenti: « Tiens, c’est important ; quels sont les pays dans lesquels le taux d’équipement téléphonique commence à monter jusqu’à permettre l’existence d’une société civile qui va surpasser les contraintes ? » Dans les pays de l’Est, on a vu que c’était la Hongrie la première ; lorsque la Hongrie a atteint le seuil de 10 lignes téléphoniques pour 100 habitants, elle a été effectivement la première à sortir du système soviétique. La Russie est venue après, puis l’Allemagne de l’Est, etc.

Finalement, nous avons conclu: « Cette ouverture est absolument inévitable. » Un jour, alors que j’étais invité à l’Ambassade d’URSS, le premier secrétaire de l’Ambassade m’a dit : « Vous savez l’ouverture des pays de l’Est c’est inévitable. » Je lui ai répondu : « C’est mon avis aussi, mais il y a ce problème du Mur. » Il me répond : « Il ne reste plus qu’à fixer la date. » J’étais scié  d’autant de franchise et de lucidité! Il y a quand même des points de vue prospectifs dans les ambassades et dans les services secrets. D’ailleurs, la prospective américaine avait commencé dans les « services » et elle continue, car périodiquement la CIA publie son rapport de prospective mondiale. Je me suis toujours demandé pourquoi les Européens n’en faisaient pas autant. Apparemment, pour ce qui est de la diffusion dans le grand public,, ils se contentent de ce que raconte la CIA[7], c’est à dire d’une prospective orientée par la philosophie et les intérêts américains.

Puis j’avais vu des films du cinéma iranien, dans la décennie précédant l’arrivée de l’Ayatollah[8]. Il y avait des films terribles : des jeunes qui vendaient leur sang dans les hôpitaux pour faire des transfusions, et à qui on reprochait leur sang de mauvaise qualité, ils étaient dans un état de faiblesse incroyable[9]. Donc, du point de vue sociétal des tensions profondes existaient.

Aujourd’hui, si vous voyez le dernier film de Ken Loach sur ce qui se passe en Angleterre, vous comprenez le vote du Brexit. Il y a effectivement une souffrance dans la population déshéritée que les gouvernements et les systèmes officiels sont aujourd’hui incapables de résoudre parce qu’ils sont piégés dans leur propre logique. Cela se traduira effectivement par des bascules et ça se voit en Angleterre comme aux États-Unis : le Brexit et l’élection de Trump procèdent tous les deux de la souffrance des classes populaires. Donc, comme c’était prévu d’ailleurs dans le livre 100, autour de 2020, il y aurait un basculement vers une autre société.

Ce que nous souhaitons — nous sommes en train de créer une fondation 2100 à cette fin — c’est qu’il y ait des gens qui travaillent pour structurer le système, de manière à ce que cette transition soit aussi juste et avec aussi peu de souffrance que possible (sans doute avec des monnaies complémentaires), ce qui n’est pas encore joué aujourd’hui.

Je vais m’arrêter là, car je préfère répondre à vos questions.

 

Questions-réponses avec les participants

Participant, Jacques de Courson :

Merci Thierry J’ai découvert la prospective en même temps que tu la découvrais et je voudrais simplement rendre hommage au fait que tu étais déjà très savant, mais pas du tout impressionnant. Pour moi, Thierry c’est quelqu’un qui est à la fois modeste et gai et tous les vrais prospectivistes, je les reconnais comme ça.

Je pensais qu’il fallait être très savant, moi je ne l’étais pas ! et puis il fallait être un gourmand fantastique du savoir des autres pour arriver à être un bon prospectiviste. Tu étais un travailleur acharné de la philosophie, de la technologie, du spirituel, de l’intellectuel, de la technique… Tu brassais un univers jusqu’à l’international, tu allais voir des colloques. La chose qui m’a le plus frappé, c’est que tu es à la fois un artiste et un intellectuel, c’est très rare. Tu es passionné de l’art, des films, des images, de la beauté, des univers extraterrestres… La question que je voudrais te poser concerne ce que tu viens de dire à la fin parce que nous sommes en train de faire un film qui parle à des jeunes, des adolescents : « Peut-on penser, imaginer à travers un film ce que serait le futur ? » Mes petits-enfants disent : « Pourquoi t’acharnes-tu à ça ? » Moi, je suis un enfant et j’ai bien l’intention de le rester. Donc, mon avenir ne m’intéresse pas du tout, alors il y a un grand débat là-dessus. Comment montrer cela non pas avec des mots, des calculs, des schémas, des problématiques ou des raisonnements, mais avec des images, car la civilisation qui vient est une civilisation de l’image, de l’écran, de la télévision, du cinéma. Comment faire comprendre dans un film ce qui vient, ce qui pourrait être ? As-tu une idée ?

Thierry Gaudin :

Je crois que si les enfants dont tu parles veulent rester des enfants, ce n’est pas un hasard. C’est un point de départ d’une réflexion. Qu’est-ce que ça veut dire exactement ? C’est là, à mon avis, que porte la recherche. C’est-à-dire que la position de l’enfant qui est d’être protégé prend le pas sur la position de l’enfant en tant que germe du futur. Soit c’est parce qu’ils ne voient pas quelque chose qui ait suffisamment de valeur à leurs yeux pour justifier qu’ils grandissent, soit parce qu’ils sentent un danger grave dont ils ont besoin d’être protégés. Il faut essayer d’obtenir des informations sur la cause et ensuite on peut peut-être essayer de voir comment ça se passe entre eux. C’est la première réponse que je ferai.

Participant :

Vous avez parlé des Jardins planétaires, je ne suis pas un bon jardinier, mais quand il s’agit du planétaire là ça me dépasse largement. Que voulez-vous dire par-là ? De plus, vous parlez d’oxymore en ce qui concerne le développement durable ? Voulez-vous dire que c’est par saccades, par remise en cause qu’un développement est un oxymore ou c’est autre chose ?

Thierry Gaudin:

Le développement tel que nous le concevons, c’est produire plus, consommer davantage. Quand on dit « développement », il faut faire évidemment une analyse sémantique un peu plus précise, puisqu’il y a des gens, notamment Elisabeth Meichelbeck, qui ont interprété le développement comme le désenveloppement d’un germe de vie.

C’est une interprétation valable, mais si vous regardez la littérature journalistique, financière ou autre, le développement c’est du « toujours plus ». Donc l’idée d’un équilibre avec la nature, c’est aussi l’idée de passer du temps à soigner la nature, c’est une composante créative, artistique, c’est une composante de symbiose avec les plantes, avec les animaux… C’est quelque chose que tout le monde sent instinctivement, mais dans lequel l’argent ne circule pas forcément, il n’y a pas nécessairement du développement au sens des économistes.

En revanche, il y a quelque chose qui se développe en tant que faculté artistique ou faculté de relation avec les autres êtres vivants.

Nous venons d’organiser un colloque d’une semaine à Cerisy (avec Jean Charles Pomerol, Marie Christine Maurel et Dominique Lacroix) sur Sciences de la vie, sciences de l’information (septembre 2016), dans lequel nous avons constaté justement à quel point l’intrication de la vie et de l’information est d’abord réelle et ensuite problématique. Nous connaissons encore très peu de choses sur les origines de la vie, sur la façon dont cela fonctionne. Comme c’est le grand mystère du 21e siècle, c’est à lui qu’il faut consacrer notre savoir, notre activité, nos efforts bien plus qu’à l’accumulation monétaire. D’ailleurs, la question monétaire est une question grave et difficile. Nous pourrons en parler plus tard si ça vous intéresse.

Participant — Dominique Chauvin 

En à peine une quinzaine d’années, on a vécu une rupture majeure en matière d’énergie. Au début des années 2000, on pensait qu’on manquerait d’énergie, aujourd’hui on peut penser qu’on a une énergie infinie et on est à l’orée de la récolter, je pense au soleil. Certains n’ont pas encore intégré cette rupture parce qu’il y a encore des gens qui pensent qu’on est en manque d’énergie, ma question est simple : cette rupture n’est-elle pas la source d’un chaos considérable ? Ça va rebattre les cartes y compris en économie, puisqu’on peut en avoir une nouvelle : l’économie verte et cette rupture sera non seulement au niveau du pétrole dans des pays pétroliers, mais aussi du nucléaire. Est-ce que l’énergie n’est pas ce qui va bouleverser le 21e siècle ?

Thierry Gaudin :

C’est une vraie question. Néanmoins, j’aurais moins tendance à dramatiser sur cette question-là. Je m’excuse de raconter des souvenirs : on avait fait un salon de l’innovation, je crois qu’on était en 1974, et Jean-Marc Reiser, le dessinateur, nous avait fait des illustrations sur l’énergie. Il avait dessiné, en particulier, une tête d’expert découpée en différents domaines : il y avait évidemment le pétrole, le gaz, le charbon, le nucléaire puis il y avait un coin qui essayait de rentrer qui était le solaire ; le personnage disait : « C’est plein. » Effectivement on avait un mix énergétique qui était entre les mains de grandes organisations. Aujourd’hui, ces ingénieurs qui ont fait combiner éolienne-solaire pour un berger des Pyrénées, doivent finalement être assez satisfaits de voir la réorientation. Lorsque vous regardez les consommations d’énergie — on parlait de l’aéroport que le maire de Nantes essaie de faire construire à côté de chez lui — du point de vue énergétique et du point de vue du gaz carbonique, le transport aérien c’est aberrant. Le TGV est plus efficace et plus rapide, de plus il émet beaucoup moins de gaz carbonique. Mon collègue Jean Louis Beffa fait observer dans son dernier livre que la Chine a eu la sagesse de développer ses liaisons par TGV, alors que l’Europe continue à s’embouteiller dans les aéroports. Néanmoins, il semble que, pour Nantes et Rennes, il y ait une demande de transport aérien international vers l’Angleterre et l’Irlande notamment.

Participante :

Non, mais c’est un tel vieux dossier qu’il n’a plus du tout le même sens actuellement. On reste sur des analyses extrêmement datées.

Thierry Gaudin :

Vous avez raison, c’est un dossier qui date et qui, aujourd’hui, serait sans doute monté de façon différente. Je crois que vous avez raison de dire que c’est un vrai domaine dans lequel il y a des vraies transformations, c’est juste. Ceci dit, c’est aussi un domaine où il y a des vrais lobbies.

Participante :

Juste pour les reports de Notre-Dame-des-Landes, c’est un dossier très daté, il a plus de 40 ans.

Participant — Marc Mousli :

Il a commencé en 1963, il y a donc 53 ans.

Participante :

J’étais encore très loin du compte. C’est vrai qu’on ne traiterait pas du tout le dossier de la même manière, il faut savoir que cette zone est humide, c’est un des réservoirs de l’eau de Nantes et que le fait — alors là, je vais reprendre un autre terme cher à Gilles Clément qui est le « tiers qui vient perturber » — qu’on veuille implanter un campus international écologique à cet endroit sera le tiers qui va perturber. Donc, Jardin planétaire, tiers perturbant, il y a plein de phénomènes à l’œuvre qui, évidemment, sont des luttes complètement différentes, se manifestant de manières distinctes, mais qui sont des vraies luttes et des vraies résistances. Je crois vraiment que le dossier est en train de se désagréger, et il y a un signal important : un des grands responsables de la Chambre de commerce et d’industrie de Nantes n’y croit plus, donc c’est un des signes.

Participant — Ulysse :

Je vous découvre ce soir et en fait j’ai découvert, il y a une semaine, Jacque Fresco qui est un ingénieur américain. Avec son Venus Project, il a imaginé une économie qui serait basée sur les ressources et où l’argent n’existerait pas. Pensez-vous qu’il soit possible qu’une économie existe dans 10-20 ans ou plus où l’argent n’existerait pas ?

Thierry Gaudin:

Voilà une excellente question. Il y a deux textes importants sur le sujet. Le premier c’est le rapport du Club de Rome européen Money and Sustainability : the Missing Link (Le chaînon manquant entre la monnaie et la durabilité) ça a été traduit malencontreusement en français, publié chez Odile Jacob, sous le titre Halte à la toute-puissance des banques. C’est dire les libertés que prennent les éditeurs avec les titres de leurs livres ! Le deuxième c’est un livre de Philippe Derudder, Les monnaies locales complémentaires. Je vais citer un exemple qui se situe après la Crise de 1929 : il y avait une ville autrichienne Wörgl, qui avait 4000 habitants dont 1400 chômeurs en raison de la crise, c’était le désastre total, et la mairie de Wörgl a inventé une monnaie qui était une monnaie fondante, c’est-à-dire que si on ne la dépensait pas, elle perdait peu à peu de sa valeur. Cette monnaie a circulé dans la ville, les gens se sont remis à être actifs, ils ont même aménagé des routes et construit un pont. Comme cela fonctionnait — après la crise de 1929, c’était une espèce de miracle — 300 villes autrichiennes se sont dit : « C’est intéressant ce qui se passe à Wörgl, est-ce qu’on ne peut pas en faire autant ? » et à ce moment-là, la banque centrale autrichienne a saisi la Cour suprême pour dire « Ils n’ont pas le droit ! » et cette dernière a confirmé l’opinion de la Banque centrale. Ils ont donc été obligés d’arrêter et les Autrichiens se sont dit : « De l’autre côté de la frontière, il y a des gens qui marchent au pas. » ça a été l’Anschluss, c’est à dire l’annexion de l’Autriche par l’Allemagne. Cet exemple montre que la problématique qui est en question, c’est aussi la reconstruction d’autonomie et cette dernière passe, je pense, non pas par les grandes monnaies, mais par des petites qui vont réactiver les activités locales. Il y a tout un corpus théorique — que vous trouverez dans le rapport du Club de Rome européen dû à Bernard Lietaer — qui est un recueil par analogie avec les phénomènes vivants. Dans les systèmes vivants on n’a pas un seul véhicule d’informations, mais une multiplicité de véhicules d’informations qui chacun correspondent à des fonctions particulières. Donc, en imposant une monnaie unique, on diminue la diversité biologique et par conséquent on réduit la créativité.

Il faut ajouter à cela que depuis au moins la Seconde Guerre mondiale, sinon plus, il y a un projet américain de dollarisation de la planète et qu’en face de celui-ci, il n’y a pas eu beaucoup de résistance jusqu’à présent. On pensait que la création de l’Euro serait une résistance, mais l’Euro c’est aussi une grande monnaie. Alors, les Chinois « résistent » de leur côté, mais ils ont aussi un système en prise avec des villes qui deviennent énormes, avec une bureaucratie qui fait que les gens sont occupés à traiter de l’information au lieu d’aller cultiver leur jardin et donc des activités qui sont, je dirais, déportées par rapport à ce que serait une relation équilibrée avec la nature. Je suis plus vieux que la plupart — sinon la totalité — d’entre vous, je suis né en 1940 dans la banlieue parisienne, au moment où l’armée allemande passait la Somme et derrière la maison de mes parents, il y avait un potager, des poules et des lapins, et c’était sacrément utile. C’est-à-dire que quand vous vous en éloignez — en ce qui me concerne, l’endroit où je suis né aujourd’hui : c’est des bâtiments, des immeubles, il n’y a plus du tout de ressources. Heureusement, il y a tout un mouvement : végétalisation des toits, verdure à l’intérieur des villes… Mais avant que ça devienne équilibré, il faudra vraiment un certain temps et le système monétaire est pour beaucoup dans cette évolution. Donc, ce travail de Bernard Lietaer permet en effet de donner des voies de possibles, des résolutions.

Participant — Marc Mousli :

Sur cette question de monnaie vous avez vu que presque tous les candidats à l’élection présidentielle sont en faveur du revenu de base, le revenu universel. Si l’on veut que ce dernier ait un sens, il faut qu’il soit suffisamment élevé. Si c’est pour donner 150 euros à chacun par mois, ça n’a pas de sens. Comment le financer ? Le financement par l’impôt est impossible, les autres sources de financement sont extrêmement problématiques et plusieurs chercheurs avancent que la solution est de financer par des monnaies locales. Donc, une création de monnaies complémentaires, locales de la même façon que cette ville autrichienne pour financer le revenu de base. Je ne sais pas ce que cela donnera, mais c’est une idée qui paraît assez intelligente, même si je n’ai jamais été très favorable au revenu de base.

Thierry Gaudin:

Un petit complément sur ce sujet : l’idée que tu viens d’évoquer du revenu de base est née au CESTA (Centre d’études des systèmes et des techniques avancées) dans les années 80, Jacques Robin en étai l’auteur. Il prônait, en effet, cette idée du revenu de base. Ceci dit, si on regarde le fonctionnement des monnaies complémentaires, vous avez raison de citer le Wir suisse, qui fonctionne depuis 1929, 70 ans. Les industriels suisses échangent soit en Wir, soit en Franc suisse et quand ce dernier va moins bien, le Wir augmente et inversement. Ça fait un effet d’amortisseur et dans le cas du Wir et des autres municipalités, le problème qui se pose c’est : est-ce que les fonctionnaires municipaux vont être payés en monnaie complémentaire ou vont-ils continuer à être payés dans une grande monnaie nationale ? C’est une question importante. Dans l’État Français au départ, c’était Valéry Giscard d’Estaing qui avait fait, quand il était ministre des Finances, un petit article de loi dans un coin qui disait quelque chose du genre : « Le Trésor ne peut plus présenter ses effets à l’escompte de la Banque de France. » Pour un non initié, ça ne veut rien dire, mais en fait ça signifie : « L’État n’est plus libre de créer sa monnaie. » Cela a été repris dans le traité de Maastricht et dans celui de Lisbonne. C’est-à-dire que toute l’Europe est coincée du point de vue monétaire.

Participant  :

Juste un point sur la création monétaire : en principe la monnaie a une contrepartie économique, la donnée en soi n’est pas une richesse, il faut que ça corresponde à quelque chose in fine si on veut une certaine stabilité. Donc, aujourd’hui par rapport aux évolutions qu’on observe, la seule source de richesse qu’on soit susceptible de mobiliser — en tous cas sur le moyen et long terme, c’est en cours de le devenir — ce serait la richesse produite par les robots, l’intelligence artificielle de manière générale ; alors sous forme de taxe ou sans taxe… il y a des modalités à trouver, mais si on veut compenser la perte d’emploi qui va s’opérer à grande échelle partout dans le monde du fait de la robotisation, le seul moyen un peu stable qu’on puisse imaginer c’est sous la forme d’une taxation et d’une répartition la plus équilibrée possible.

Participante — Nathalie Ancelin

Tout à l’heure vous aviez posé la question sur une société où l’argent n’existe pas. Moi, j’ai eu spontanément en tête une ville qui s’appelle Auroville en Inde, je la connais très peu, j’ai juste rencontré des Parisiens — cadres supérieurs dans une grande entreprise française — qui ont vendu leur appartement, leurs meubles et qui sont partis ; je les ai eus à déjeuner, vraiment par hasard, la veille de leur départ. Ils ont tout vendu, ils amenaient ça pour le mettre en partage et ce que j’ai compris, c’est qu’il s’agissait d’un système d’argent virtuel.

Thierry Gaudin:

Je complète sur Auroville, il y a un mouvement aurovillien en France, à Paris ils se réunissent souvent au 104 rue de Vaugirard. Auroville est né à la suite du travail philosophique et mystique de Sri Aurobindo et de sa femme qu’on a appelé la Mère. C’est une sagesse indienne très caractéristique de la mentalité de l’Inde. Je n’ai pas vu Sri Aurobindo ou la Mère moi-même, mais j’ai rencontré un autre sage assez proche qui s’appelle Vinoba. Mes amis du GRET (Groupe de recherche et d’échanges technologiques) m’avaient dit : « Il faut que tu ailles voir l’endroit où vivait Gandhi. » C’était un petit village au centre de l’Inde, j’étais tout à fait étonné de voir la simplicité dans laquelle vivait Gandhi, son lit c’était quatre barres de bois plus des lanières de cuir et c’est tout… J’ai posé des questions telles que : « Est-ce qu’il y a des philosophes indiens qui se sont intéressés à la technique ? ».

On m’a dit : « Vous devriez aller poser une question à Vinoba. »

– Qui est Vinoba ?

– C’est l’auteur du Mouvement de la persuasion.

– Qu’est-ce que le Mouvement de la persuasion ?

– Ça consiste à persuader les riches de donner leurs terres aux pauvres.

– Ça marche ?

– Oui, la dernière fois qu’il est allé à l’assemblée nationale de New Delhi à pied pour des raisons doctrinales — il a fait 400 km à pied — sur son chemin il a mendié des terres. Il est arrivé à Delhi avec quelques milliers d’hectares en poche qu’il a déposés sur le bureau de l’assemblée. Il a fait voter une loi interdisant à quiconque de posséder plus de 25 hectares. »

C’était la fin des maharadjas. Je me suis demandé qui était ce type. Je suis donc allé voir, il y avait effectivement une salle, il était là et puis les gens pouvaient venir poser leurs questions. J’ai posé la mienne : « Est-ce que la persuasion va suffire à transformer la technologie lourde en technologie villageoise (là-bas ça s’appelle le village technology) ? »

Il a répondu : « Persuastion + teachings » (Persuasion + enseignements). Sur le moment, je me suis dit : « Comment persuade-t-on les enseignants ? » Pour un Indien, l’enseignement ce sont les grands enseignements, ce n’est pas comme chez nous. Donc, on est dans un contexte différent et effectivement dans la société indienne vous trouvez tout : à la fois le big business hyper rentable et les disciples de Vinoba qui sont essentiellement dans les villages. Si vous voyez une photo aérienne de l’Inde la nuit : tous les villages sont éclairés parce qu’ils ont des sources d’énergie justement — une bonne partie par le biogaz — ils peuvent donc avoir de l’énergie même dans les petits villages.

Auroville — Matrimandir — est une construction mystique, alors que dans le cas de Vinoba c’est vraiment la sagesse indienne traditionnelle qui domine.

Participante :

Pour revenir à la fondation ?

Thierry Gaudin:

Dans le livre l’Odyssée de l’espèce, on avait annoncé une douzaine de chantiers. On a pu travailler sur deux d’entre eux : les Cités marines et le Jardin planétaire. On a quelques idées sur un chantier pour le spatial, sur l’énergie, etc.

Notre sentiment est que nous arrivons dans une époque où le besoin de faire des grands investissements structurants qui vont pouvoir faire passer vers une autre société devient de plus en plus perceptible et de plus en plus urgent. Or, ces grands investissements structurants, c’est aussi du travail pour les grandes entreprises.

Il y a une question bien connue maintenant qui est celle des migrations. Vous avez une bonne partie des migrations qui est due, en effet, aux conflits, aux oppressions, mais vous avez aussi des migrations qui sont dues aux sécheresses. Si vous regardez la place des sècheresses prévisibles, vous avez tout le pourtour de la Méditerranée, le Moyen-Orient… Si l’ex Mésopotamie devient comme le Sahara, je ne vous dis pas les conséquences. Même aujourd’hui, il y a de la sécheresse en Syrie, il ne faut pas croire qu’il y a uniquement des problèmes de conflits et de pouvoirs.

Le réchauffement va rendre habitables les zones situées plus au Nord, encore faut-il les aménager.

Si vous regardez les fleuves de la planète, vous vous apercevez à quel point tout cela est mal géré. En France, nous avons le système des agences de bassin… Il n’y a pas d’agence de bassin internationale, alors que la plupart des grands fleuves sont internationaux : le Mekong, le Nil, le Danube… Ce sont actuellement des causes de négociation difficile, voire de conflits ; et donc la façon de résoudre ces problèmes-là, c’est quand même d’avoir certainement plus de moyens d’étude que nous en avons eus jusqu’à présent.

C’est pour cela que nous pensons faire cette fondation qui aurait pour but de financer des chaires, des thèses qu’ils regardent cela de façon académique, c’est-à-dire vraiment dans le détail, de façon approfondie, de manière à comprendre où et comment il faut faire porter l’effort. Comme les industriels, notamment ceux qui sont capables de faire des grands aménagements, sont intéressés pour que ces grands programmes voient le jour (pour pouvoir effectivement y travailler puisque c’est leur métier), ils devraient logiquement nous aider à financer ces activités académiques pour donner forme aux douze grands programmes que vous pouvez voir dans le livre.

Participante :

De quel budget avez-vous besoin ?

Participante — Dominique Lacroix

Le minimum c’est 100 000 euros, on peut faire à 50 000 euros, mais si tu prends l’exemple d’une très belle chaire de cyberstratégie, par exemple c’est 300 000 euros pour 3 ans.

Participant :

Combien de chaires ?

Participante — Dominique Lacroix :

C’est un projet avec beaucoup de monde et beaucoup de réflexion. Pour suivre les aventures de la fondation, tapez 2100.org et vous trouvez. 2100 c’est la source d’information pour les news, vous vous abonnez, vous vous désabonnez quand vous voulez, vous abonnez vos amis… et vous aurez les informations sur la chaire qui est en cours de création.

Participant : Antoine Valabrègue :

Thierry, j’aimerais que tu reviennes sur ce qui était le sujet de la conférence : quels sont les fondements – que tu exposes dans Pensée, modes d’emploi – qui t’ont permis de faire une prospective qui tient la route 30 ans après ? J’aimerais que tu nous parles de cela et que tu nous dises ce qu’il a manqué. Qu’est-ce qui a permis cette prospective et qu’est-ce que, si c’était à refaire, tu rajouterais ? Y a-t-il un ingrédient fondamental qui a été raté au départ ?

Thierry Gaudin:

Dans le courant des années 70-80, nous avons travaillé, et lorsqu’on s’est demandé ce qu’était un système technique, et comment il était structuré, on s’est aperçu que finalement il rejoignait les structures ternaires dans un premier temps. Et ensuite, des structures un peu plus riches, que Georges Dumézil a repérées dans toutes les religions indiennes et européennes. Dans le cas de l’Inde, c’est Vishnu : la protection de l’existant, Shiva : la destruction créatrice — donc Schumpeter et pas mal des doctrines économiques — et Brahma : la spiritualité. D’ailleurs en Inde, il y a relativement peu de temples alors qu’il y a des disciples de Vishnu et de Shiva qui sont constamment en relation et même en opposition d’une certaine façon.

Une de nos amis, Elisabeth Meichelbeck, qui avait accédé à cette réalité, nous a expliqué comment ce système était une manière de comprendre l’évolution des sociétés. On a regardé l’évolution des systèmes techniques, et on a repris en l’amplifiant la théorie de Bertrand Gille (« La technique est dans un système dans lequel tout se répond, ce n’est pas une technique puis une autre, c’est vraiment un système »).

On a observé que le système technique de la révolution industrielle avait :

  • ses matériaux : l’acier et le ciment,
  • son énergie : l’énergie de combustion
  • son système de communication, qui s’est considérablement amplifié à partir de la fin du 19e siècle lorsque les communications hertziennes, le morse et le téléphone sont arrivés.

J’ai alors regardé ce qui s’était passé au Moyen-Âge, décrit par La Révolution industrielle du Moyen-Age de Jean Gimpel.

On a retrouvé, effectivement, cette structure ternaire au Moyen-Age avec :

  • l’énergie de traction animale : la révolution du collier d’attelage,
  • des matériaux nouveaux,
  • les échanges d’informations entre les monastères par les copistes.

Donc, quelque chose qui formait un système et débordait le cadre national — enfin à l’époque il n’y avait pas vraiment de cadre national — et en fait pour compléter ce ternaire il y a aussi la relation avec la nature : on est dans une image qui ressemble un peu à un arbre dans lequel les racines représentent les relations avec la nature puis on a la matière, l’énergie et l’information qui structurent l’ensemble.

Il y a, me semble-t-il, une transformation tous les neuf siècles.

  • La première bien connue est celle du 6e siècle avant notre ère, la naissance de la philosophie, et en même temps, il y a Bouddha en Inde, Lao Tseu en Chine, les présocratiques en Grèce — dans les colonies d’Asie Mineure — puis une transformation aristotélicienne, c’est-à-dire la nécessité de trouver les preuves de ce qu’on avance, c’est le début de l’esprit scientifique.
  • Il y a une autre transformation importante au 3e siècle de notre ère qui est centrée : on trouve Alexandrie, avec sa bibliothèque, où des gens extraordinaires ont fonctionné à cette époque-là.
  • Ensuite, il y a le 12e, c’est-à-dire Al-Andalus, période d’échanges entre les savants de toute la Méditerranée et de l’Europe, c’est là qu’on a créé les premières universités ; c’est une période de fraternisation entre l’Islam et la Chrétienté, ils se sont séparés par la suite ; les juifs y étaient aussi avec Maïmonide.

Si on dit tous les neuf siècles c’est 6e siècle avant notre ère, 3e siècle, 12e, 21e… Ça tombe comme ça. Donc on s’attend à quelque chose, mais on ne sait pas encore très bien quoi.

Participant :

Je voudrais aller un petit peu plus loin dans ma pensée. Dans le système ternaire que tu évoques, si on l’applique aujourd’hui, la société moderne, c’est l’énergie pas chère et abondante qui a permis le développement de l’industrie et qui donne le bien-être. Le paradoxe n’est-il pas qu’aujourd’hui c’est l’industrie qui va permettre la création d’une énergie industrielle potentiellement infinie et pas chère ? Et si on arrive à faire cela, à ce moment-là cette énergie va être un booster considérable pour la civilisation de demain. Ne crois-tu pas que grâce à cette énergie industrielle infinie et potentiellement pas chère — parce que les coûts diminuent — on peut maintenant passer à la société de création que tu évoquais dans ton introduction ? »

Thierry Gaudin:

C’est un grand rêve, mais ton schéma est tout à fait intéressant je pense que pour aller plus loin il faut regarder en détail comment ça se présente et ce qu’on peut espérer comme évolution précise.

Ça ne me pose pas de problème d’accepter ce que tu viens de dire.

Participant — Marc Mousli :

On a parlé de choses extrêmement intéressantes : d’énergie, de technique… Il y a un facteur qui est important pour la planète dont on n’a pas vraiment parlé, c’est l’homme. Ils étaient 1 milliard vers 1810, et il y a de fortes chances qu’ils soient 11 milliards à la fin de 2100 : chaque fois qu’on publie des prévisions, elles sont modifiées à la hausse, car il y a un certain nombre de coins sur la planète où la transition démographique ne marche pas. Donc, dans tout ça, comment ce poids démographique interfère-t-il avec ces évolutions dont on est en train de nous parler ?

Thierry Gaudin:

La projection démographique c’est une question forte. Quand on avait fait nos calculs, on aboutissait à 12 milliards en 2100. Depuis, on a plutôt tendance à dire 9-10 milliards. Je ne sais pas ce que tu en penses Jérôme ?

Participant — Jérôme Bindé 

Les prévisions démographiques ont toujours été erronées

Thierry Gaudin:

Jérôme a dirigé la prospective à l’UNESCO pendant plusieurs années.

Participant — Jérôme Bindé :

Ça a toujours été erroné, les prévisions sont constamment revues. Une des sciences qui paraît la plus assurée d’elle-même n’est assurée de rien du tout et, en plus, les conséquences qu’on en tire pour les politiques sont également tout autant erronées. On a, par exemple, longtemps dit que c’était l’éducation qui allait résoudre le problème comme par enchantement, c’est terminé : on est à 2,1 ou 2,2 enfants par femmes…

En fait, c’est faux d’ailleurs parce que pour une grande partie des pays qui ont connu la transition démographique — comme les systèmes éducatifs malheureusement ne sont pas à la hauteur des espérances — ce qui a réduit la croissance démographique, la fertilité par femme, c’est rarement dit, mais c’est la telenovela. C’est le même problème qu’avec la chute du Mur, j’ai prévu la chute du Mur, mais je me suis trompé sur la date, j’ai pensé que ça prendrait plus de temps. En 1985, j’étais à Sofia dans la Bulgarie jivkovienne[10] et j’ai eu la chance de rencontrer des jeunes gens à l’époque qui faisaient l’équivalent du Conservatoire d’art dramatique : dans les soirées quand ils avaient bu un verre de slivovitz, ils chantaient We are the world. Quand je suis rentré à Paris, j’ai dit à celle qui partageait ma vie à l’époque : « C’est terminé, ce système est terminé. » Je me suis juste trompé sur la date, je n’ai pas pensé que ça allait mettre seulement quatre ans, j’ai pensé que ça serait plus long, plus compliqué. C’est le caractère viral de la communication, c’est la telenovela qui a transformé les modèles familiaux, les comportements des femmes, même si elles sont analphabètes. Le problème actuel est que la transition démographique a effectivement échoué dans une partie du monde, par exemple dans toute la zone sahélienne. Il y a une quinzaine d’années, on pensait — quand j’ai écrit avec Federico Mayor et une petite équipe le livre The world Ahead (Un monde nouveau)[11] — que peut-être les choses allaient s’arranger, qu’on ne dépasserait pas 8 milliards. Or, on y est déjà presque : on est à 7,5 milliards et on va avoir beaucoup de mal à éviter 10 milliards. Le problème est : « Est-ce qu’on ira jusque-là ? » Je ne suis pas très optimiste : les ruptures sont telles dans certaines parties du monde que l’on ne peut pas exclure une véritable catastrophe.

Participant — Sergio Avalos :

Bonsoir, Sergio Avalos. Il se trouve que je viens du pays des telenovelas justement et que je me pose des questions sur la place de l’être humain, mais dans le sens où comme je l’ai dit tout à l’heure : « Les films nous disent quelque chose ». J’ai vu un peu par hasard un film américain de 2013, Elysium[12], où, pour résumer, il y a des êtres humains qui vivent près de la Lune dans une cité spatiale, et des déshérités qui habitent la Terre, à qui le héros se tue littéralement à rendre la citoyenneté pour qu’ils puissent avoir accès à cette cité spatiale où on peut tout  avoir : la santé, l’énergie, tout ce qu’on veut. Ce qui m’a interpellé, c’est que curieusement la ville des déshérités — donc la terre de 2154 — ressemble aux quartiers pauvres du Mexique et la ville spatiale représente tout ce à quoi on peut rêver avec toute la technologie possible et impossible. Toute la question était l’accès — je travaille justement sur des questions d’accès aujourd’hui : pour le citoyen lambda, l’accès à la santé, pour un handicapé l’accès à la boulangerie, à la pharmacie… Dans ce film, on posait la question de l’accès à la citoyenneté, avec derrière la possibilité d’accès à la santé. Lorsque vous avez dit : « Les films nous disent quelque chose. » Je me suis demandé : « A quoi peut-on réfléchir autour de cette question pour ne pas arriver en 2100 ou 2154 à une situation où on oppose complètement un groupe de déshérité et les élites ? » Parce que finalement on continue à parler d’opposition entre élites et le peuple.

Thierry Gaudin:

Je voudrais dire deux mots sur ce film qui est très intéressant, mais qui est quand même une manière de revisiter le scénario de Marx. Je pense qu’il y a une composante dans le monde actuel qui n’était pas du tout perceptible dans le scénario de Marx et dans celui-là : c’est la manière de communiquer, puisque vous êtes aujourd’hui non seulement un être physique, mais aussi un être virtuel sur internet. Je dirais donc que les coalitions entre les personnes se font, sans qu’il y ait besoin d’aller sur une station spatiale, et je crois que la situation présente est un petit peu différente. D’un autre côté, les moyens de persuasion sont aussi beaucoup plus forts, ce qui fait qu’il y a, en effet, toute cette idée de storytelling et de « prise de tête » qui fait que l’on essaie de domestiquer les comportements. L’homme procède à sa propre domestication ; ça c’est effectivement beaucoup plus difficile à rendre dans un film, mais c’est à mon avis tout aussi important pour l’analyse.

Participante : Célia Marie

Merci beaucoup pour cet exposé vraiment très intéressant qui nous montre que la prospective c’est vraiment quelque chose de vivant, qui est vécu. Afin d’être de bons jardiniers et prendre soin de la planète Terre qui est notre écosystème, est-ce que la question de créer un paradigme épistémologique unifié au niveau planétaire est pertinente, est importante ? Si oui, comment faire ? Est-ce qu’il y aurait une méthodologie… ?

Thierry Gaudin:

Surtout pas un seul paradigme. Avoir un seul paradigme serait très dangereux pour les monnaies. On est en train de sortir de cette période difficile qui est celle de la standardisation. Il y a déjà 5 000 monnaies complémentaires dans le monde, donc on a un écosystème monétaire. Sur le plan des paradigmes intellectuels, je pense que c’est « chaud ».

À propos du travail de Michel Saloff, j’ai signalé que les universités catholiques sont en train de s’agiter autour de la prospective. Hier, nous étions à celle de Paris qui bâtit un réseau de 200 universités dans le monde avec l’idée de faire un travail de prospective plus ou moins collectif et celle de Lille a décidé de faire une journée entière justement à la mémoire du travail de 2100 pour lancer leur activité de prospective.

C’est intéressant parce que jusqu’à présent, la vision catholique était plutôt rétrospective que prospective. Je ne voudrais pas être polémiste ici, mais… Il y a quelque chose qui est en train de se passer. C’est peut-être dû à la mentalité du nouveau Pape, qui dit des choses importantes sur l’aspect écologique des comportements humain. Enfin, c’est intéressant de voir que de grandes institutions sont en train d’évoluer. L’aspect écologique, pour les religions indiennes, ça ne pose pas de problème, c’est naturel, pour la façon de penser chinoise ou japonaise aussi. On avait un point de résistance dans le christianisme qui sera peut-être plus dur du côté des protestants parce qu’ils ont tellement pris l’habitude de se mettre dans le business. Il y a des conférences de management qui disent : « Telle entreprise est extraordinaire, ses membres se comportent comme ceux d’une secte. » C’est un propos élogieux, cela veut dire qu’ils sont complètement dévoués corps et âme à l’institution.

Participant — Marc Mousli :

Vous avez peut-être lu Reinventing organizations[13] qui tourne donc autour des entreprises « libérées ». On y trouve un chapitre qui fait l’apologie d’entreprises américaines se comportant comme des sectes, avec une forte imprégnation « New Age ».

Participant :

Comment voyez-vous la compétition entre les différents mouvements d’innovation : ceux du numérique, ceux de l’économie écologique… ?

Thierry Gaudin:

Ce qui ressort du colloque Sciences de la vie, sciences de l’information, qui s’est tenu à Cerisy cet été, c’est d’abord que le numérique, selon Gérard Berry[14], « est en train de pomper cette quantité extraordinaire d’information, que tout est en train de devenir numérique ». Mais cela n’empêche aucunement des préoccupations de type écologique. D’autant que si on regarde la diversité des êtres vivants, on voit que ça se compte en millions d’unités ; si on regarde les résultats par exemple de Tara[15] — je ne sais pas si vous connaissez le projet Tara qui vise à repérer les micro-organismes présents dans les mers — on voit que du côté biologique une explosion informationnelle est en train de se produire et les deux se répondent mutuellement. On ne peut pas dire qu’il y ait une compétition entre ces deux aspects, mais plutôt une complémentarité et une espèce d’échelle de perroquet où l’un aide l’autre à progresser. Ceci dit, se pose effectivement le problème de l’influence du numérique sur le mental des gens. Le souci c’est que les gens s’identifient à des processus qui sont des processus machinaux.

 

[1] Ce point est développé dans les travaux de thèse de Thierry Gaudin, publiés en 2008, sous la direction de Jacques Perriault : « Innovation et prospective : la pensée anticipatrice », p 66.

[2] Cyril Dion et Mélanie Laurent, réalisateurs du film documentaire « Demain », sont partis avec une équipe de quatre personnes enquêter dans dix pays pour rencontrer les pionniers qui réinventent l’agriculture, l’énergie, l’économie, la gouvernance et l’éducation. En mettant bout à bout ces initiatives qui fonctionnent déjà, ils proposent une vision de ce que pourrait être « le monde de demain ».

[3] Thierry Gaudin, «  2100, Odyssée de l’Espèce. Prospective et programmes du 21e siècle. » Éditions Payot et Rivages, 1993, 293 pp. Collection: Documents Payot. Repris par l’auteur en 2003.

[4] Symposium organisé en novembre 1995 à Monaco , ayant pour objet l’état de l’art des projets d’urbanisme marin.

[5] Dans le cadre de Prospective 2100, organisme en quête de projets pour une gestion écologique raisonnée, Thierry Gaudin, son fondateur, organisa un symposium « jardins planétaires » fin mars 1999 à Chambéry. Abordé sous l’angle rigoureux des initiatives scientifiques, ce colloque traita des propositions et les réflexions innovantes pour un futur proche. (source : Hommes et plantes – Automne 1999 n° 31 – Revue du CCVS, « Tableau d’une exposition » par Gilles Clément)

[6] Colloque « Renouveau des jardins : clés pour un monde durable ? », août 2012, Centre Culturel International De Cerisy

[7] La DGRIS du Ministère de la Défense publie chaque année « Horizons stratégiques ». Voir la séance du Café de la prospective du 11 mai 2016, avec Nicolas Bronard.

[8] Arrivée au pouvoir de l’ayatollah Khomeini en 1979

[9] Le Cycle (titre original : Dayereh mina) est un film iranien réalisé par Dariush Mehrjui en 1974. Le film, bloqué par la censure iranienne, n’est sorti sur les écrans qu’en 1978.

[10] En référence à Todor Jivkov, homme politique communiste bulgare, dirigeant de la République populaire de Bulgarie (période jivkovienne : 1954-1989).

[11] « The World Ahead: Our Future in the Making », Federico Mayor and Jerome Bindé, Zed Books, 2001 – 496 pages

[12] Elysium est un film réalisé par Neill Blomkamp avec Matt Damon, Jodie Foster. 2013.

[13] « Reinventing organizations: vers des communautés de travail inspirées », Frédéric Laloux, Editions Diateino, 22 oct. 2015 – 483 pages.

[14] Gérard Berry est un informaticien français, professeur au Collège de France, membre de l’Académie des sciences française, de l’Académie des technologies, et de l’Academia Europaea.

[15] Tara, originellement nommée Antarctica puis Seamaster, est une goélette française destinée à la recherche scientifique et à à la défense de l’environnement. En 20072008, ce voilier a fait des relevés permettant de mieux comprendre les changements climatiques. En 2009, Tara a étudié le piégeage des molécules de gaz carbonique (CO2) par les micro-organismes marins comme le plancton. En avril 2016, l’expédition Tara Pacific a étudié les coraux, menacés par des facteurs humains et climatiques. Source : https://fr.wikipedia.org/wiki/Tara_(go%C3%A9lette)