Les années 1970 ont vu l’émergence d’une prédominance des marchés financiers sur l’activité économique ainsi que l’apparition d’une grande incertitude sur tous les paramètres qui la conditionnent : taux de change des monnaies, taux d’intérêt, etc. Si une telle situation à conduit à un développement extraordinaire des mathématiques financières, les crises de ces dernières décennies montrent à l’évidence que la politique a de nouveau son mot à dire.
*Nicole EL KAROUI est professeur émérite à l’université Pierre-et-Marie-Curie.
Voilà presque trente ans que je fréquente les marchés financiers. J’y ai puisé un certain nombre de mes thèmes de recherche mathématique, créé une formation en « probabilité et finance » à Paris- VI et à l’École polytechnique. Très naïve au début, avec une connaissance quasi inexistante de la finance mais importante des mathématiques des processus stochastiques, j’ai été interpellée par les problèmes très complexes posés par le risque de marché auxquels les marchés à terme nouvellement créés (MATIF [1986] et MONEP [1987]) essayaient de répondre. Depuis, je n’ai pas vraiment réussi à m’extraire de cet univers, où le risque de marché est devenu une entité en soi, aux multiples facettes qu’un inventaire à la Prévert ne saurait décrire complètement : risque de taux, risque de couverture, risque de dépendance et de corrélation, risque de long terme, risque de modèle, risque de défaut, risque d’inflation, risque actuariel, risque d’aller tous dans le même sens, de liquidité, de retournement, de spéculation; à un niveau plus agrégé, risque de prises de position incontrôlables, de manipulation des cours, risque systémique, risque opérationnel, informatique, risque de la haute fréquence, risque micro, risque macro, et j’en oublie…
Certes, désormais je sais un peu plus de finance et suis sans doute un peu moins naïve. Parmi tous ces risques, je me suis plus particulièrement consacrée à la modélisation du risque de marché à l’utilisation des modèles en pratique. J’ai aussi suivi avec attention les développements de la régulation depuis la crise de 2008 en particulier.
Pour s’y retrouver dans cette multitude de risques, il convient de retenir que des éléments structurants sont leur temporalité et leur granularité, locale ou globale. Mais revenons un peu aux sources.
LE TEMPS HISTORIQUE
Le 15 août 1971, le président Nixon annonce la fin de l’indexation du dollar sur l’or, mise en place en 1944 par les accords de Bretton Woods. Cette décision marque le début de la financiarisation des économies développées, dont la monnaie de transaction est maintenant essentiellement le dollar ; c’est le début de l’ère des dettes sans cesse croissantes des États, qui peuvent émettre de la « monnaie papier » sans contrepartie, et de la variabilité sans précédent des principaux paramètres de l’économie : taux, changes, actions, crédit, inflation. Ces phénomènes s’accentueront avec les politiques de dérégulation impulsées par Margaret Thatcher et Ronald Reagan. Cela ne se fera pas sans de nombreux soubresauts et crises financières majeures : premier choc pétrolier, nombreuses faillites (des caisses d’épargne aux États-Unis dans les années 1970-1980), crises de change en Europe (Soros, 1993), puis faillite de la Russie (1998) et crise asiatique (1999), crise des valeurs internet (1999-2000), et surtout la crise des subprimes (2007) suivies de la faillite de Lehman Brothers (2008), et plus récemment crise européenne (2012).
Pour faire face à ce nouvel environnement complètement dérégulé, suivant en cela des principes affirmés en théorie par les économistes Friedrich Hayek ainsi que Kenneth Arrow et Gérard Debreu, des marchés contingents sont créés afin de pallier les incertitudes des marchés. Il s’agit plus particulièrement des marchés à terme organisés sur produits financiers (il existait depuis longtemps, dès l’Antiquité sans doute, des marchés à terme sur le blé et autres produits agricoles). En 1973, moins de deux ans après l’annonce de Nixon, le Chicago Board of Options Trade (CBOT) ouvre ainsi une section de contrats à terme et d’options sur produits sensibles aux risques financiers : change, taux d’intérêt, indices. Sous l’impulsion des politiques de libéralisation de Reagan, Thatcher et autres,d’autres marchés similaires s’ouvrent aux États-Unis (New York, 1979), Londres (1982), Francfort (1989), sans parler des marchés asiatiques.
En France, alors que l’on avait jusqu’alors une économie très régulée, le premier marché à terme (MATIF) ouvre en 1986 pour faciliter la gestion de la dette de l’État, et en 1987 le premier marché d’options sur actions le MONEP. Ces marchés vont se développer très rapidement, en adaptant les règles de fonctionnement des marchés états-uniens tout en profitant des nouvelles technologies. La Société générale confie ainsi le développement de la nouvelle activité « produits dérivés » à un ingénieur qui mise résolument sur le « quantitatif », persuadé que la grande révolution informatique liée au développement des PC qui débute va jouer un rôle décisif en finance.
Un marché « organisé » est une réponse institutionnelle aux difficultés rencontrées sur les marchés de gré. Les caractéristiques des contrats à terme et des contrats d’options sont standardisées, et seul le prix est discuté par les opérateurs. Cette standardisation permet de dénouer une position avant terme et améliore le fonctionnement et la liquidité des marchés. La sécurité des transactions est garantie par une chambre de compensation, contrepartie unique de l’ensemble des acheteurs et des vendeurs agréés.

LE TEMPS « RISQUÉ » DES CONTRATS À TERME ET DES OPTIONS
Lorsque l’on parle de marché à terme, on se projette dans le futur. Le temps apparaît alors comme une source de risque qu’il faut maîtriser, et le futur peut être lointain (dans le monde des taux, les contrats peuvent aller jusqu’à trente ans et plus). Ces marchés offrent des produits à terme et dérivés, qui sont des outils pour « geler » le prix, minimal ou maximal, d’une opération qui se réalisera à une date future (fixée dans le contrat) proche ou lointaine ; cette opération peut porter sur tout type de sous-jacents échangeables sur les marchés, notamment devises, taux d’intérêt, indices, actions, obligations, spreads (1) de crédit, matières premières… Les instruments dérivés les plus liquides sont les contrats à terme (ou promesses de vente) et les produits optionnels (contrats d’assurance) comme les options d’achat (prix maximal garanti) ou de vente (prix minimal garanti).
La création des marchés à terme et des produits dérivés a nécessité l’introduction de nouveaux outils conceptuels et quantitatifs dans le monde financier, notamment dans la gestion de l’incertain, les notions classiques en statistique de moyenne et de variance se révélant insuffisantes. Les deux principes de base dégagés par Black-Scholes et Merton en 1973 sont :
1. Il est possible de réduire les risques de ce type de produits par une stratégie dynamique de couverture.
2. La mise en oeuvre de la stratégie est assurée produit par produit par le trader (vendeur) qui prend les risques à la place de son client.
L’originalité de la finance des dérivés tient dans ces deux propositions, qui sont bien sûr mises en défaut en périodes de crise, pendant lesquelles la liquidité est toujours déficiente, et pendant lesquelles risques et couvertures doivent être appréhendés autrement. Si ces principes s’appliquent aisément dans les marchés très liquides, ils sont beaucoup moins robustes pour les dérivés de crédit, pour lesquels ils ont été utilisés de manière abusive.
La couverture d’un produit dérivé
Supposons que le contrat promette de payer dans six mois exactement l’écart entre la valeur du taux de change et le cours d’aujourd’hui si le cours est plus élevé, rien sinon. Ce contrat protège contre la hausse du dollar (option d’achat). Le problème est que les fluctuations du taux de change sont très fréquentes, et erratiques : en six mois, le taux de change peut avoir une valeur très éloignée de sa valeur d’aujourd’hui.
Imaginez le trader comme un pilote (de sous-marin par exemple) qui doit arriver sur une cible qui se déplace tout le temps au gré des courants. Ses instruments lui permettent de la détecter, mais pas de prévoir son comportement. Il doit donc calculer d’où il doit partir, puis modifier constamment sa route pour être sûr de ne pas rater la cible à la fin.
Dans le marché, le point de départ est le prix du contrat et la « route » est pilotée par la quantité de dollars à acheter ou à vendre au jour le jour pour atteindre la cible, c’est-à-dire réduire à « coup sûr » le montant à payer.
Supposons qu’un client (une entreprise, un individu…) souhaite pouvoir acheter dans six mois 1 million de dollars en payant 900000 €(taux de change actuel). Un trader s’engage à lui fournir cette somme à la date prévue quel que soit le change à cette date, même si le prix de marché est de 1100000 €, par exemple. La stratégie pour le trader consistera à fixer le prix du contrat puis à gérer un portefeuille de valeurs avec des dollars et à acheter et vendre des dollars tous les jours en suivant les variations de change. Les modèles mathématiques donnent les outils pour définir une stratégie gagnante, au sens où elle couvre le montant à payer. Bien entendu cette pratique n’est possible que grâce aux coûts de transactions négligeables. Le prix du contrat est le montant qu’on doit investir pour atteindre la cible à coup sûr. Il s’interprète aussi comme une certaine mesure du risque de contrat.
Modèles et éléments quantitatifs dans la gestion au cas par cas des produits
Vous remarquerez que jusqu’à maintenant le mot « probabilité » n’a pas été prononcé, surprenant de la part d’une probabiliste! Nous raisonnons juste en termes de titres de marché. La couverture dynamique – l’utilisation du temps et des possibilités offertes par le marché d’investir fréquemment – pour réduire le risque d’une exposition à un an, cinq ans ou dix ans est une nouvelle manière d’aborder les risques dans cet environnement. Ce changement de paradigme n’est pas venu de l’industrie financière elle-même mais a été introduit de « l’extérieur » pas trois académiques Black, Scholes et Merton, en 1973. A priori, on ne cherche pas à estimer le risque encouru par la vente d’une option mais à réduire le montant terminal exposé au risque. Cela fonctionne plutôt bien, à condition de réajuster la stratégie de portefeuille très fréquemment, avec peu de coûts de transactions.
Pour mener à bien ce projet, l’intuition ne suffit pas, il faut savoir calculer. Les modèles servent alors à décrire les hypothèses à faire sur les fluctuations (volatilité) du sous-jacent en vue de quantifier le poids d’un portefeuille de couverture. Ils font usage de développements récents de la théorie probabiliste des processus stochastiques et des nouvelles méthodes numériques par simulation, dites méthodes de Monte-Carlo. Les paramètres sont calibrés de manière à évaluer correctement les actifs ou dérivés liquides qui serviront comme instruments de couverture. La durée d’utilisation d’un modèle avec ses paramètres est donc très courte, puisqu’elle est celle qui sépare deux dates de réajustement du portefeuille de couverture, un jour au maximum. L’existence de formules analytiques est évidemment d’un grand intérêt pratique, en diminuant pratiquement les temps de calculs. Un exemple emblématique est la formule de Black et Scholes, qui est utilisée comme outil de comparaison des volatilités entre elles.

L’effet spéculatif des marchés à terme
L’autre aspect dont il faut tenir compte est que les marchés à terme induisent un effet spéculatif très important. Prenons l’exemple du contrat à terme. Son prix est calculé à partir d’une règle d’absence d’arbitrage, c’est-à-dire de cohérence des marchés, ce qui entraîne que les prix des contrats à terme standards ne dépendent d’aucun modèle, à partir des prix d’aujourd’hui. Mais les gens pouvant eux aussi avoir une vue sur ce qui va se passer – c’est cela spéculer – sur telle portion du marché, il est tentant de « jouer » avec les marchés à terme, d’autant qu’on ne paye qu’à la maturité du contrat. Dans les marchés d’options, il y a aussi un effet de levier très important qui peut permettre de gagner (mais aussi de perdre) beaucoup: dans un marché liquide et bien arbitré, on ne peut faire du rendement sans prendre de vrais risques.
LES ÉVOLUTIONS HISTORIQUES
De 1995 à 2007, nous sommes dans l’âge d’or de la formation en finance quantitative avec l’arrivée en masse de scientifiques, d’ingénieurs et de mathématiciens. Aux États-Unis, si les business schools s’intéressaient depuis longtemps à ce sujet, il n’y avait en revanche que peu de formations dans les facultés de sciences. En créant un master en 1989, nous sommes parmi les premiers à avoir ouvert la voie.
Entre 2002 et 2007, après la crise des valeurs internet, on observe une vraie bulle sur les produits dérivés, le taux de croissance du volume de cette activité étant de 30 %. Il a donc fallu être capable de traiter 30 % en plus d’activité dans le même temps, ce qui a permis d’augmenter l’efficacité des méthodologies de calcul (un prix en moins d’une seconde! : c’est le grand apport de la finance de manière générale à d’autres domaines des sciences) et contribué à standardiser les produits et, indirectement, à rendre de moins en moins vigilant sur ce qui pouvait se passer.
C’est le rôle des « quants », des ingénieurs financiers, de proposer des solutions cohérentes avec l’information de marché, implémentables numériquement (ce qui reste un défi malgré les progrès des méthodes et de la puissance de calcul) et acceptables par le trader qui va gérer la couverture du produit dérivé. Comme une couverture parfaite n’existe que rarement, le trader et le risk-manager ont à définir un compromis « acceptable » en termes de risque résiduel, agrégeable avec celui des autres produits dérivés pour une analyse finale globale du risque, en ligne avec les exigences réglementaires.
Au niveau des produits, les principaux risques résiduels sont associés à la liquidité du marché des instruments de couverture, à la qualité des prix de marchés utilisés pour la calibration (prix de transaction contre prix contribués) ou au risque de modèle induit sur les produits complexes. Ces effets sont de plus en plus complexes depuis la crise, du fait des nouvelles contraintes de gestion, collatérisation, compensation… Par contrepartie, les limites d’exposition rendent les problèmes d’évaluation et de couverture très interdépendants et hautement non linéaires, ce qui rend délicate leur intégration dans les systèmes informatiques existants. Le rôle des mathématiques et de la simulation est d’aider à déterminer en simulant quelles sont les approximations acceptables.
CRISE MAJEURE DE L’INDUSTRIE FINANCIÈRE EN 2008
Que s’est-il passé au cours de cette accélération de la bulle ? C’est une période où beaucoup d’argent circule et où le marché interbancaire se concentre énormément. Un certain nombre de changements structurels interviennent aux États-Unis avec l’abrogation en 1999 du Glass- Steagall Act marquant la fin de la séparation de la banque de dépôts et de la banque d’investissement. Or il est courant de voir surgir des problèmes dès lors que des changements sont opérés dans l’organisation du marché. La titrisation de prêts aux particuliers, même très peu solvables, les fameux subprime, devenait possible en toute légalité : ils étaient vendus packagés dans des produits structurés diffusés dans le monde entier. La crise démarre officiellement en 2007 avec le constat de l’excès d’endettement immobilier.
L’innovation financière, notamment sur le crédit, avait atteint une complexité sans précédent. Les agences chargées de la notation des entreprises pour le système bancaire se sont retrouvées en charge de la validation de dérivés très complexes, avec l’agrément du régulateur, encourageant la dissémination de produits très risqués jusque dans les trésoreries des banques. C’est un exemple de « capture » technique par les entreprises contrôlées, phénomène bien connu dans tous les domaines de la réglementation.
Le problème était moins de savoir s’il y aurait une crise mais de savoir quand. Ce n’est pas de l’intérieur du système qu’on peut arrêter les crises, pour de raisons variées. Cela ne peut venir que du superviseur. Les bilans des banques peuvent donner beaucoup d’information si les bonnes questions sont posées. Que fait-on pour amortir la prochaine ?
La crise a conduit à une forte crise de liquidité dans le marché interbancaire, parce que les banques ne se prêtent plus entre elles, d’où un surcoût de liquidité dans les transactions. Par ailleurs, les transactions classiques sont collatéralisées, ou compensées, afin de réduire le risque de défaut. La gestion de la crise a conduit à baisser très fortement le niveau des taux d’intérêt pour toutes les maturités, notamment les maturités de long terme. Le financement de long terme est donc fort peu attractif, alors que la politique de taux bas pèse lourd sur l’assurance et les fonds de pension, ce qui n’est pas sans risque dans une période de vieillissement de la population et d’augmentation du coût en matière de santé et de retraites.
Comment les marchés financiers pourront-ils jouer leur rôle dans la gestion de ces questions fondamentales ? Mais il ne faut pas oublier que réduire les risques dans un secteur contribue souvent à les condenser au deuxième degré dans un autre secteur dont la régulation doit être mise en place simultanément.
1999 marque la fin de la séparation de la banque de dépôts et de la banque d’investissement.
CONCLUSION
Mesurer, couvrir, quantifier, réguler une finance à la microseconde, à la journée, au mois, à l’année ou pour cinquante ans et, de plus, socialement responsable implique un regard neuf sur l’existant, des idées nouvelles, qui dans l’histoire de la finance de ces cinquante dernières années ont souvent été apportées de l’extérieur. À quand une révolution conceptuelle sur les risques et la mesure des risques, de l’ampleur de celle introduite par Black et Scholes?
Les mathématiques comme outil stratégique de l’économie libérale posent évidemment une question majeure, qui interpelle tous les scientifiques travaillant pour les applications, mais évidemment de manière plus visible dans le cas de la finance. Ce débat éthique est évidemment d’une grande importance, et nous essayons de l’aborder avec nos étudiants.
L’éclairage de l’équilibre des écosystèmes, proposé par Dominique Dron, environnementaliste et haut fonctionnaire, ouvre de nouvelles pistes de réflexion. Les éléments essentiels à l’équilibre sont la rétroaction (tendance au retour vers la moyenne), une substituabilité limitée, la diversité et la prise en compte de la vulnérabilité. Aucune de ces caractéristiques n’est présente dans une économie très financiarisée : la croissance exponentielle de la monnaie (et de la dette qui va avec) freine les possibilités de rétroaction; la monétarisation de toute chose donne l’illusion d’une substituabilité généralisée ; la diversité se réduit après chaque crise par suite des effets de concentration, et les flux monétaires ne se retrouvent pas au niveau de l’économie réelle.
Dans l’économie actuelle, on se retrouve bien loin de l’équilibre. Mobilisons-nous contre cet état de fait…
(1) Ce terme anglais désigne l’écart de cours entre le prix auquel on peut acheter une parité et celui auquel on peut la vendre.