Le coût des marchés financiers, Alain Tournebise*

« L’information est une donnée essentielle de la théorie de l’efficience des marchés. […] Un marché est d’autant plus efficient que l’accès à l’information est libre pour tous et peu onéreux » (Verminnem).

Mais dans l’économie réelle, l’information est loin d’être peu onéreuse. L’information, nécessaire à l’efficience des marchés, a un coût. Considérable.

*Alain TOURNEBISE est Ingénieur.


DES INVESTISSEMENTS MASSIFS POUR AUTOMATISER LES TRANSACTIONS BOURSIÈRES
Les places financières mondiales ont consenti des investissements massifs pour automatiser les transactions boursières. C’est au début des années 1980 que l’informatisation des Bourses mondiales se met en place. Les systèmes de cotation électronique arrivent tout d’abord au Nasdaq puis dans les différentes Bourses mondiales.

En France, c’est le 23 juin 1986 que les agents de change ont commencé à négocier certaines valeurs du marché à règlement mensuel sur un système électronique en continu, baptisé CAC et élaboré à partir d’un logiciel acheté à la Bourse de Toronto (CATS). Au départ, cinq valeurs seulement ont quitté la criée pour l’électronique. Cette innovation a pour but de permettre aux places financières de mieux absorber l’important volume de transactions et d’améliorer la liquidité des titres.

Dix ans après les premiers pas de l’électronique, la Bourse de Paris a changé de dimension : le nombre quotidien des négociations est passé de 60 000 à 200 000, et les séances où il se traite plus de 5 milliards de francs, exceptionnelles auparavant, ne sont plus désormais chose rare.  

DEPUIS, LES INNOVATIONS N’ONT PAS CESSÉ
Thomas Peterffy, le fondateur d’Interactive Brokers, a été un précurseur : pour ses traders, il a inventé les tablettes au début des années 1980, bien avant Apple. Il a été le premier à relier les terminaux du Nasdaq à un ordinateur, puis le premier à faire passer des ordres à son ordinateur ; l’ancêtre du trading « haute fréquence » ou trading algorithmique.

Aujourd’hui, ces algorithmes réalisent 70 % des transactions sur les marchés américains et 30 % en Europe. Ultimes avatars du capitalisme financier, ils répondent aux doux noms de Guerrilla, Shark, Blast, Sumo… Inventées par les plus grandes banques du monde, ces lignes de code achètent et vendent des titres en quelques millisecondes, moins de temps qu’il n’en faut pour cligner de l’œil, afin de tirer parti de minuscules écarts de prix, les spreads. Mais, dès lors, les spreads vont sérieusement décroître, le marché devient de plus en plus liquide. Il va donc falloir repousser les limites techniques pour continuer à offrir une compétitivité croissante. Ça commence par la décimalisation, l’augmentation du nombre de décimales. Si sur un produit vous n’avez qu’une décimale, le spread minimal sera donc de 0,1 unité. En augmentant le nombre de décimales, on peut offrir toujours plus de spreads, même s’ils sont toujours plus faibles.

Cette recherche effrénée des spreads nées dans les Bourses des valeurs s’est très vite généralisée à l’ensemble des marchés : matières premières, marchés des changes, etc. Ainsi, le vendredi 30 décembre 2016 a marqué la fin d’une époque : le New York Mercantile Exchange (NYMEX), principale Bourse pétrolière mondiale, a définitivement basculé vers le tout électronique en fermant la criée (trading floor) pour ses transactions pétrolières (contrats financiers et options). Le marché mondial des devises, morcelé en une myriade de places, est de plus en plus intégré. D’après une étude (1), entre 1995 et 2013 la part des transactions sur les devises traitées hors de leur pays d’origine, le trading offshore des monnaies, a augmenté de 21 %.

Mais profiter de ces spreads nécessite de multiplier les accès simultanés à différentes places de marchés. Parallèlement, donc, se sont développées de gigantesques infrastructures de communication qui, si elles ne sont pas entièrement dédiées aux activités financières, ont été largement motivées par les besoins des opérateurs financiers.

Il est significatif que le premier câble destiné à échanger des transactions boursières ait été mis en place dès le 1er décembre 1852, soit à peine plus de deux ans après celui des premiers – et désintéressés – pionniers. Il reliait les Bourses de Londres et de Paris en moins d’une heure, contre trois jours auparavant avec des moyens traditionnels comme le courrier postal. C’est le début d’un grand courant d’affaires. De plus en plus de câbles sous-marins sont posés.

Le 5 août 1858, un câble transatlantique est posé entre Valentia (Irlande) et Trinity Bay (Terre-Neuve) par les navires Niagara et Agamemnon. Le premier message transmis est entre la reine Victoria et le président des États-Unis James Buchanan. La transmission du message de 100 mots dura 1h 7min. Malheureusement, la ligne ne fonctionna que vingt jours, jusqu’au 1er septembre 1858. En 1955, le TAT1 (Trans-Atlantic Telephonic Cable), le premier câble transatlantique téléphonique à technologie coaxiale et à modulation de courant et de fréquences est mis en service. Les coaxiaux connaissent un important développement jusqu’en 1985. Le réseau posé fait alors près de 317 000 km.

L’avènement de la fibre optique a lieu en 1988 avec la pose des câbles TAT8 et TPC3 dans l’Atlantique et le Pacifique. Ce sont les premiers câbles munis de fibres optiques. Commence alors la course à la vitesse et à la bande passante, course largement motivée par la mondialisation financière et le trading haute fréquence.

L’exemple du câble Hibernia est significatif. Entré en service en septembre 2015, pour un investissement de 300 millions de dollars, il relie deux points cardinaux de l’univers de la finance : les Bourses de Londres et de New York. Son exceptionnelle vitesse de transmission a séduit quelques clients très particuliers. Il va permettre d’envoyer des données numériques entre les deux rives de l’Atlantique en un temps record : 59,5 millisecondes (un clin d’oeil prend entre 100 et 150 millisecondes!); c’est 6 millisecondes de moins que la meilleure performance réalisée auparavant. Économiser 5 millisecondes sur le trajet entre Londres et New York coûte la modique somme de 333 333 dollars par mois, soit 20 millions de dollars pour cinq ans d’utilisation, d’après l’agence Bloomberg.

Aujourd’hui, le « cyberespace », ça se passe sous les mers et les océans : des milliers de kilomètres de câbles sous-marins assurent environ 99 % des communications intercontinentales, qu’il s’agisse d’Internet ou de téléphonie. Selon le centre de recherche spécialisé Telegeography, dans le monde il y aurait environ 430 câbles sousmarins en service, étendus sur plus de 1,1 million de kilomètres. Depuis 1989 ont été investis 40 milliards de dollars, soit une moyenne annuelle de 1,5 milliard pour la pose de 43 000 km par an. On le voit, l’information nécessaire à l’efficience des marchés a un coût loin d’être négligeable. 

Evolution de la capacité des câbles de télécommunications

PRIVATISATION DES FONDS… MARINS
Depuis quelques années, les opérateurs télécoms ne sont plus les seuls à investir dans les câbles sous-marins. Grands utilisateurs de ces infrastructures, certains géants américains du Net veulent désormais disposer de leurs propres tuyaux sous les mers. Philippe Piron, président d’Alcatel Submarine Networks (ASN, basé en France), un des leaders mondiaux de la construction, de la pose, de la modernisation et de la réparation des câbles sous-marins, est formel : « Les géants américains du Net représentent aujourd’hui 40 % des commandes du marché, contre à peine 10 % en 2013. » D’ici peu, Facebook et Microsoft vont mettre en service Marea, un câble de 6 600 km entre les États-Unis et l’Europe. L’ouvrage offrira une capacité absolument monstrueuse de 160 térabits par seconde.

Google n’est pas en reste. Grand dévoreur de bande passante, le géant de Mountain View a notamment investi dans Faster, qui relie la côte ouest des États-Unis au Japon. Long de près de 12 000 km, ce câble présente également une capacité impressionnante de 60 térabits par seconde. Le nouveau câble ultrarapide, long de presque 13000 km, aura une bande passante de 120 téraoctets par seconde. Il devrait entrer en service à l’été 2018.

Actuellement, la plupart des câbles du Pacifique vont des États-Unis au Japon. Afin de créer une liaison plus directe avec l’Asie, Google et Facebook vont investir en commun dans le déploiement d’un câble transpacifique de 128 00 km de long, qui reliera Hong Kong à Los Angeles. Le montant financier de l’opération n’a pas été dévoilé.

Cette privatisation des grandes artères de l’Internet pose évidemment un problème politique majeur à la communauté internationale. On est loin de l’Internet bien commun de l’humanité. Elle génère également des tensions stratégiques nouvelles.

Depuis les années 1980, les États cherchent à avoir la main sur ces tuyaux où transitent des monceaux d’informations sensibles, et qui sont à la fois dans le collimateur des militaires et des espions. Lancé au milieu du XIXe siècle, le système planétaire de câbles sous-marins est un pilier fondamental de notre société moderne, puisqu’il permet la circulation d’énergie et de données informatiques. Mais la configuration du réseau est telle qu’elle est sous le « contrôle » du Royaume- Uni et des États-Unis. Edward Snowden a révélé en 2013 une collecte massive de données réalisée par le gouvernement états-unien à partir de câbles sous-marins via, notamment, les programmes d’espionnage Upstream et Tempora. L’ancien employé de la CIA et de la NSA, affirme que si la NSA (Agence de sécurité nationale états-unienne) parvenait à espionner la quasi-totalité de nos communications, c’était en contrôlant la colonne vertébrale d’Internet, à savoir le réseau de câbles et les stations terrestres auxquelles ils aboutissent. Les BRICS (Brésil, Russie, Inde, China et Afrique du Sud) ont donc réagi et sont depuis quelques années à la tête d’un nouveau réseau de câbles sous-marins, échappant au contrôle anglosaxon.

Les BRICS veulent mettre un terme au monopole de Londres et Wall Street sur le réseau de câbles sous-marins. Les 34000 km de câbles des BRICS, d’une capacité de 12,8 térabits par seconde, sont reliés aux câbles WACS (West Africa Cable System), EASSy (Eastern Africa Submarin System) et SEACOM. Ainsi, les cinq pays du bloc ont un accès direct à vingt et un pays africains, qui à leur tour ont un accès immédiat à Internet et aux BRICS.

La course de vitesse est-elle finie ? On peut en douter. D’autres technologies, quelquefois plus anciennes, sont aujourd’hui à l’essai, telles que les micro-ondes, qui s’avèrent plus rapides encore que la fibre pour les communications terrestres. La vitesse de propagation des ondes est en effet plus rapide dans l’air que dans des matériaux tels que les matières plastiques. En outre, elles se propagent en ligne droite, contrairement à la fibre, qui doit très souvent contourner des obstacles.

Une société financière veut construire une tour dans la campagne du Kent afin de réduire le temps de communication entre la City et le continent européen, a rapporté la presse britannique an 2017. La tour et ses 320 m, encore au stade de projet, dépasserait The Shard, le plus haut gratteciel de Londres. La tour projetée utilisera des micro-ondes, qui, pour plus d’efficacité, exigent un horizon dégagé. Une technologie permettant une transmission des ordres plus rapide que par câble permettrait aux ordinateurs présents dans les bourses de gagner quelques précieuses millisecondes.

Enfin, les transactions financières génèrent d’autres coûts, plus difficiles encore à évaluer. Il s’agit notamment de ceux afférents au stockage des données dans des data centers, qui se développent et qui exigent des investissements importants et génèrent des coûts d’exploitation considérables. L’UFE comptabilise en France plus de 180 data centers de ce type, pour un tiers d’entre eux situés en Île-de-France. La facture énergétique de ces sites (électricité pour le traitement des données, mais aussi pour la climatisation) constitue en moyenne 40 % de leurs coûts de fonctionnement. En France, la consommation électrique des data centers aurait atteint près de 3 TWh en 2015, selon RTE, soit davantage que la consommation électrique annuelle de la ville de Lyon.

Et cela ne va pas en s’améliorant. À lui tout seul, le bitcoin requiert une quantité annuelle d’énergie de l’ordre de 53 TWh, légèrement supérieure à celle consommée par un pays comme la Roumanie. On le voit, les marchés financiers, efficients ou pas, sont coûteux et pour le moins peu soutenables.

(1) Barry Eichengreen, Romain Lafarguette et Arnaud Mehl, Cables, « Sharks and Servers : Technology and the Geography of the Foreign Exchange Market », NBER Working Paper, (1no 21884, janvier 2016.

2 commentaires

  1. Cet article d’Alain met aussi en évidence ce que certains, de plus en plus trop nombreux, oublient en parlant seulement de révolution informationnelle, à savoir que celle-ci n’aurait pas d’existence sans les équipements matériels électroniques et informatiques parvenus à converger qui vivent la révolution numérique venant notamment des nanosciences et la réduction concomitante de l’énergie consommée pour les utiliser individuellement mais dont la massification généralisée à tous les domaines entraine à l’inverse une forte augmentation de la consommation d’énergie électrique. De plus les besoins de disponibilité 24H sur 24 et 7 jours sur 7 de beaucoup de ces équipements exigent une production d’énergie électrique permanente et pérenne dans le temps, ce que n’offrent pas certaines énergies renouvelables comme l’éolien et le photovoltaïque solaire, au risque donc de bloquer totalement en cas de panne électrique importante maintes et maintes activités, sauf à mettre en place des équipements de secours électrique partout dont la disponibilité suivant le dimensionnement retenu peut aller seulement de quelques heures à quelques jours.

    J'aime

  2. Alain nous parle dans cet article de la filiale Alcatel Submarine Networks (ASN) dont les établissements se trouvent respectivement à Nozay (91) pour la Recherche-Développement et le commercial et à Calais pour la production, la pose et la maintenance, avec la location d’un navire câblier à France Telecom.

    Au moment de l’absorption du groupe Alcatel-Lucent par le groupe Nokia sous la houlette de notre président actuel alors ministre de l’économie, les syndicats français d’Alcatel Lucent sont parvenus à conserver cette filiale ASN dans le groupe Nokia qui n’en voulait pas et qui n’en veut toujours pas puisque Nokia cherche à s’en séparer à cause surement d’un faible niveau de rentabilité mais aussi du fait qu’il s’agisse d’une filiale française car Nokia s’emploie, sans mauvais jeu de mots, à casser tout ce qui reste d’Alcatel et ensuite d’Alcatel Lucent dans notre pays, continuant ainsi le travail commencé par les dirigeants US d’Alcatel Lucent. Ainsi dans un passé récent ces dirigeants ont enlevé à la France toute son activité d’équipements de fibres optiques pour les réseaux terrestres, ce qui a pour conséquence de fragiliser l’activité d’ASN dont les équipes travaillaient en symbiose avec celles du terrestre, développant des équipements sous-marins à partir d’équipements terrestres.

    J'aime

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

w

Connexion à %s