SlideShare una empresa de Scribd logo
1 de 77
Descargar para leer sin conexión
1
Les systèmes de transactions automatiques
dans les activités de marchés : pratique et
perspectives.
Thomas Raynal
Maître de Mémoire : M. Michel Ruberte
2
Les marchés financiers contemporains et la transaction électronique.............................................................................5
Introduction.............................................................................................................................................................................5
Les marchés financiers contemporains : structures & dynamiques.................................................................................7
L'informatisation des marchés financiers .....................................................................................................................7
La nouvelle cartographie des marchés...........................................................................................................................9
Dynamiques dans l'adoption des plateformes de transactions automatiques.....................................................12
L’activité sur les marchés.....................................................................................................................................................15
Le processus de transaction ...........................................................................................................................................15
Les coûts de transactions................................................................................................................................................18
Trading quantitatif..........................................................................................................................................................19
Trading algorithmique ...................................................................................................................................................21
Trading haute-fréquence................................................................................................................................................23
Focus sur les algorithmes orientés exécution d’ordres .............................................................................................24
Typologie des sources de profit....................................................................................................................................26
Conclusion .............................................................................................................................................................................30
Les transactions automatiques sur les marchés : réseaux, systèmes et applications..........................................................31
Vue d’ensemble de l’architecture d’une plateforme d’échanges..............................................................................................35
Le processus de traitement de flux de cotations...............................................................................................................35
Couches matériels et réseaux ..............................................................................................................................................37
Couche Transport & Session ...............................................................................................................................................39
Anatomie d’une plateforme de transactions automatiques............................................................................................41
Le gestionnaire de flux de cotations.............................................................................................................................42
Système d’opérations, services de stockage et middlewares..................................................................................44
Traitement d’évènements complexes...........................................................................................................................47
Plateforme de transmissions d’ordres..........................................................................................................................50
Prospective....................................................................................................................................................................................................54
Software Defined Sillicon..............................................................................................................................................54
Marchandisation : « A ticker plant in a box ».............................................................................................................56
Cloud computing.............................................................................................................................................................57
RDMA et Infiniband.......................................................................................................................................................58
GPU et calcul distribué...................................................................................................................................................61
Data mining et intelligence artificielle........................................................................................................................63
Quel système de transactions automatiques pour demain ? ......................................................................................................66
Sources ...........................................................................................................................................................................................................68
3
Résumé
Les échanges sur les marchés financiers ont connu ces dix dernières années des transformations très
importantes. Les entreprises de dérégulation des marchés couplées à la montée en puissance des
moyens alternatifs d'accès aux marchés ont bouleversé l'activité sur les places financières : de
nouveaux acteurs, de nouvelles méthodes et de nouvelles stratégies ont vu le jour.
L’automatisation du processus transactionnel s’est faite par étapes sous l’influence de facteurs
conjoncturels, de l’évolution du cadre légal et de l’émergence de standards en matière de protocoles
de communication dédiés. Le trading, dit « algorithmique », est une parfaite illustration du
phénomène. Ce type d'échanges, fondé sur la mise en œuvre de programmes informatiques, touche à
toutes les dimensions de l'activité sur un marché, du séquençage et du routage des ordres, jusqu'à la
mise en œuvre de stratégies d'échanges. L'informatique permet un traitement moins cher, plus fiable
et plus efficace au niveau d'une activité où le jugement humain est moins performant que
l’appréciation quantitative d'une situation. Le trading algorithmique a permis une réduction des coûts
pour les intermédiaires comme pour les investisseurs, et a ainsi gagné en importance et en volume.
La transaction informatisée est devenue la norme sur les marchés et affecte toutes les activités
relatives aux produits financiers, du choix du portefeuille à la passation d’ordres, jusqu’à la
compensation et au règlement. De nouveaux acteurs comme les opérateurs, dits haute-fréquence,
influencent le comportement et la qualité des marchés. Le nombre d’acteurs annexes, c’est-à-dire qui
agissent en support de l’activité du buy-side et du sell-side, a augmenté de manière considérable.
Pourvoyeurs et prestataires de services, constructeurs et éditeurs de logiciels proposent un ensemble
de solutions adapté à chaque type d’opérateurs et donnent l’élan à l’innovation technologique.
La latence est devenue un enjeu considérable dans le choix et le déploiement des systèmes de
transactions automatiques. Le procédé de colocation des systèmes d’un opérateur dans des datacenters
du marché est une réponse naturelle à l’augmentation de la capacité de calcul et au caractère
incompressible du délai dans les communications. La milliseconde est désormais la métrique
d’évaluation de la performance d’un système. De manière à apporter les meilleures réponses à ces
problématiques, les constructeurs capitalisent les évolutions contemporaines du traitement
informatique, le cloud computing et le calcul distribué sur GPU, et redécouvrent des technologies
jusqu’à lors limitées à des secteurs très spécifiques de l’industrie, les ASICs. Les budgets et le volume
du marché justifient une activité intense en recherche et en développement et, de ce fait, suscitent une
concurrence très rude.
Mots-clefs : trading algorithmique, marchés financiers, prospective
4
Abstract
Financial markets underwent a major transformation those last ten years. Financial deregulation, the
rise of alternative liquidity platforms made a radical change in the way people plan and act on
financial venues: it gave rise to a whole new set of participants, methods and strategies.
The automation of the trading process went step by step, heavily influenced by conjunctural factors,
the evolution of the legal framework, and standardization of communication protocols. Algorithmic
trading is a direct product of those contemporary transformations. Based on the execution of
computer programs, algorithmic trading covers every dimension of market activity, from orders
creation and routing to implementation of trading strategies. Computers allow a reduction in
processing costs, increase reliability and efficiency, on a transactional process where quantitative
evaluation, and therefore automated decision making, is superior to human appreciation.
Consequently, algorithmic trading volume soared as well as its importance in the financial system.
Electronic trading is the norm on financial markets, from portefolio management and order execution
to compliance and settlement. New participants like the high frequency trading firms influence both
the market behavior and the quality. The amount of participants acting as a support for the buy side
and the sell side soared: service provision, software publishing as well as hardware distribution offer
a wide range of solutions for any kind of player and set the pace of technological innovation
Latency has become a considerable challenge for automated trading system. Collocation within
execution venues datacenters is a natural answer to the increase in available computing power and
incompressibility of communication delay, topped by the speed of light. Millisecond has now become
the metric for performance evaluation. In order to cope with the ever increasing demand for high
performance systems, manufacturers and publishers look down contemporary innovation, like cloud
computing and distributed computing on GPUs. Long standing technologies are rediscovered and
put forward: the ASICs. The budgets and the market volume inspire an intense R&D process and
thus, competition.
Keywords : algorithmique trading, financial markets, prospective
5
Les marchés financiers contemporains et la transaction électronique
Introduction
Les échanges sur les marchés financiers ont connu ces dix dernières années des transformations très
importantes. Les entreprises de dérégulations des marchés, couplées à la montée en puissance des
moyens alternatifs d'accès aux marchés, ont bouleversé l'activité sur les places financières : de
nouveaux acteurs, de nouvelles méthodes et de nouvelles stratégies ont vu le jour. Les gestionnaires
de portefeuilles utilisent désormais des systèmes informatisés de gestion des ordres pour suivre les
positions et déterminer les transactions souhaitées. Puis, ils se tournent vers les systèmes informatisés
de gestion de l’exécution pour envoyer leurs ordres aux sources de liquidité les plus éloignées.
Parmi les grandes évolutions contemporaines, on note l'accroissement des échanges dits
« algorithmiques » (Algorithmic Trading, AT). Ces types d'échanges, fondés sur la mise en œuvre de
programmes informatiques, touchent à toutes les dimensions de l'activité sur un marché, du
séquençage et du routage des ordres jusqu'à la mise en œuvre de stratégies d'échanges. Le trading
algorithmique a permis une réduction des coûts pour le buy side1 et le sell side, et a ainsi gagné en
importance et en volume. L’analyse des coûts de transactions, en utilisant des ordinateurs pour capter
les mouvements des prix sur et entre les marchés, permet ensuite aux gestionnaires d’actifs de
calculer leurs coûts de transactions pour des stratégies spécifiques de transactions et de prédire alors
leurs coûts en utilisant des stratégies alternatives.
Proportion de l’adoption du trading électronique par classes d’actifs, Aite Group 2008
1 Le buy-side fait référence aux acheteurs de produits financiers, investisseurs ou industriels, gérants de fonds et
éventuellement courtiers. Le sell-side représente les créateurs de produits financiers, généralement les banques
d’investissements, via les introductions en bourse (IPO), la création d’obligations corporate et de manière
générale l’ingénierie financière.
6
Proportion de l’adoption du trading algorithmique par classes d’actifs, Aite Group 2008
Le trading haute-fréquence (High Frequency Trading, HFT) est une déclinaison récente du trading
algorithmique qu’il illustre parfaitement et qui prend un essor considérable. Il capitalise sur les
technologies de pointe, en particulier au niveau des moyens de communication avec les sources de
liquidité (marchés et plateformes alternatives d’échanges). Il définit la performance en termes de
latence entre l'obtention d'une information et l'action qui suit sa consommation. L'unité de temps
relative aux activités d'échanges (prise de position, débouclage et fréquence des échanges) est très
faible. Elle est mesurée en millisecondes sur la partie système et sur la partie applicative, et en
microsecondes sur la couche réseau. Les traders à haute-fréquence utilisent des systèmes
informatiques optimisés pour la performance dans le traitement ainsi qu’une connectique privilégiée
avec les marchés pour à la fois fournir et prendre de la liquidité sur et entre les marchés. La définition
exacte d’un acteur haute-fréquence n’est pas claire, car fonction d’une frontière floue avec le trading
algorithmique dont de nombreux aspects capitalisent eux aussi sur la vitesse d’exécution. Néanmoins,
l’activité d’entités, qui capitalisent sur un rythme très fin dans les transactions de produits financiers
sur les marchés publics, a gagné en importance depuis une dizaine d’années pour devenir
actuellement incontournable. De nombreux opérateurs haute-fréquence agissent comme animateurs
de marché en plaçant des ordres limites sur des carnets d’ordres. Ces ordres passifs fournissent la
contrepartie pour les opérateurs qui souhaitent trouver un acheteur ou un vendeur sur le marché.
L’activité des acteurs haute-fréquence couvre aussi une dimension plus classique des opérations
boursières qui concerne l’arbitrage statistique. Ils capitalisent sur la performance informatique pour
isoler et exploiter des opportunités d’arbitrages sur une ou plusieurs classes d’actifs. Avec des taux de
participation estimés à 30-50 % sur les bourses des actions européennes et qui vont jusqu’à 70 % sur
les bourses des actions américaines, les transactions à haute-fréquence influencent profondément les
marchés actuels.
7
La transaction informatisée est devenue la norme sur les marchés et affecte toute la gamme des
transactions relatives aux produits financiers, du choix du portefeuille à la passation d’ordres, jusqu’à
la compensation et au règlement. De nouveaux acteurs et de nouvelles stratégies, qui emploient la
transaction algorithmique, influencent le comportement et la qualité des marchés.
Les marchés financiers contemporains : structures & dynamiques
L'informatisation des marchés financiers
La baisse du prix du calcul informatique, que ce soit en termes d'acquisition de matériel, de
technologies ou de services, a profondément transformé l'industrie, et en particulier, l'industrie
financière. Dans le même temps, la gestion de portefeuilles et la manipulation de produits financiers
pour répondre à un besoin, qu’il soit spéculatif ou de nature industrielle, sont devenues beaucoup
plus complexes. La globalisation financière, l'interconnexion des économies, l'émergence d'une
myriade de nouveaux acteurs et de nouveaux produits ainsi que les approches novatrices de
l'ingénierie financière, ont rendu l'activité de marché de plus en plus technique.
La disponibilité d’une puissance de calcul bon marché a rendu possible le déploiement de systèmes
automatisés de transactions considérablement plus performants. Dans la plupart des cas, cette
performance était auparavant fondée sur des approches mathématiques, ancrées dans les théories
statistiques de modélisation et de probabilité. Cette nouvelle vague de systèmes automatisés se
concentrait alors sur l’exécution d’une opération. Le système informatique ne prenait pas la décision
de manipuler un certain groupe d’actifs car ces décisions étaient toujours prises par des hommes. Une
fois la transaction décidée, son exécution était confiée à un système d’exécutions automatisé. À
l’origine, il s’agissait de confier le soin d’exécuter des transactions à un système d’exécutions
automatisé pour laisser les traders se consacrer à des opérations plus compliquées. Avec la
généralisation des systèmes d’exécutions automatisés et par la confiance croissante placée en eux,
différentes institutions de transactions ont commencé à expérimenter des approches plus
sophistiquées de l’exécution automatisée. Différentes méthodes et différents algorithmes pouvaient
être déployés pour satisfaire les contraintes de différentes classes de transactions, dans des
circonstances de marché variables. Le concept de transactions algorithmiques était né.
8
Les avantages des algorithmes,TABB Group 2005
Deux grands jalons définissent et balisent le processus d’informatisation.
La volonté des régulateurs américains de favoriser d’abord la transparence dans le processus de
cotations (Order Handling Rules, 1997) et la réduction des écarts offre/demande (spreads) avec la
décimalisation des prix (2001), puis par la compétition entre plateformes d’échanges au moyen d’un
benchmark national (Regulatory National Market System ou Reg NMS, 2004), ont influencés de manière
profonde la conception et la pratique des transactions sur les marchés financiers. L’effet majeur des
législations américaines comme européennes a été l’accroissement progressif du nombre et du type
de plateformes d’échanges. Ce phénomène possède une dynamique qui lui est propre et qui sera
décrit plus loin. De façon à assurer la compétition avec les marchés régulés, ces nouvelles
plateformes capitalisent sur l’informatique de manière à assurer une performance plus importante en
termes de gestion de volumes et des coûts réduits en termes de maintenance qui auront à leur tour un
impact sur les coûts de transactions. L’Europe suivra avec un temps de décalage. La Markets in
Financial Instruments Directive (MiFID), entrée en application en 2007, encourage la compétition entre
plateformes par la reconnaissance de moyens d’accès alternatifs aux marchés de capitaux. Les
marchés de dettes, monétaires ou dérivés, pour des raisons liées au type de produits échangés,
suivent la dynamique des marchés de capitaux avec une intensité pour l’instant bien moindre.
L’adoption d’un standard pour la communication entre systèmes de passages d’ordres, le protocole
FIX (Financial Information eXchange), est un corolaire de la multiplication des acteurs. Initié côté buy-
side de manière à fluidifier les échanges avec le courtage, ce protocole deviendra le composant
essentiel dans les nouvelles plateformes de gestion d’ordres qui vont constituer les premiers systèmes
de transactions totalement automatisés. Toutes les avancées en matière d’informatisation des
processus de transactions orientés marché dépendent, à des degrés divers, du choix d’un moyen de
communication commun entre les systèmes des différents acteurs.
9
La nouvelle cartographie des marchés
Fragmentation & compétition
La cartographie actuelle des plateformes d'échanges est caractérisée par la fragmentation des sources
de liquidité, la compétition pour réunir offre et demande, la pluralité des modes d'accès aux marchés
et l'automatisation des stratégies de transactions.
On isole un phénomène de centralisation/fragmentation dans l’évolution de la cartographie des
plateformes d’échanges de produits financiers. L’évènement marquant au niveau de la
transformation cartographique des marchés est la reconnaissance, par les régulateurs, des plateformes
de transactions électroniques alternatives (Electronic Communication Network, ECN) qui proposent un
service similaire à celui d’un marché régulé. Ils tentent d’attirer l’offre et la demande au moyen de
nouveaux modèles transactionnels (par exemple, la rémunération des apporteurs de liquidité) ou en
proposant une meilleures performance de traitement dans la gestion des transactions2. Ces nouvelles
plateformes, fondées sur des systèmes informatiques, ont contribué en tant que telles, mais aussi par
l’accent mis sur la vitesse du traitement comme indicateur de performance, à la généralisation des
plateformes de transactions automatiques et au trading algorithmique.
Parmi les grands noms de ces nouvelles plateformes, on trouve Better Alternative Trading System
(BATS), fondé en 2006 et Direct Edge produit du rachat de l’ECN Attain par Knight Group en 2005,
depuis devenus des marchés régulés qui concurrencent les marchés d’actions tenus par
NYSE/Euronext et NASDAQ. Les pionniers sont Island racheté par Instinet, le plus vieux ECN, lui-
même racheté par le NASDAQ en 2005 et Archipelago racheté par NYSE/Euronext (NYSE ARCA) et
REDIBook qui fusionne avec Archipelago en 1998. Par ailleurs, Chi-X Europe, un ECN lancé en 2007
avec le soutien de plusieurs grands noms de la banque d’investissements américaine, attaque les
marchés d’actions européens avec un succès notable. Chi-X Global, l’équivalent asiatique de Chi-X
Europe lancé en 2010, propose une plateforme pour les transactions de produits actions australiens et
japonais et vise à terme toute la zone Pacifique.
La généralisation du modèle ECN est suivie par une phase de centralisation alors que les grands
marchés régulés absorbent leurs concurrents dans le cadre d’un grand processus d’informatisation.
Dans le même temps une autre génération d’ECN, les plateformes de transactions alternatives
(Alternative Trading System, ATS dit Dark Pools) voient le jour : l’une des principales, Liquidnet, est
lancée en 2001. Ces plateformes, tout comme les ECN, proposent un service unique : des transactions
fondées sur un anonymat complet – pas de notions de prix, pas de notions de volumes mais
2 Les ECN en tant que tel existent depuis longtemps : Instinet a été fondé en 1969, avec en perspective la
compétition avec le NYSE et le NASDAQ, et a été présenté comme le premier marché d'actions électroniques à
sa fondation en 1971. Le boom technologique qui a accompagné le développement d’Internet est en grande
partie responsable de la banalisation des compétences informatiques et de la réduction du coût des plateformes
matériels et logiciels.
10
uniquement une négociation. Un ATS est une plateforme d’échanges réduite à sa plus simple
expression : un moyen pour l’offre et la demande d’indiquer un intérêt pour un produit.
Division des transactions relatives aux produits actions US par types de plateformes, au premier
trimestre 2010, Tabb Group 2010
Ainsi, on observe un processus de fragmentations suivi d’une centralisation autour des grands pôles
d’échanges. Alors que les principaux ECN deviennent des marchés régulés et que les autres se
marginalisent ou sont absorbés, une nouvelle génération de plateformes alternatives voit le jour et se
développe.
Dé-verticalisation & spécialisation
Les récentes évolutions du système juridique qui encadre les transactions sur les marchés financiers,
Req NMS aux USA et la MiFID en Europe, ont transformé l'organisation des acteurs. Le modèle buy-
side / sell-side où le premier représente les investisseurs institutionnels, les fonds d'investissements et
le second, les banques, a éclaté désormais en une myriade d'acteurs qui proposent des services très
divers. Ces services peuvent être de nature utilitaire, agrégateurs de flux de cotations, processeurs de
flux évènementiels, modèles de stratégies financières, modèles de gestion de risques, modèles
d'exécutions d'ordres, systèmes automatisés de transactions. Il peut aussi s'agir de moyens d'accès
alternatifs aux sources de liquidité qui privilégient l'anonymat dans la transaction, de manière à
limiter l'activité prédatrice d'autres acteurs ou de plateformes d'échanges dédiées entièrement à une
classe d'actifs ou à une catégorie de produits financiers. La croissance de ces nouveaux acteurs est
fulgurante : Chi-X, lancé par Instinet en 2007, couvre 26% des transactions sur l'index britannique
FSTE 100 et globalement 15% des transactions sur les produits actions européens. L'investisseur peut
désormais choisir tous les composants de son processus de transactions.
11
Les avancées en matière de communication électronique et de calcul informatique vont, en parallèle
aux évolutions de la législation contemporaine, permettre une dé-verticalisation du système des
acteurs financiers. Les coûts d'entrée moindres pour l'acquisition et la mise en œuvre d'une
performance technique au moins équivalente à celle des grands acteurs du monde des échanges
financiers vont contribuer à une spécialisation de l'activité et à l’émergence de nouveaux acteurs. Les
principales institutions vont déléguer le volet échanges à des acteurs spécialisés sur une dimension
très spécifique du processus d'échanges. De fait, les grands pôles de l'architecture du système
financier actuel, Londres, New York, Singapour et Tokyo sont concurrencés par l'émergence de
systèmes d'échanges mis en œuvre par des entreprises privées qui ont fait l'investissement d'une
infrastructure technologique et d'une main d'œuvre qualifiée.
L’adoption de plateformes de transactions automatiques est fonction d’une dynamique qui vise à
réduire les coûts d’opérations et à augmenter la capacité à traiter un volume d’ordres en constante
augmentation. Ce phénomène a, en retour, transformé l’activité sur les marché, spécifiquement en
termes de vitesse, de volumes d’actifs associés à un ordre et de volumes de transactions.
Les tendances actuelles sont claires. D’une part, les transactions électroniques sont devenues la norme
et d’autre part, le trading algorithmique adapté à un système de transactions très rapide sur
plateformes multiples est de plus en plus utilisé. Les investisseurs, firmes ou particuliers, ont accès de
plus en plus facilement aux plateformes d’échanges. Les plateformes de transactions alternatives
12
(ATS) deviennent de plus en plus attractives et captent de plus en plus de liquidités. Cette flexibilité
dans l’accès aux marchés, couplée à une technologie très abordable et facilement disponible, a
contribué en retour à augmenter le type et le nombre d’acteurs. Ceux-ci sont autant des opérateurs de
marché, les firmes de HFT comme exemple, que des prestataires de services, des constructeurs ou des
éditeurs de logiciels. On note ainsi un phénomène de marchandisation des compétences et des
systèmes associés aux transactions automatiques sur les marchés. Ce dernier est décrit plus
précisément par la suite.
Dynamiques dans l'adoption des plateformes de transactions automatiques
Le cadre légal actuel : Reg NMS et MiFID
La législation des marchés régulés américains a été bouleversée par la Reg NMS qui a posé le concept
de meilleur offre/meilleure demande (National Best-Bid Best-Offer - NBBO) au niveau national. Les
marchés doivent désormais router les ordres sur la plateforme qui propose la meilleure offre ou
demande ou annuler l'ordre. En Europe, la MiFID a introduit un principe similaire. Cependant,
contrairement à la Reg NMS, l'obligation de router les ordres en fonction du couple offre/demande
n'est pas imposée. Les plateformes d'échanges où les intermédiaires doivent néanmoins "tout faire
pour obtenir" la meilleure transaction pour leur client, ce qui en pratique revient, soit à une évaluation
en amont, au choix de la meilleure plateforme pour l’échange d’un actif donné, soit à un système
similaire à celui mis en place aux US avec une évaluation ordre par ordre et en temps réel. La
première option est de loin la plus répandue compte tenu du coût important de la seconde. La MiFID
encadre l’existence et l’activité de ces plateformes par une structure juridique : les ECN américains
sont caractérisés comme Multilateral Trading Facilities (MTS) et les ATS comme Systematic Internalizer
(SI).
La convergence des différents facteurs : puissance de calcul peu onéreuse, stratégies de transactions
informatiques intensives, exécution automatisée et accès direct au marché, a apporté aux acteurs du
marché, au cours de ces dernières années, des avantages et des bénéfices qui leur permettent
d’identifier et d’exécuter des transactions, le tout en quelques secondes seulement.
Straight Through Processing : l’informatisation complète du processus de transactions
L'informatisation des marchés financiers a débuté il y a une quarantaine d'années, au début des
années 1970, lorsque le NASDAQ a le premier déployé un système de cotations automatiques pour
son activité d'animation de marché. En Europe, les premiers services informatiques ont été créés au
cours des années 1980 et il a fallu attendre les années 1990 pour que les plateformes d'échanges
deviennent complètement automatiques. Le cœur du processus d'informatisation des marchés est
l'implémentation d'un carnet d'ordres centralisé pour les ordres limites qui définit de manière
13
quantitative l'intérêt porté par les acteurs à un actif et qui est accessible par tous les acteurs. Cette
transparence a contribué à réduire la dissymétrie entre les acteurs en matière d'information, à
favoriser la liquidité des plateformes d'échanges et la détermination des prix.
Le Straight through processing (STP) est une conception du processus de transactions relatif aux
produits financiers sur les opérations trade et post-trade qui visent à automatiser l’intégralité des
actions. Les processus de transactions, de contrôles, de compensations, de règlements et de
comptabilisation sont concernés avec l’objectif de limiter le risque et de réduire les coûts. Le concept
STP est un ensemble de processus et de technologies utilisé pour créer une infrastructure qui
permette la gestion des transactions sur les marchés en temps réel. L'impulsion initiale pour une
approche STP est venue de la régulation américaine (SEC) et de la Securities Industry Association (SIA)
qui ont proposé de réduire les opérations de compensations de trois jours à une journée. Cet objectif
s'est par la suite étendu pour inclure l'intégralité du cycle d'une transaction sur le volet trade/post-
trade.
Le volume de transactions est en augmentation constante et le risque associé à ces transaction- crédit,
liquidité, contrepartie - devient de plus en plus maîtrisable, hors système de traitements temps réel.
Par ailleurs, l'impact combiné de l'expansion de la transaction électronique, de la standardisation des
produits financiers et d'une régulation axée sur la réduction des spreads, a contribué à réduire les
marges des grands opérateurs. Le concept STP est passé de l'expression d'une nécessité à un impératif
pour l'industrie financière. Il témoigne de l'exclusivité de la transaction électronique dans les
opérations contemporaines sur les marchés financiers dont la qualité, en tant que processus
informatique, représente le facteur élémentaire dans la performance d'un opérateur. La qualité du
système informatique d'un opérateur de marché contemporain ne détermine pas sa performance, par
contre, la performance d'un acteur est fatalement construite sur un système informatique performant.
L’accès direct au marché
Le modèle classique, courtage ou intermédiaire référencé par un marché qui prend en charge les
transactions sur les plateformes d'échanges, n'est plus l'unique modèle. L'accès direct au marché
représente un canal mis à disposition par un courtier pour un investisseur afin qu'il puisse opérer
directement sur un marché via les infrastructures du courtier, ce dernier ne conservant que les
opérations de gestion du risque.
L'accès sponsorisé, une déclinaison du procédé d’accès direct au marché (Direct Market Access -
DMA), représente une location de référencements d'un courtier sur un marché (Sponsored Access - SA).
L'investisseur peut, dès lors, agir avec ses propres infrastructures et choisir ou non de déléguer la
gestion du risque au courtier (Filtered SA contre Naked SA). Dans ce dernier cas, le courtier reçoit juste
une notification des différentes transactions. Le grand avantage d'un modèle DMA est un temps
14
d'exécution moindre pour chaque ordre. De fait, il s'agit d'une configuration tout à fait adaptée aux
échanges algorithmiques.
L’accès DMA est le produit d’un long processus d’automatisation des transactions du côté des
investisseurs. Initié par la normalisation des échanges, avec notamment le protocole FIX, accéléré par
l’inter connectivité des systèmes, le développement des ECN et la progressive mise à l’écart des
transactions par opérateurs humains, DMA représente la dernière étape d’un processus amorcé il y
bientôt 20 ans.
Les modalités de rémunérations des plateformes d'échanges, en termes de volumes ou de moyens,
ont aussi influencé l'écosystème des marchés financiers. La concurrence entre les grandes places
financières et les plateformes d'échanges alternatives, particulièrement sur les marchés actions, a
contribué à revoir à la baisse les systèmes de commissionnement et à mettre en place des modes de
tarification incitatifs. Le modèle en la matière est maker/taker dans lequel le preneur de liquidité, à
l'achat ou à la vente, a pour charge le règlement de la commission. L'initiateur de ce modèle est l'ECN
Island, à la fin des années 1990.
L'informatisation des marchés a renforcé l'exigence de rapidité dans le passage d'un ordre.
L'évolution d'une situation est effectivement fonction d'un rythme très soutenu et le risque
d'obsolescence dans l'exécution d'une stratégie est donc beaucoup plus marqué. L'industrie
15
informatique, constructeurs et développeurs, a pris acte de ce nouveau marché et s'est développée
dans des proportions très importantes. En parallèle, les marchés ont ouvert leurs datacenters aux
opérateurs et vendent la possibilité de réduire le délai de transmission à fraction négligeable
(colocation). Le fonctionnement de ce système est développé plus loin. Enfin, l’origine de ces
évolutions récentes est liée aux nouvelles régulations des marchés qui ont défini comme règle
première, pour toute transaction de produits financiers sur les marchés régulés, le routage vers la
source de liquidité qui propose le meilleur prix. Ces nouvelles régulations ont ainsi entraîné la
fragmentation des marchés.
L’activité sur les marchés
La technologie a contribué à transformer en profondeur l'activité sur les marchés financiers.
L'automatisation du processus transactionnel, de l'initialisation jusqu'à la confirmation d'un ordre,
l'utilisation massive de systèmes informatiques d'exécutions d'ordres qui assurent la gestion, la
notification et le routage, ont placé l'informatique au cœur de l'activité. Depuis une dizaine d'années,
le développement de stratégies fondé exclusivement sur des moyens informatiques, associés ou non à
des modèles mathématiques, a placé la vitesse d'exécution comme facteur essentiel dans la réalisation
d’un profit.
Le processus de transaction
Les marchés financiers se distinguent par les classes d’actifs prises en charges et par les modalités
d’échanges. Les classes d’actifs couvrent les produits actions (equities) qui représentent une part d’une
entreprise qui a rendu public : son capital, les produits de dettes (fixed income) étatiques ou industriels
(corporate), les devises (foreign exchange), les matières premières (commodities), le financement court-
terme sur le marché monétaire (money market) et les dérivés (derivatives), les produits constitués sur la
base d’un sous-jacent qui appartient aux grandes classes d’actifs citées.
Les plateformes d’échanges de produits financiers se distinguent d’abord en fonction des modalités
d’échanges.
Le système dit « mené par les cotations » (quote driven) repose entièrement sur l’activité de teneurs de
marché qui réceptionnent les ordres et émettent des cotations. L’opérateur peut choisir dès lors,
d’acheter ou de vendre au prix fixé ou de négocier avec le teneur de marché.
Le système dit « mené par les ordres » (order driven) est fondé exclusivement sur un carnet d’ordres
alimenté par les opérateurs. Le rôle du teneur de marché n’est pas indispensable. Les opérateurs
peuvent placer une grande variété d’ordres. On peut citer :
16
• les ordres aux marchés qui demandent ou proposent une certaine quantité au meilleur prix et
qui sont systématiquement exécutés pour peu que le volume à l’achat ou à la vente
corresponde, et
• les ordres limites qui donnent un prix à l’achat ou à la vente associé à une quantité et qui ne
sont exécutés que s’il existe une contrepartie.
Les marchés actuels sont plus proches, dans l’ensemble, du modèle order driven, compte tenu des
récentes législations américaines et européennes qui visent à unifier le plus possible l’activité des
marchés. Néanmoins, de nombreuses plateformes dont le NYSE/Euronext et le NASDAQ, conservent
un système hybride. Enfin, il existe une classe annexe de marché fondée sur la négociation entre
opérateurs. Le rôle de la plateforme est, dès lors, limité à la possibilité de transmettre un indicateur
d’intérêt d’un opérateur anonyme au marché. Il s’agit du mode de fonctionnement des ATS.
Le protocole transactionnel peut beaucoup varier d’une place à une autre et toucher les volumes
minimums, les écarts minimums, les disponibilités ou encore les coupe-circuits pour prévenir un
changement brutal dans le statut de l’offre et de la demande. Invariablement, le dénominateur
commun touche à la précédence des ordres, fondé sur la qualité du prix puis sur l’horodatage
(timestamp) de l’enregistrement de l’ordre.
Les acteurs des marchés financiers varient beaucoup en fonction de la nature des produits échangés.
Les marchés de capitaux, orientés investisseurs, sont par nature très différents des marchés de dérivés
qui concernent majoritairement les producteurs et les industriels désireux de couvrir un risque par le
biais d'intermédiaires. On peut néanmoins distinguer une typologie commune :
• Les opérateurs : il s'agit des acteurs des marchés financiers, à l'offre ou à la demande, qui
choisissent de vendre ou d'acheter un risque. Sur les marchés de capitaux, on trouve les
investisseurs institutionnels (compagnies d'assurance, fonds de pensions, agences
gouvernementales) et les fonds d'investissements.
• Les intermédiaires : ils représentent des acteurs passifs dont l'action est déterminée par
l'activité des opérateurs et dont le rôle est de favoriser la rencontre de l'offre avec la demande.
Il s'agit typiquement des courtiers (broker-dealer) ou des banques d'investissements qui
agissent pour le compte de clients
• Les infrastructures : soit les plateformes d'échanges, régulées ou alternatives, les chambres de
compensations, la myriade de fournisseurs de services informatiques, les constructeurs, les
éditeurs et les hébergeurs.
L’activité d’un marché est déterminée par la relation entre le distributeur (dealer) et le client. Le
distributeur est généralement un courtier qui possède les accréditations pour agir sur une plateforme
d’échanges. Dans cette configuration, le client peut faire appel au courtier pour exécuter une
transaction : il s’agit du modèle distributeur à distributeur (inter-dealer). Les grands marchés régulés,
NYSE/Euronext, NASDAQ, LSE, CME, CBOE, pour ne citer que ceux-là, fonctionnent de la sorte. Les
17
transactions peuvent aussi s’effectuer en dehors d’un marché régulé (Over the Counter - OTC) avec ou
sans plateformes d’échanges et touchent, en général, les produits monétaires, les dérivés ou des
produits très spécifiques, typiquement les produits structurés autour des dettes des ménages. Le
modèle distributeur-client représente une alternative qui met directement en relation l’offre et la
demande sur une plateforme dédiée.
Les ECN qui autorisent à la fois les communications distributeurs/distributeurs, distributeurs/client et
client/client fonctionnent comme un marché classique sur la base d’un carnet d’ordres par actifs. Les
plus anciens, comme BATS ou Direct Edge, sont devenus des marchés régulés à part entière. Enfin,
des sources de liquidité alternatives, les ATS, fondées sur la négociation ou sur un principe d’alertes,
permettent une relation entre offre et demande fondée sur un anonymat complet. Les ATS sont un
phénomène nouveau qui représente ce qu’était au début des années 2000 les premiers ECN : un
moyen d’accès à la liquidité original et attractif. Les ECN proposaient alors des transactions plus
rapides à un coût moindre. Certains proposaient même un nouveau système de rémunération pour
les apporteurs de liquidité. Ils transformèrent durablement l’activité sur les marchés financiers et
furent, pour beaucoup, finalement absorbés par les grandes places financières.
Une transaction sur un marché est généralement divisée en trois étapes :
• Pre-trade - Il s’agit de la phase d’analyse durant laquelle un opérateur, personne ou machine,
prend la décision d’exécuter un ordre. Cette phase couvre le travail de recherches, de tests et
d’évaluations dans le cadre de l’élaboration d’une stratégie d’actions sur les marchés.
18
• Trade - La demande d’exécution est transmise à un courtier ou au système en charge de la
connexion avec une plateforme d’échanges. Les modalités d’exécution de l’ordre sont à la
charge du courtier, si un intermédiaire est utilisé, qui va rendre compte à son client de la
performance de l’opération.3 L’intermédiaire va transmettre la demande à la plateforme
d’échanges, le marché, qui va intégrer celle-ci au système de gestion des ordres qui prend en
charge les carnets. Généralement, les opérations de validation de la conformité (compliance) et
d’évaluation du risque sont assurées à ce niveau.
• Post-trade – Une fois l’ordre placé sur un marché et exécuté, celui-ci est notifié au courtier qui
notifie à son tour le client. La nouvelle position est attachée à un portefeuille et prise en charge
par les systèmes comptables. Les opérations de compensations (clearing) sont établies, en
particulier les appels de marges pour les contrats à termes, et la livraison (settlement) des
produits est assurée.
•
Les coûts de transactions
Les coûts liés à une opération sur une plateforme d’échanges sont de nature très diverse et peuvent
avoir un impact significatif au niveau du retour sur investissement. Il peut s’agir de coûts liés au
processus d’investissement, soit les taxes éventuelles ou le coût lié au délai entre l’envoi d’un ordre et
à la notification effective sur la plateforme d’échanges, en fonction de l’évolution du prix de l’actif. Il
peut aussi s’agir de coûts liés à l’exécution de la transaction : la commission de l’intermédiaire ou la
rémunération de la plateforme d’échanges. Enfin, les coûts liés à la transaction couvrent le paiement
du spread et l’impact sur le marché. Ce dernier volet est fondamental : les premiers systèmes de
transactions automatiques et, de fait, les premiers algorithmes avaient pour objet la gestion du
passage d’ordres et la limitation de l’impact sur le marché.
L’analyse pre-trade se focalise essentiellement sur les données relatives aux prix – la volatilité - et sur
la liquidité de l’actif. Un modèle permet l’évaluation d’un coût lié à la transaction et donc le choix
d’une stratégie d’exécution appropriée. L’analyse post-trade s’attache à l’évaluation de la performance
de l’exécution et à la mesure du coût réel. Généralement, il s’agit de la comparaison d’un indicateur
du coût lié à la transaction avec un benchmark, typiquement un benchmark intraday type VWAP.
Le trading algorithmique, en tant que tel, est un moyen de mise en œuvre de stratégies de transactions
destinées à limiter le coût de transactions sur un volume d’ordres important. Les courtiers proposent
ainsi une multitude de plateformes composée de systèmes d’exécutions d’ordres performants et
d’une palette d’algorithmes adaptée à un besoin particulier. Ces systèmes, baptisés EMS pour
Execution Management System, représentent l’évolution naturelle des premiers systèmes de gestion
d’ordres, orientés back office (Order Management System - OMS) qui sont à l’origine de l’informatisation
3 L’exécution d’un volume d’ordres important est une opération complexe compte tenu de l’impact sur
l’équilibre actuel de l’offre et de la demande.
19
des différents acteurs concernés par les transactions de produits financiers. Actuellement, avec le
succès rencontré par les ATS, les EMS sont confrontés à un nouveau défi qui est d’intégrer des
sources de liquidité difficiles à interfacer au processus de sélection des plateformes et de routage des
ordres.
Trading quantitatif
Le trading dit quantitatif est un modèle décisionnel pour opérer sur les plateformes d’échanges de
produits financiers. En effet, une unité de trading quantitatif met en œuvre un ou plusieurs modèles,
produits d’un travail de recherche plus ou moins long4et validés par une série de tests sur un volume
de données important. Une stratégie représente l’implémentation d’un modèle.
Une unité de trading quantitatif est composée de plusieurs modules.
Module de stratégies
Le module de stratégies produit une demande d’exécution d’ordres en fonction d’une logique.
L’ordre est lui-même une transaction qui produit un bénéfice et qui accepte un risque.
L’objet du module de stratégies est de proposer une prospective investigatrice. En ce sens, il ne s’agit
que d’un élément du système de transactions automatiques.
La typologie des modèles s’appuie sur le type de données qui va déterminer le produit de la logique
du modèle. Ces données peuvent être le prix ou les informations fondamentales associées à un actif.
4 Certains modèles ou déclinaison de modèles existants sont produits sur un laps de temps très court. Les unités
de trading quantitatifs industrialisent souvent la production de modèles (recherche, tests et déploiement) dans
un processus intégré.
20
Pour chaque approche, il existe un certain nombre de branches primordiales qui vont constituer
chacune le cœur d’un modèle.
En fonction de l’historique du prix d’un actif, il est possible de déterminer un courant ascendant ou
descendant. Une approche élémentaire consisterait à comparer deux moyennes mobiles sur une plage
temporelle différente (longue et courte) et de définir une tendance de manière à capitaliser dessus.
Dans la même optique, la théorie associée au concept de « retour à la moyenne », considère l’existence
d’un centre de gravité autour duquel évolue un prix. Si celui-ci est isolé, un opérateur peut capitaliser
à la vente ou à l’achat sur la différence actuelle entre le prix de l’actif et son prix moyen. L’arbitrage
dit statistique, une stratégie qui sera détaillée plus loin, constitue un bon exemple. Il capitalise sur un
écart anormal entre deux actifs dont le prix est étroitement corrélé. Le travail de l’opérateur a pour
objet de définir l’actif surévalué ou sous-évalué.
Les modèles constitués sur la base de données fondamentales vont définir une valeur associée à
l’actif. Contrairement à un analyste classique qui va s’attacher à une étude de l’actif et de son contexte
pour déterminer sa valeur, l’approche quantitative vise à déterminer précisément la valeur : il peut
s’agir, par exemple, d’un taux d’intérêt ou d’un dividende. Un exemple de cette approche est la
stratégie dite d’écart sur le rendement qui vise à déterminer pour deux actifs une valeur donnée et à
vendre le moins intéressant de manière à financer l’achat du second. D’autres méthodes d’évaluation
de la valeur existent sur la base de la croissance historique ou sur une évaluation quantitative de la
qualité d’un actif, le rapport dette/bénéfice d’une entreprise par exemple.
Module de gestion du risque
La gestion du risque représente l’introduction d’une limite au risque auquel s’expose une stratégie en
termes de volumes et de types. Il s’agit d’un contrôle effectué sur la sélection et la conservation de
positions sur un ou plusieurs marchés de manière à ne prendre en charge qu’un risque gérable et
profitable.
Ce module permet la supervision des opérations exécutées par les différentes stratégies et la
quantification du risque associé au produit de chaque opération, idéalement en temps réel.
Module d’exécution des transactions
Le module de transactions a pour charge d’évaluer le coût d’une transaction associée à l’exécution
d’une stratégie. Tout comme le module de stratégie, il propose une évaluation et n’est pas en charge
de l’exécution. Il détermine le coût que représentent les commissions versées à l’intermédiaire, s’il
existe, le différentiel éventuel entre le prix à la création d’un ordre et le prix à l’exécution sur la
plateforme d’échanges (slippage) ainsi que l’impact de la transaction sur le marché. Plusieurs modèles
21
élémentaires existent qui représentent avec plus ou moins de précisions le coût associé à une
transaction. La précision du modèle est intimement liée à la charge de calcul.
Module de construction de portefeuilles
Le module de construction de portefeuilles a pour rôle d’arbitrer entre le produit du module de
stratégies, du module de gestion de risques et du module d’exécution de transactions.
Il existe deux grands modèles de construction de portefeuilles.
Le premier est fondé sur un ensemble de règles gouverné par une heuristique déterminée par
l’opérateur. Il est possible d’isoler quatre types en fonction de la priorité ou de l’exclusivité accordée
à un facteur.
• La valeur intrinsèque d’une stratégie en fonction du contexte, soit le choix de considérer qu’un
signal a permis de déterminer une tendance, par exemple de type trend following, et qu’il est
suffisant pour déterminer une action.
• Le poids associé au risque, soit une pondération de la valeur déterminée pour un actif avec le
risque correspondant de l’intégrer dans le portefeuille.
• Le profit potentiel, soit la possibilité de déterminer le choix d’une position en fonction du
profit supposé de l’acquisition de cette position.
• Un système décisionnel fondé sur la combinaison de modèles qui prend, de fait, la forme d’un
arbre de décisions où le produit final et la quantité d’un actif dans un portefeuille, sont
fonction de l’interaction de plusieurs modèles, typiquement trend//value.
Le second est fondé sur une fonction d’optimisation. Une fonction d’optimisation a pour objectif de
maximiser la valeur du portefeuille en fonction d’un certain nombre de paramètres tels que le profit
espéré ou la volatilité anticipée et d’un panel d’actifs.
Trading algorithmique
Le trading algorithmique est un moyen d'action fondé exclusivement sur des plateformes
informatiques constituées d'une logique d'actions, d’un algorithme et d'un objectif (passage d'ordres,
génération d'un ordre en fonction d'une situation).
Un algorithme est défini en fonction d'une stratégie et il est constitué de plusieurs éléments. Le
premier élément est un benchmark : c'est-à-dire une mesure de la performance de l'algorithme. Il peut
22
s'agir d'une exécution sur une période historique donnée, comme la journée pour un algorithme de
type VWAP ou les secondes précédentes pour un algorithme de routage d'ordres. Le second élément
est une logique : c'est-à-dire un module de prise de décisions. Enfin, un support de stockage de
données, quel que soit son format, qui peut alimenter la logique en données sur la situation actuelle et
surtout permettre le test (back-testing) de nouvelles stratégies ou la modification d’algorithmes
existants.
Les caractéristiques du trading algorithmique sont :
• L’intégration d’un système décisionnel préprogrammé et utilisé par des professionnels.
• Une supervision de l'activité des marchés en temps réel.
• Un système automatisé de passage et de gestions des ordres sans intervention humaine dans
l'exécution.
• L'utilisation d'un procédé DMA ou d'un procédé de colocation pour l’accès au marché.
• Une action sur des classes d'actifs très liquides, typiquement les produits actions.
La typologie des algorithmes est fonction de l’objectif associé à son exécution. On peut isoler les
catégories suivantes :
• Les algorithmes orientés génération de profits (alpha). Opportunistes, ils sont orientés
bénéfices à court terme et fondés systématiquement sur une analyse temps réel. Ils ont pour
objet de tirer profit des conditions actuelles du marché. Dans cette catégorie, on peut citer les
modèles d’animation de marché automatique, les stratégies event-driven qui détectent une
rupture micro ou macro dans l’actualité et qui capitalisent sur son impact sur les marchés ou
les différentes modalités d’arbitrage.
• Les algorithmes orientés exécution d’ordres. Ils visent le meilleur résultat pour le passage d’un
ordre en termes de prix/unité. Ces algorithmes visent une balance entre l’exécution totale de
l’ordre et les contraintes au niveau prix, liées à l’impact sur le marché. Typiquement, ce type
d’algorithmes fonctionne sur la base de contraintes fournies par l’utilisateur, comme par
exemple : achat de N unités de l’actif Z avec le benchmark J+1 VWAP au prix limite J-1 Low. Compte
tenu de l’importance de cette catégorie, ce point sera développé plus loin.
• Les algorithmes orientés routage. Ils permettent le séquençage et le routage d’un ordre en
fonction de critères spécifiés par l’utilisateur. On peut citer le prix ou la vitesse d’exécution. De
plus, ils permettent aussi une évaluation fine de la plateforme d’échanges et notamment de la
qualité de la liquidité via un mécanisme de tests. Les plus performants concernent aussi les
ATS.
• Les algorithmes orientés sur la capture d’informations. Ils ont pour objet le filtrage et le
séquençage de données d’actualités ou historiques à partir de sources et de supports
multiples. Il peut s’agir de modules dans le cadre de stratégies alpha ou d’une aide à la
décision pour les opérateurs humains.
23
Trading haute-fréquence
Le HFT est un phénomène relativement nouveau dans le monde de l'AT. Il n'existe pas de définition
établie. Les caractéristiques de cette activité sont :
• Un volume d'ordres et une fréquence de passages d'ordres très importants.
• Un volume très important d'annulations d'ordres.
• Une activité essentiellement localisée sur des petites entreprises propriétaires (pas d'apports
de capital).
• Les actifs achetés ne sont conservés que sur une très petite période et les positions sont
débouclées avant la fermeture des marchés.
• Un profit très faible sur chaque transaction.
• Un impératif de rapidité dans la transaction.
Les firmes HFT sont généralement propriétaires. Elles opèrent à partir d'un capital qui leur est
propre. Elles constituent autour de 48% des acteurs HFT, comme Getco, Optivern et Tradebot. 46%
sont des desks qui dépendent de courtiers ou de distributeurs comme Goldman Sachs ou Citigroup et
6% sont classés comme hedge-fund (capital fourni par des clients), Citadel ou Renaissance
Technologies. Les acteurs HFT opèrent sur toutes les classes d'actifs et sont particulièrement présents
sur les produits actions très liquides.
Le HFT n'est pas une stratégie mais un moyen constitué à partir d’une technologie performante sur
lequel des stratégies ont étés élaborées ou adaptées. Sur la partie animation de marchés, les systèmes
HFT permettent de minimiser le risque dans la création de cotations et d'agir sur un spread très fin. La
partie arbitrage, dépendante par nature de la rapidité dans l'opération, capitalise naturellement sur la
performance des systèmes HFT.
Les acteurs HFT sont devenus incontournables sur les marchés électroniques. Les estimations
actuelles, sur les marchés d'actions au niveau mondial, donnent un volume supérieur à 50% pour les
transactions dites haute-fréquence. Les perspectives de l'autorité des marchés financiers américaine
(SEC) et du Boston Consulting Group estiment que ce chiffre atteindra 70% aux USA comme en
Europe d'ici 2015. Le Committee of European Securities Regulators donne pour les acteurs haute-
fréquence, en pourcentage de l'activité globale d'une place, 13% pour le NASDAQ et 40% pour Chi-X
Europe - le marché d'actions alternatif européen.
24
Les algorithmes orientés exécution d’ordres
On distingue trois grandes catégories d’algorithmes en fonction de l’objectif de l’exécution.
Les algorithmes qui visent à limiter l’impact d’un volume d’ordres important sur le ou les marchés
cibles de manière à conserver un prix proche du prix initial durant la transaction et à masquer autant
que possible une brusque modification dans l’offre ou la demande. La première génération comprend
les algorithmes fondés sur un prix moyen (TWAP, VWAP) et dont l’efficacité est évaluée par un
benchmark.
• Time Weighted Average Price (TWAP) : il s'agit de la division d'un volume d'ordres important
sur un même actif et sur une plage de temps séquencée en intervalles identiques. L'algorithme
séquence le volume avec l'objectif de minimiser l'impact sur le marché et la détection de
l'exécution par les autres acteurs.
• Volume Weighted Average Price (VWAP) : il s'agit d'un procédé par lequel une transaction sur
un gros volume va tenter d'imiter l'évolution normale, comme par exemple l’historique du
prix d'un actif de manière à, tout comme TWAP, minimiser l'impact sur le marché. VWAP
représente aussi un benchmark pour l'exécution d'un volume d'ordres et permet, à l'aide
d'autres indicateurs, de définir une performance par rapport au VWAP du jour ; la théorie
voulant qu'une valeur inférieure constitue une transaction performante.
La seconde génération, plus évoluée, prend en compte des paramètres dynamiques absents dans la
première génération et qui favorisent le caractère opportuniste. Contrairement à la première
génération qui fonctionne sur une base statistique et dont l’exécution est prédéterminée, la seconde
génération possède un degré d’autonomie et réagit en fonction de l’évolution du marché.
L’algorithme Percentage of Volume (POV) illustre le principe : il est fondé sur une exécution, à
intervalles réguliers, d’un pourcentage du volume des unités d’un actif échangé au cours de ces
intervalles.
Les algorithmes orientés coût visent à limiter le coût associé à une transaction avec la notion de risque
temporel défini comme le risque naturel que le prix s’éloigne du prix initial (Implentation Shortfall,
Adaptative Shortfall, Market Close).
Enfin, les algorithmes opportunistes intègrent tout un ensemble de paramètres dynamiques qui
détermine totalement leurs comportements. Ils opèrent ainsi en fonction du prix, de la liquidité
disponible et du coût de la transaction.
L’évaluation relative au choix d’une modalité de transaction, d’un algorithme donné ou d’une
combinaison d’algorithmes est déterminée par le choix d’un benchmark et d’une méthode
d’évaluation de la performance ainsi que par le degré d’aversion au risque. Le principe directeur veut
qu’une exécution rapide garantisse un coût évaluable mais élevé et qu’une exécution en dégradé
permette la réduction du coût de transaction au détriment d’un délai plus important et d’une
25
incertitude relative à l’évaluation du coût global. Le choix d’une méthode est aussi fonction d’une
analyse du contexte d’exécution. Les principales variables sont le volume associé à l’ordre, la
dynamique du prix, la volatilité du prix et la liquidité de l’actif.
A ces grandes familles d’algorithmes, on peut ajouter un certain nombre de procédés tactiques qui
visent à exploiter une situation, un contexte ou une opportunité. Contrairement à un algorithme
d’exécution, ces procédés n’ont pas pour objectif de fournir un résultat opérationnel définitif : il ne
s’agit pas d’assurer l’exécution d’un volume d’ordres mais de faciliter leur exécution ou de la rendre
plus performante.
Enfin, les algorithmes élaborés qui tiennent compte des évolutions du marché en termes de prix, de
volatilité ou de risques associés à une situation, incorporent des modèles de prédictions ou de gestion
d’évènements. Les modèles de prédictions sont en général associés au volume fondé sur des
tendances historiques ou sur le prix en fonction d’un déséquilibre éventuel au niveau de l’offre ou de
la demande et de manière général sur une étude de la constitution du carnet d’ordres. De même, des
modèles prédictifs sur la liquidité du marché ou sa volatilité fondés sur des données historiques
associées à des modèles mathématiques (Generalized Autoregressive Conditional Heteroskedasticity -
GARCH, Autoregressive Moving Average Model - ARMA) ou à une étude comparative cross-assets
(action/options, action/index) permettent d’accroître la performance d’une opération. La gestion des
évènements occupe une place importante et touche autant l’activité en dehors du marché et l’actualité
que l’activité au niveau du marché.
Systèmes de routages d’ordres intelligents
Les systèmes de routages d'ordres intelligents (Smart Order Routing – SOR) ont pour tâche l'exécution
optimale d'un ordre en fonction d'un nombre donné de sources de liquidité. Ils assurent un passage
d'ordres qui limite au maximum l'impact sur le marché et sur les cotations les plus intéressantes. Ces
systèmes sont temps réel et couvrent toute la partie transactionnelle, du passage de l'ordre aux
opérations de règlement et de compensation.
26
Ces systèmes utilisent typiquement des flux de niveau 2 (visibilité sur la profondeur du carnet
d’ordres) et s’appuient sur plusieurs techniques destinées à manipuler la microstructure des marchés
de manière à maximiser les chances d’obtenir un résultat performant.
Un processus de traitement type pour un ordre, sur un gros volume d’unités, se décompose en une
phase de reconnaissance (probing) sur plusieurs sources de liquidité de manière à tester la profondeur
réelle du carnet, c’est-à-dire en tenant compte des éventuels ordres cachés et de cibler (sniping) un
marché ayant assuré le traitement immédiat de l’ordre.
Typologie des sources de profit
Animation de marché et fourniture de liquidité
Le terme animation de marché (market marking) fait référence au placement simultané d'ordres limites
à la vente et à l'achat pour un actif de manière à profiter de la différence de prix entre l'offre et la
demande pour ce même actif (spread bid/ask). Cette activité peut être imposée légalement pour les
entreprises en charge d'un marché ou volontaire, c'est-à-dire sans obligation de proposer une
cotation. Les animateurs de marché utilisent généralement un système informatique pour la création,
la suppression ou la modification des cotations en fonction d'une stratégie établie. De fait, une
stratégie d'animation de marché performante implique la nécessité de pouvoir recomposer
rapidement ses positions sur les carnets d'ordres et convient ainsi parfaitement à des acteurs qui
capitalisent sur la vitesse d'exécution. Les sources de revenus d'une telle activité proviennent de
l'écart entre l'offre et la demande et, suivant la politique de rémunération du marché, la prime acquise
par le fournisseur de liquidés.
Cette stratégie est tout à fait adaptée aux opérateurs HFT. Certains sont d'ailleurs des animateurs de
marché désignés : c'est le cas de Getco pour le NYSE/Euronext depuis 2010. Un animateur de marché
intervient à l'achat ou à la vente sans rechercher un profit spéculatif. Il se porte acquéreur ou vendeur
de manière systématique en ajustant son prix de manière à tirer un bénéfice de l'écart entre le prix de
vente et d'achat. L'activité de teneur de marché permet de limiter l'écart entre l'offre et la demande
(réduction des spread), ce qui a pour objet en retour de favoriser la liquidité et d'affiner le processus de
découverte des prix. Le gain de la stratégie dépend de la finesse des cotations (création et mise à jour)
de l'animateur de marché et d'une gestion du risque efficace.
L'activité d'animateur de marché est tout à fait adaptée à l’utilisation d’un algorithme. En effet, d’une
part les gains générés ne peuvent plus justifier l'emploi ou le maintien d’une masse salariale (cas de
la décimalisation des prix au début des années 2000 qui a précipité la disparition des teneurs de
marché sur les grandes places américaines), d’autre part, la vitesse des opérations pour les teneurs de
marché devient alors capitale pour assurer le succès de cette stratégie.
27
Dès lors que les cotations à l'achat ou à la vente sont suffisamment attractives d'un côté comme de
l'autre, le teneur de marché termine ses transactions avec une balance positive et un stock nul. Le
volume du bénéfice tient alors au volume de transactions effectué par l'opérateur. Le moyen d'assurer
un volume de transactions maximum tient en la capacité du teneur de marché à rester en première
position du carnet d'ordres à l'achat ou à la vente. Les priorités sur les transactions à la vente et à
l'achat, au niveau des carnets d'ordres, sont déterminées par la qualité du prix puis par la précédence
des ordres. Un ordre d'achat à 5.49/10:31:30:427 est prioritaire sur un ordre d'achat à 5.50/10:31:30:425
mais un ordre d'achat à 5.49/10:31:30:427 est prioritaire sur un ordre d'achat à 5.49/10:31:30:428. Dès
lors, la vitesse d'exécution devient capitale dans le succès de la transaction : une nouvelle information
mise à disposition du marché a un effet sur l'offre et la demande ; l'opérateur qui a les moyens de
modifier sa structure d'ordres avant les autres peut ainsi positionner ses nouveaux prix en priorité et
donc bénéficier du nouveau spread.
L'activité du teneur de marché, évaluée de la position de l'investisseur, permet un spread fin, c'est-à-
dire une évaluation des prix la plus fine possible. La contrepartie est une volatilité plus importante
sur un intervalle réduit. D'une certaine manière, l'investisseur, avec un animateur de marché
compétent, paie moins pour chaque transaction même si le volume exact de ce gain est
proportionnellement variable. L'utilisation de plateformes informatiques permet un traitement moins
onéreux et plus efficace que le maintien d’équipes d'animateurs de marché.
Arbitrage
Une opportunité d'arbitrage représente une information manquante au niveau du marché qui se
traduit par un écart anormal dans l'évolution du prix de deux actifs corrélés de manière plus ou
moins explicite. Un exemple type est une action et une option d'achat sur cette action. Ces
opportunités sont traquées par une classe d'opérateurs, les opérateurs orientés arbitrage dont la
performance est liée à la qualité des modèles et des programmes associés qui permettent d'isoler ces
corrélations ainsi qu’à la vitesse à laquelle l'opération d'arbitrage peut être exécutée. L'arbitrage fondé
sur des corrélations est baptisé « arbitrage statistique » dans la mesure où la définition des
corrélations est effectuée sur une base statistique.
Les grandes modalités d'arbitrage statistique couvrent :
• L'arbitrage dit neutre au marché (market neutral arbitrage) qui représente un couple
d'investissements avec une vente à découvert (position courte) d'un actif et l'achat d'un autre
actif (position longue), tous les deux intimement corrélés. Ainsi, quelle que soit l'évolution du
marché, l'investisseur ne sera exposé qu'au risque de performance intrinsèque à l'actif, soit
dans le cas d'un arbitrage, d'une corrélation infondée. L'opération est profitable dès lors que la
position courte touche un actif de valeur estimée moindre à celle de l'actif choisi pour la
position longue.
28
• L'arbitrage entre marchés ou entre classes d'actifs représente l'activité d'arbitrage
fondamentale. Un actif dont le prix est différent sur une autre plateforme d'échanges ou par
rapport à un dérivé, le prix du sous-jacent évolue alors de manière différente et constitue
l'objet d'une opportunité d'arbitrage.
Un certain nombre de stratégies capitalise exclusivement sur la performance en matière d'acquisition
de données qui proviennent des plateformes d'échanges. Qualifiés de prédateurs dans la mesure où
ces algorithmes cherchent généralement à détecter une demande pour profiter de la montée des prix
et par cette opération ils contribuent à une augmentation non justifiée du coût des opérations. Les
systèmes qui mettent en œuvre ces stratégies sont fondés sur des infrastructures en colocation ou, si
les marchés le proposent, sur des ordres flash.
L'ordre flash (Flash Order) est un système mis en place par les marchés américains suite au passage de
la Reg NMS et de l'obligation d'exécuter un ordre à la meilleure offre nationale. A la réception d'un
ordre, si celui-ci n'est pas exécutable sur la plateforme d’échanges, cette dernière rend disponible,
durant quelques millisecondes, l’ordre à une sélection d'opérateurs, laissant ainsi le temps de placer
une cotation qui permet l'exécution de l'ordre sur la place. Ce système, fondé sur la vitesse
d'exécution, ne concerne que les acteurs qui disposent d’infrastructures suffisamment performantes
pour en profiter. Le caractère éthique des ordres flash a souvent été abordé car ils constituent
effectivement un marché à deux vitesses. Le régulateur américain n'a pas encore imposé une
règlementation sur ce point. Très controversée, cette pratique a été abandonnée par le NASDAQ et
BATS : le régulateur américain, la SEC, a annoncé en 2009 qu’il étudierait la possibilité d’interdire les
ordres flash.
Stratégie de trading haute-fréquence
Les opérateurs HFT peuvent être de natures diverses. Généralement, il s'agit de petites structures
dédiées à cette activité, de hedge-funds spécialisés dans les stratégies de trading quantitatif ou de
courtiers. Chacune de ces acteurs possède un business model qui lui propre.
Les stratégies HFT sont nombreuses et souvent opaques. Néanmoins, la notion de stratégie HFT fait
généralement référence à un moyen d'exécution plus qu'à un type spécifique de stratégie.
Effectivement, une typologie peut être élaborée sur la base de grandes familles de stratégies de trading
qui bénéficient de l'apport de systèmes informatiques rapides.
• Une stratégie orientée capture du spread (spread capturing) capitalise sur des moyens d'accès
très rapides au marché pour créer, modifier ou supprimer à la vente et à l'achat des ordres
limites, leur permettant ainsi de réaliser un profit égal au spread. Les stratégies orientées sur la
capture de la rémunération du marché (rebate driven) capitalisent sur une création agressive de
cotations de manière à pousser à la transaction, même défavorable pour l'acteur, qui sera
29
compensée par la prime reversée par le marché. Les profits potentiels d'une telle activité sont
importants : les primes reversées par Chi-X en 2009 atteignent 17 milliards de dollars.
• Plusieurs stratégies, typiquement HFT, ont pour objectif de détecter sur un marché les grands
mouvements en matière de liquidité de manière à les exploiter. Les stratégies de détections
visent à isoler l'action des algorithmes de passage d'ordres et à évaluer l'état des carnets
d'ordres. Les moyens sont nombreux et tournent essentiellement autour d'un positionnement
actif ou passif sur le carnet d'ordres de manière à générer de l'information sur la situation de
l'offre et de la demande.
• Une stratégie de cotations parallèles capitalise sur la vitesse de passage d'un ordre pour
bénéficier d'une opportunité liée à un grand mouvement de liquidité. Par exemple, un ordre
limite à l'achat sur un gros volume à 20,00 euros peut être exploité en proposant
immédiatement un ordre d'achat à 20,01 euros qui sera prioritaire. Les actifs sont ensuite
revendus à l'acheteur initial après que le volume de demandes ait assuré l'augmentation du
prix. Dans le cas où le prix baisse, les actifs peuvent toujours être revendus à l'acheteur initial
pour limiter les pertes.
Quelques exemples permettent de mieux comprendre l'action d'un opérateur HFT :
Un opérateur souhaite vendre un volume d'actifs. Le meilleur prix à l'achat est de 5,50 euros.
L'opérateur HFT est informé du passage de l'ordre, un ordre limite qui propose une faible quantité à
un prix très faible est activé et choisit de pousser l'offre en postant d'autres ordres de vente, ce qui a
pour effet de vider la partie demandes du carnet. Dès que la partie demandes est effectivement vide,
l'opérateur HFT passe des ordres de vente à un prix légèrement inférieur à celui d'origine, par
exemple, 5,48 euros en tenant compte de l'évolution naturelle du prix, ce qui a pour effet de placer
l'opérateur HFT en première position de la partie demande du carnet. Cette opération demande une
rapidité extrême afin de court-circuiter l'animateur de marché en charge de la contrepartie sur chaque
actif de la plateforme d'échanges. L'opérateur qui souhaite liquider sa position doit désormais vendre
à 5,48 euros, ce qui a pour effet de générer un profit de 0,02 euros pour chaque actif pour l'opérateur
HFT. Par ailleurs, l'opérateur HFT, via un séquençage fin des ordres d'achats, peut déterminer
lorsque la liquidité s'assèche et se repositionner à la vente à un prix sensiblement supérieur. Si
l'opérateur HFT a effectivement encaissé des pertes sur les transactions initiales (achat à 5,50 euros),
elles sont contrebalancées par les gains sur les transactions ultérieures. La capacité à passer très
rapidement des ordres et à changer de posture dès que la situation change est un déterminant dans le
succès de cette approche.
Un évènement laisse suggérer que le prix d'un actif va être amené à augmenter. L'actif vaut 5,50 euros
et les ordres d'achat commencent à remplir le carnet d'ordres. L'acteur HFT devance les autres acteurs
et achète un maximum d'actifs au prix initial. Suite à cette opération et capitalisant toujours sur une
vitesse importante, l'acteur HFT exécute une série d'ordres d’exécution ou d’annulation (fill or kill)
pour évaluer le prix maximum auquel les autres acteurs pourraient être disposés à acheter, comme
par exemple sur un intervalle [6 euros,5.75 euros] où 5,75 euros est exécuté. Connaissant le prix
maximum de l'actif, l'acteur HFT peut vendre son stock pour un profit maximum.
30
Conclusion
La structure et l'activité des marchés ont considérablement évolué. Les plateformes d'échanges et les
acteurs sont plus nombreux et de types plus variés. Le degré d'informatisation est en augmentation
constante, à la fois au niveau des plateformes, des moyens d'accès aux marchés et des traitements sur
tout le processus de transaction. On note une diversification des acteurs fondée sur une spécialisation
de l'activité, que ce soit au niveau de l'intermédiation, des plateformes ou encore de la nature des
opérateurs. En parallèle, les fournisseurs de services informatiques, de solutions matérielles,
logicielles ou d'infrastructures ont considérablement augmenté. Enfin, la législation vise à favoriser la
liquidité par la compétition ainsi que par la transparence. De fait, la multiplication du nombre et des
types de plateformes de transactions alternatives est fonction directe d'un choix législatif.
La technologie a joué un rôle fondamental dans ces transformations en révolutionnant la structure
des plateformes, les moyens d'accès et les stratégies commerciales. Le rôle notable de la vitesse
d'exécution d'une opération dans l'appréciation de l'activité marché est la conséquence directe de
l'intégration des nouvelles technologies informatiques à tous les niveaux de l'activité. Le facteur de
latence est le dénominateur commun de la performance d'un opérateur, d’un intermédiaire ou d’un
fournisseur de services ainsi que du côté des investisseurs. L'émergence du HFT est à ce titre
particulièrement révélateur.
L’impact de l’innovation technologique sur les marchés financiers a été très important. Il a bouleversé
la structure des marchés, les modes d’actions et la manière de concevoir l’activité sur les marchés.
L'automatisation des moyens d'accès aux marchés a contribué à leur performance. Elle a aussi
renforcé l'efficacité des intermédiaires. Le processus de passage d'ordres s'effectue en flux tendu
(concept STP) et favorise ainsi la transparence, le volume et la fiabilité des opérations. L'accès à
l'information relative à l'activité des marchés est plus facile, plus rapide et moins cher. Les décisions
sont prises sur une base plus solide et les opérations de valorisation d'actifs sont plus fiables.
L'élimination des inefficiences via les opérations d'arbitrages est devenue plus fine et plus
performante. La rapidité d’accès au marché et d’exécution d'un ordre s’est considérablement accrue.
Ce facteur a donné naissance à de nouvelles stratégies, à de nouveaux acteurs (entreprises HFT,
éditeurs de solutions logicielles, constructeurs, ATS) et à de nouvelles infrastructures (colocation).
L'interopérabilité des systèmes favorise l'accroissement du volume de participation et la liquidité des
marchés. Les nouveaux moyens d'accès aux marchés ont déterminés l'émergence de nouveaux
acteurs et de nouvelles stratégies. L'innovation technologique a ouvert des champs d'activités
nouveaux et à transformer les conceptions et les pratiques de stratégies existantes.
31
Les transactions automatiques sur les marchés : réseaux, systèmes
et applications
La problématique de la latence
Le traitement des activités de marché par les technologies nouvelles est évalué à partir de benchmarks
en millisecondes et dans le cas de technologies de pointes ou au niveau de domaines particulièrement
sensibles, en microsecondes. De l’avis général, si la norme d’évaluation devait passer à la
microseconde, l’effort en matière de recherche et de développement porterait sur un gain de l’ordre
de la nanoseconde.
La vitesse de la lumière est très rapide (autour de 300 000 kilomètres par seconde) dans l’univers
actuel mais aussi futur des transactions haute-fréquence, elle devient un facteur handicapant. En effet,
elle impose un délai incompressible dans une communication entre deux points géographiquement
distants, comme par exemple, 18 millisecondes entre les deux grandes places financières que sont
Londres et New-York. En parallèle, la puissance de calcul est en augmentation constante, que ce soit
en termes de puissance par unité ou d’unités disponibles à un instant T. 18 millisecondes ou 36
millisecondes avec le retour représentent 110 millions d’instructions sur un CPU 3GHz, volume
exponentiel verticalement via des processeurs plus performants et horizontalement, avec la
parallélisation du traitement sur d’autres CPU. De fait, dans le cadre d’un système temps réel à
haute-fréquence qui récompense le caractère opportuniste, définition adaptée aux activités marché,
l’opérateur qui maximalise le rapport temps/calcul est généralement gagnant.
Signe des temps, le procédé de colocation où un opérateur localise ses serveurs dans le datacenter de la
plateforme d’échanges est en passe de devenir une norme. Un système rigoureux d’évaluation des
distances à l’intérieur même du datacenter est garanti de manière contractuelle. La course aux
meilleures performances en matière de vitesse ne s’arrête pas pour autant : la performance des
programmes, de l’environnement d’exécution ou du support continue à jouer un rôle déterminant
dans le succès des opérateurs de marché.
La latence représente le temps entre deux évènements. Il peut s’agir du temps prit par un bit de
donnée pour passer d’une interface réseau à une autre, du passage d’un ordre à son exécution ou de
la durée prise par le trajet d’un paquet entre New York et Londres. La latence est définie ici comme la
durée entre l’occurrence d’un évènement et la réponse apportée. Une caractéristique fondamentale de
la notion de latence est le caractère prévisible : la certitude qu’une application répondra sur un
intervalle de temps donné. A la notion de latence, il faut donc aussi associer la notion de variations, la
gigue, (jitter) qui pondère la moyenne d’une latence sur deux évènements liés à une action sur un
réseau, telle que la transmission d’un paquet avec émission et réception. Elle représente les
phénomènes anormaux qui perturbent le signal.
32
Les problématiques liées à l’architecture des systèmes informatiques d’une salle de marché, quel que
soit l’acteur concerné, sont fonction de la nature de l’activité d’un marché et d’un processus de
transactions en temps réel et à haute-fréquence. La spécificité de l’action d’un opérateur de marché
tient en la nécessité de traiter un volume d’informations considérable, mis à jour en continu et
provenant de sources multiples. Il doit être capable de réagir immédiatement à l’évolution de son
environnement et d’entreprendre une action potentiellement complexe, fonction elle-même d’un
processus d’analyse élaboré. L’impératif d’une action rapide et donc d’un traitement performant,
couvre toute la gamme d’acteurs des marchés financiers, qu’ils soient courtiers, animateurs de
marché ou simples opérateurs. C’est un élément déterminant de la qualité du système informatique
concerné. La sensibilité à la latence ne touche pas seulement les opérations front office mais aussi les
parties de gestion du risque qui doivent être capables de superviser en temps réel la situation des
portefeuilles de la structure ainsi que la partie conformité /compensation en charge respectivement
du respect de la réglementation et des opérations post-trade relatives à la livraison.
La présentation des données fondamentales associées au processus de transactions entre une
plateforme d’échanges et le système d’un opérateur offre une meilleure visibilité sur les métriques
utilisées.
33
Algorithmic trading: Can you meet the need for speed? Detica White Paper, 2008
Le processus transactionnel se décompose en cinq étapes :
• La mise à jour des cotations relatives à un actif sur une plateforme d’échanges se situe entre 2
et 5 millisecondes. Le NASDAQ prétend atteindre une milliseconde pour cette étape, BATS
donne entre 400 et 500 microsecondes, le London Stock Exchange donne deux millisecondes
tout comme Deutsche Börse et NYSE/Euronext entre 3 et 5 millisecondes.
• La dissémination des prix, soit leur publication sur un canal dédié. La durée entre la mise à
disposition de l’information sur le canal et la réception par le système cible, au niveau
interface, se situe entre 4 et 5 millisecondes suivant la localisation du système cible au niveau
du territoire américain et sans prendre en compte les colocations.
• La durée associée à la génération d’un ordre est très variable. Un temps médian de 100
millisecondes est avancé par Peter Rubin de Cisco (2008) En fait, l’essentiel du délai est côté
opérateur.
• Le temps mis par le système de la plateforme d’échanges pour assurer l’enregistrement d’un
ordre est aussi très variable : entre 5 et 20 millisecondes pour les grandes plateformes. BATS
donne 5 millisecondes, NYSE/Euronext entre 10 et 25 millisecondes, NASDAQ donne 15
millisecondes.
34
• La confirmation d’un ordre qui valide la réception par la plateforme d’échanges prend moins
de deux millisecondes, 500 microsecondes pour BATS, une milliseconde pour le NASDAQ,
deux pour NYSE/Euronext.
Compte tenu de la sensibilité en matière de délai d’une transaction sur les marchés, les sources de
latence se trouvent à tous les niveaux du processus de traitement informatique :
• Au niveau interface et réseau, dans le cadre du processus de communication, de sérialisation,
de transport et en fonction des protocoles de sécurité.
• Au niveau transactionnel, c’est-à-dire au niveau des flux traités qui intègrent une gestion
d’erreurs, une éventuelle notion de session et au niveau de la distribution des flux ou du
produit avec les traitements associés sur le système cible via un middleware.
• Au niveau système et application, c’est-à-dire le temps pris par un traitement analytique ou
un mécanisme d’exécution applicatif.
En réponse à l'attention toute particulière que porte l'industrie financière à la latence, un groupe de
travail, FIX Inter-Party Latency (IPL), a été récemment constitué pour définir les critères, les
indicateurs et les benchmarks relatifs à l'évaluation de la latence dans les transactions orientées
marché. L'objectif est de mettre sur pied une structure complète d'évaluation pour toute la gamme
d'acteurs des marchés sur la base de standards pour les mesures ainsi qu’au niveau des objets traités.
Un autre indicateur de l'importance acquise par la latence : la typologie des opérateurs. Une
distinction peut désormais être effectuée entre les opérateurs haute-fréquences et ultra haute-
fréquences. Les premiers capitalisent sur les moyens courants de réduire le délai dans la
communication avec les marchés alors que les seconds se tournent vers l'innovation technologique
pour assurer une performance maximum.
35
Vue d’ensemble de l’architecture d’une plateforme d’échanges
Le processus de traitement de flux de cotations
Le processus de supervision de l’activité d’une plateforme d’échanges de produits financiers, qu’il
soit un marché ou un moyen alternatif d’accès à l’offre ou à la demande (ECN, ATS) est simple dans
son principe.
Les plateformes d’échanges produisent de l’information relative à l’état de l’offre et de la demande.
Ces flux de cotations dont le format varie en fonction de l’émetteur, primaire (la plateforme) ou
secondaire (partie tierce qui propose une consolidation des flux) ou encore du type de données
(niveaux 1 à 3 correspondant à la profondeur du carnet d’ordres) sont mis à disposition à qui en fait
la demande et contre rémunération. Sauf déploiement des serveurs du récepteur en colocation, en
connexion directe avec le réseau des plateformes d’échanges, les données sont transmises via Internet
à l’acteur concerné.5
Les flux réceptionnés sont traités de manière à être consommés par les couches supérieures de la
plateforme d’échanges (ou avant la transmissions à un autre acteur). L’opération implique une
5 Il existe des exceptions : Bloomberg possède son propre réseau physique, ce qui représente une plus-value
considérable
36
gestion des erreurs au niveau réseau et au niveau du contenu, une mise en cache pour les opérations
de consolidations ultérieures, un stockage sur support, un formatage et un transfert vers un parti
tiers. Le système cible peut être un client, dans le cas d’un courtier ou d’un opérateur dont l’activité
est orientée sur la gestion des flux, ou un système interne, généralement le bus de communication
dans une architecture orientée service. L’architecture de la plateforme de traitement de flux est
variable. Il peut s’agir d’un produit commercial ou d’une combinaison de modules réalisés en interne
et de produits commerciaux. Le gestionnaire de flux (feed handler), le gestionnaire de cache et de
stockage (cache server) ainsi que le module de routage (data hub) constituent les briques élémentaires
de la plateforme. Le détail de l’architecture et un descriptif des standards du marché sont présentés
plus loin.
Les consommateurs des flux traités sont nombreux et variables. Les outils décisionnels, qu’ils soient à
destination d’opérateurs ou entièrement automatisés, n’entrent pas dans le cadre de ce mémoire et ne
sont qu’évoqués. Les modules concernés par la prise de décision et l’évaluation du risque associée à
cette décision sont décrits plus loin. Le résultat du processus de décision suite à la consommation
d’un flux peut être un ordre d’achat ou de vente d’une certaine quantité d’un produit donné.
L’exécution de cet ordre est à la charge d’un composant (OMS ou OES) dont la tâche est de
sélectionner la meilleure plateforme d’échanges et de minimiser le coût de la transaction (impact sur
le marché et délai dans l’exécution de l’ordre). Les algorithmes d’exécutions d’ordres sont les plus
vieux composants des outils de trading automatiques. Utilisés par les courtiers ou par les acteurs qui
disposent d’une connexion DMA, ils ont pour tâche de séquencer le volume désiré dans le temps en
arbitrant entre la rapidité de l’exécution et le coût associé à la transformation de la relation entre
l’offre et la demande, suite à l’exécution de l’ordre. Le protocole de communication applicatif pour
les passages d’ordres peut varier. FIX reste néanmoins largement utilisé.
Les systèmes qui gèrent les transactions avec les plateformes d’échanges peuvent gérer la connectique
à ces plateformes par plusieurs moyens. Les accès DMA, déjà décrits, permettent d’assurer une
connexion directe avec une plateforme via les systèmes d’un intermédiaire, opérateur agréé d’un
marché. Le degré d’interaction avec les systèmes du courtier définit la nature du service qui peut
aussi couvrir les opérations pre-trade et post-trade
La colocation, soit le déploiement des serveurs de l’opérateur dans le datacenter de la plateforme ou à
une proximité immédiate, représente une autre alternative. Toutes les plateformes d’échanges
proposent ce service contre une rémunération importante et selon une gamme de fonctionnalités très
riche qui vont de la location d’un espace physique jusqu’à la gestion complète des transactions avec
le système hôte. Les hébergeurs, comme Saavvis, proposent aussi des solutions de colocations.
À titre d’exemple, BATS propose trois types de connectiques :
• Un système de colocation sur deux datacenters (New Jersey et Chicago).
• Un extranet fourni par un parti tiers, comme BT Radianz et Fixnetix.
37
• Une ligne Ethernet privée, 1Go ou 10Go, à partir de deux datacenters.
Toutes les plateformes d’échanges ont une offre similaire, souvent via les mêmes intermédiaires. Le
NASDAQ propose aussi une connectivité directe via quatre opérateurs (Con Edison, Level 3, Verizon
Business, Yipes) ou un extranet via BT Radianz ou Saavis en plus des services de colocation.
Le délai dans une communication réseau est lié aux facteurs suivants :
• À la propagation, soit au temps mis pour une information à parcourir une distance donnée à
la vitesse de la lumière. Le facteur de vélocité définit la différence entre la vitesse sur un
média donné (cuivre, fibre optique) et la vitesse à l’air libre. La vitesse de propagation dépend
du support de transmission (70% de la vitesse de la lumière sur un câblage fibre optique, 65%
sur un câblage coaxial, 40% à 70% sur un câblage cuivre). Au délai associé à l’envoi, s’ajoute
l’action des appareils de transmission et de retransmission dans le cadre de la fibre optique,
des routeurs avec la mise en files des paquets, des procédures de sécurité et des systèmes de
gestion de charges (load balancer et éventuellement deep packet inspection).
• Au processus de sérialisation, c’est-à-dire au temps passé pour effectuer la conversion d’une
donnée stockée en mémoire en un flux qui peut être transmis sur un réseau. A cette charge,
s’ajoute les contraintes propres à la communication entre composants matériel d’une unité
informatique, gestion des interruptions (Interrupt Service Routine), accès à la mémoire centrale
et propagation sur les bus de l’unité.
• Au protocole utilisé pour le transport, c’est-à-dire à la méthode utilisée pour la transmission
des paquets et la gestion de la communication.
Couches matériels et réseaux
De manière à réduire la latence au maximum et compte tenu du fait que les délais dans une
communication tiennent pour l’essentiel aux opérations I/O entre les matériels, une architecture
haute-fréquence héberge l’intégralité des modules qui assurent le traitement sur une même machine.
La gestion des flux et leur consommation par les unités décisionnelles se font donc sur une même
machine, virtuelle ou physique. Ironiquement, la réduction de la latence passe par la simplification de
l’architecture : moins de serveurs, moins de processus, moins de délais. Le transfert de données
représente le cœur de l’activité d’une plateforme d’échanges. Une entreprise de trading haute-
fréquence, en 2010, traite plus de 400 Go de données de marché par jour et autour de 20 Go de flux
FIX, soit autour de 1.5 To si l’on tient compte des transmissions annexes.
La première source de latence est le processus de sérialisation. Il s’agit du délai entre la création d’un
paquet par l’interface réseau et sa transmission à la ligne. Ce délai peut être réduit par l’utilisation
d’une ligne Ethernet 10 Go qui offre à l’heure actuelle les meilleures performances.
38
La seconde source de latence est la propagation, soit le délai lié à la transmission du paquet.
Le délai nécessaire à la transmission des paquets sur le réseau constitue une source naturelle de
latence entre l’envoi d’un paquet et sa réception par une machine distante.
Plusieurs solutions existent pour traiter ce problème :
• Une ligne Ethernet haut débit, typiquement Ethernet 10 Go.
• Infiniband, un bus haut débit conçu pour la gestion de charges importantes qui implémente
notamment la technologie Remote Direct Access Memory (RDMA). Infiniband et la technologie
RDMA sont décrits plus loin.
39
• Un câblage fibre optique. L’avantage associé aux lignes en fibres optiques tient,
potentiellement, à l’absence des opérations de sérialisation IP/Ethernet dans les réseaux
classiques. En effet, le routage via fibre optique propose une alternative aux opérations de
sérialisation classiques (Optical cross-connect), transitions optique/électronique, via les
Reconfigurable Optical Add-Drop Multiplexers (ROADMS) qui maintiennent le signal optique de
l’envoi jusqu’à la réception.
• Un système de compression performant. La compression des paquets apporte en effet
beaucoup à la performance du transfert. Le gain est notable malgré les cycles de CPU
nécessaires aux opérations de compression/décompression.
La troisième source de latence est la vitesse de propagation nominale sur un switch, soit le délai de
transmission d’un paquet via un switch. Plusieurs méthodes permettent de réduire ce délai.
• Cut-through switching, une méthode de traitement des trames fondée sur la propagation d’une
trame Ethernet avant réception de la totalité de celle-ci.
• La compression, un trade-off entre le temps réduit pour le transport et le temps CPU passé
pour assurer la décompression du paquet.
La quatrième source de latence concerne la performance de l’algorithme en charge de la mise en files
des paquets. Cisco propose un ensemble de solutions logicielles et matérielles pour traiter ce
problème. Baptisée Low Latency Queuing, cette technologie est fondée sur une notion de priorité
associée à un paquet de manière à privilégier le traitement d’un flux de paquets par un matériel
réseau. Par ailleurs, la gestion des paquets par piles TCP est paramétrable : il est possible de modifier
ou de désactiver des protocoles de contrôle algorithmique en charge du traitement des paquets de
manière à optimiser le temps de traitement. Enfin, un outil de monitoring de l’activité du système
permet de cibler les sources de latence dans la transmission ou le traitement de l’information, tels que
le Bandwidth Quality Manager (BQM) et le IP SLA de Cisco. Plusieurs produits spécifiques au monde
de la banque existent, comme CorvilNet, AON Financial Services Latency Monitoring Solution pour les
gestionnaires FIX.
La cinquième source de latence est le délai de retransmission lors de la perte d’un paquet. Le choix
d’une méthode de retransmission (mise en files ou abandon) détermine dès lors la performance du
traitement.
Couche Transport & Session
Le processus de copie des buffers réseau au niveau des interfaces vers les buffers du système
d’exploitation constituent, avec la commutation de contexte, la principale source de latence.
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés
Les systemes de transactions_automatiques_dans_les_activités_de_marchés

Más contenido relacionado

Similar a Les systemes de transactions_automatiques_dans_les_activités_de_marchés

Cae economie numérique
Cae economie numériqueCae economie numérique
Cae economie numériqueNetPME
 
Livre Blanc Professional Services
Livre Blanc Professional ServicesLivre Blanc Professional Services
Livre Blanc Professional ServicesJulien Goossens
 
Synthèse Solucom - Energéticiens et monde digital : une relation en mode combat?
Synthèse Solucom - Energéticiens et monde digital : une relation en mode combat?Synthèse Solucom - Energéticiens et monde digital : une relation en mode combat?
Synthèse Solucom - Energéticiens et monde digital : une relation en mode combat?Wavestone
 
Comarch smart analytics
Comarch smart analytics Comarch smart analytics
Comarch smart analytics Comarch France
 
Big data et marketing :Vers une analyse prédictif de d'acte d'achat
Big data et marketing :Vers une analyse prédictif de d'acte d'achatBig data et marketing :Vers une analyse prédictif de d'acte d'achat
Big data et marketing :Vers une analyse prédictif de d'acte d'achatfifi75
 
Quels sont les nouveaux leviers 2.0 pour optimiser votre processus de dématér...
Quels sont les nouveaux leviers 2.0 pour optimiser votre processus de dématér...Quels sont les nouveaux leviers 2.0 pour optimiser votre processus de dématér...
Quels sont les nouveaux leviers 2.0 pour optimiser votre processus de dématér...Axys
 
Transformation Digitale Responsable Partie 3-5 Comment le numerique transform...
Transformation Digitale Responsable Partie 3-5 Comment le numerique transform...Transformation Digitale Responsable Partie 3-5 Comment le numerique transform...
Transformation Digitale Responsable Partie 3-5 Comment le numerique transform...Matthieu Bruckert
 
Política de compras de software na administração francesa
Política de compras de software na administração francesaPolítica de compras de software na administração francesa
Política de compras de software na administração francesaJ. C.
 
Devcom 2011: ContractNOMAD - Mobile Contract Management
Devcom 2011: ContractNOMAD - Mobile Contract ManagementDevcom 2011: ContractNOMAD - Mobile Contract Management
Devcom 2011: ContractNOMAD - Mobile Contract ManagementThe ContractFoundry Project
 
Fintech et assurtech dans la chaîne de valeur Assurance Vie
Fintech et assurtech dans la chaîne de valeur Assurance VieFintech et assurtech dans la chaîne de valeur Assurance Vie
Fintech et assurtech dans la chaîne de valeur Assurance VieGenovefa APEDOH
 
gestion_du_risque_de_change
gestion_du_risque_de_changegestion_du_risque_de_change
gestion_du_risque_de_changeZouhair Aitelhaj
 
Silex x Altaris : Les prémices de l'acheteur augmenté
Silex x Altaris : Les prémices de l'acheteur augmentéSilex x Altaris : Les prémices de l'acheteur augmenté
Silex x Altaris : Les prémices de l'acheteur augmentéBenoit Larrieu
 
CR Aquitaine AMI Numérique aquitain 2015
CR Aquitaine AMI Numérique aquitain 2015CR Aquitaine AMI Numérique aquitain 2015
CR Aquitaine AMI Numérique aquitain 2015polenumerique33
 
Livre blanc : modeles, data et algorithmes, les nouvelles frontieres du numér...
Livre blanc : modeles, data et algorithmes, les nouvelles frontieres du numér...Livre blanc : modeles, data et algorithmes, les nouvelles frontieres du numér...
Livre blanc : modeles, data et algorithmes, les nouvelles frontieres du numér...Bpifrance
 
marketplace ou l'entrée dans la nouvelle ère du e-commerce
marketplace ou l'entrée dans la nouvelle ère du e-commercemarketplace ou l'entrée dans la nouvelle ère du e-commerce
marketplace ou l'entrée dans la nouvelle ère du e-commercenrequillart
 
Introduction seminaire groupe flowline
Introduction seminaire groupe flowlineIntroduction seminaire groupe flowline
Introduction seminaire groupe flowlinepimp uncle
 

Similar a Les systemes de transactions_automatiques_dans_les_activités_de_marchés (20)

Cae economie numérique
Cae economie numériqueCae economie numérique
Cae economie numérique
 
Addictgroup
AddictgroupAddictgroup
Addictgroup
 
Livre Blanc Professional Services
Livre Blanc Professional ServicesLivre Blanc Professional Services
Livre Blanc Professional Services
 
Synthèse Solucom - Energéticiens et monde digital : une relation en mode combat?
Synthèse Solucom - Energéticiens et monde digital : une relation en mode combat?Synthèse Solucom - Energéticiens et monde digital : une relation en mode combat?
Synthèse Solucom - Energéticiens et monde digital : une relation en mode combat?
 
[FR] Dossier de presse IAS
[FR] Dossier de presse IAS[FR] Dossier de presse IAS
[FR] Dossier de presse IAS
 
Comarch smart analytics
Comarch smart analytics Comarch smart analytics
Comarch smart analytics
 
Big data et marketing :Vers une analyse prédictif de d'acte d'achat
Big data et marketing :Vers une analyse prédictif de d'acte d'achatBig data et marketing :Vers une analyse prédictif de d'acte d'achat
Big data et marketing :Vers une analyse prédictif de d'acte d'achat
 
Quels sont les nouveaux leviers 2.0 pour optimiser votre processus de dématér...
Quels sont les nouveaux leviers 2.0 pour optimiser votre processus de dématér...Quels sont les nouveaux leviers 2.0 pour optimiser votre processus de dématér...
Quels sont les nouveaux leviers 2.0 pour optimiser votre processus de dématér...
 
Transformation Digitale Responsable Partie 3-5 Comment le numerique transform...
Transformation Digitale Responsable Partie 3-5 Comment le numerique transform...Transformation Digitale Responsable Partie 3-5 Comment le numerique transform...
Transformation Digitale Responsable Partie 3-5 Comment le numerique transform...
 
DatAct saison 2 - Partage des données
DatAct saison 2 - Partage des donnéesDatAct saison 2 - Partage des données
DatAct saison 2 - Partage des données
 
Política de compras de software na administração francesa
Política de compras de software na administração francesaPolítica de compras de software na administração francesa
Política de compras de software na administração francesa
 
Pilotage & Performance 2012
Pilotage & Performance 2012Pilotage & Performance 2012
Pilotage & Performance 2012
 
Devcom 2011: ContractNOMAD - Mobile Contract Management
Devcom 2011: ContractNOMAD - Mobile Contract ManagementDevcom 2011: ContractNOMAD - Mobile Contract Management
Devcom 2011: ContractNOMAD - Mobile Contract Management
 
Fintech et assurtech dans la chaîne de valeur Assurance Vie
Fintech et assurtech dans la chaîne de valeur Assurance VieFintech et assurtech dans la chaîne de valeur Assurance Vie
Fintech et assurtech dans la chaîne de valeur Assurance Vie
 
gestion_du_risque_de_change
gestion_du_risque_de_changegestion_du_risque_de_change
gestion_du_risque_de_change
 
Silex x Altaris : Les prémices de l'acheteur augmenté
Silex x Altaris : Les prémices de l'acheteur augmentéSilex x Altaris : Les prémices de l'acheteur augmenté
Silex x Altaris : Les prémices de l'acheteur augmenté
 
CR Aquitaine AMI Numérique aquitain 2015
CR Aquitaine AMI Numérique aquitain 2015CR Aquitaine AMI Numérique aquitain 2015
CR Aquitaine AMI Numérique aquitain 2015
 
Livre blanc : modeles, data et algorithmes, les nouvelles frontieres du numér...
Livre blanc : modeles, data et algorithmes, les nouvelles frontieres du numér...Livre blanc : modeles, data et algorithmes, les nouvelles frontieres du numér...
Livre blanc : modeles, data et algorithmes, les nouvelles frontieres du numér...
 
marketplace ou l'entrée dans la nouvelle ère du e-commerce
marketplace ou l'entrée dans la nouvelle ère du e-commercemarketplace ou l'entrée dans la nouvelle ère du e-commerce
marketplace ou l'entrée dans la nouvelle ère du e-commerce
 
Introduction seminaire groupe flowline
Introduction seminaire groupe flowlineIntroduction seminaire groupe flowline
Introduction seminaire groupe flowline
 

Les systemes de transactions_automatiques_dans_les_activités_de_marchés

  • 1. 1 Les systèmes de transactions automatiques dans les activités de marchés : pratique et perspectives. Thomas Raynal Maître de Mémoire : M. Michel Ruberte
  • 2. 2 Les marchés financiers contemporains et la transaction électronique.............................................................................5 Introduction.............................................................................................................................................................................5 Les marchés financiers contemporains : structures & dynamiques.................................................................................7 L'informatisation des marchés financiers .....................................................................................................................7 La nouvelle cartographie des marchés...........................................................................................................................9 Dynamiques dans l'adoption des plateformes de transactions automatiques.....................................................12 L’activité sur les marchés.....................................................................................................................................................15 Le processus de transaction ...........................................................................................................................................15 Les coûts de transactions................................................................................................................................................18 Trading quantitatif..........................................................................................................................................................19 Trading algorithmique ...................................................................................................................................................21 Trading haute-fréquence................................................................................................................................................23 Focus sur les algorithmes orientés exécution d’ordres .............................................................................................24 Typologie des sources de profit....................................................................................................................................26 Conclusion .............................................................................................................................................................................30 Les transactions automatiques sur les marchés : réseaux, systèmes et applications..........................................................31 Vue d’ensemble de l’architecture d’une plateforme d’échanges..............................................................................................35 Le processus de traitement de flux de cotations...............................................................................................................35 Couches matériels et réseaux ..............................................................................................................................................37 Couche Transport & Session ...............................................................................................................................................39 Anatomie d’une plateforme de transactions automatiques............................................................................................41 Le gestionnaire de flux de cotations.............................................................................................................................42 Système d’opérations, services de stockage et middlewares..................................................................................44 Traitement d’évènements complexes...........................................................................................................................47 Plateforme de transmissions d’ordres..........................................................................................................................50 Prospective....................................................................................................................................................................................................54 Software Defined Sillicon..............................................................................................................................................54 Marchandisation : « A ticker plant in a box ».............................................................................................................56 Cloud computing.............................................................................................................................................................57 RDMA et Infiniband.......................................................................................................................................................58 GPU et calcul distribué...................................................................................................................................................61 Data mining et intelligence artificielle........................................................................................................................63 Quel système de transactions automatiques pour demain ? ......................................................................................................66 Sources ...........................................................................................................................................................................................................68
  • 3. 3 Résumé Les échanges sur les marchés financiers ont connu ces dix dernières années des transformations très importantes. Les entreprises de dérégulation des marchés couplées à la montée en puissance des moyens alternatifs d'accès aux marchés ont bouleversé l'activité sur les places financières : de nouveaux acteurs, de nouvelles méthodes et de nouvelles stratégies ont vu le jour. L’automatisation du processus transactionnel s’est faite par étapes sous l’influence de facteurs conjoncturels, de l’évolution du cadre légal et de l’émergence de standards en matière de protocoles de communication dédiés. Le trading, dit « algorithmique », est une parfaite illustration du phénomène. Ce type d'échanges, fondé sur la mise en œuvre de programmes informatiques, touche à toutes les dimensions de l'activité sur un marché, du séquençage et du routage des ordres, jusqu'à la mise en œuvre de stratégies d'échanges. L'informatique permet un traitement moins cher, plus fiable et plus efficace au niveau d'une activité où le jugement humain est moins performant que l’appréciation quantitative d'une situation. Le trading algorithmique a permis une réduction des coûts pour les intermédiaires comme pour les investisseurs, et a ainsi gagné en importance et en volume. La transaction informatisée est devenue la norme sur les marchés et affecte toutes les activités relatives aux produits financiers, du choix du portefeuille à la passation d’ordres, jusqu’à la compensation et au règlement. De nouveaux acteurs comme les opérateurs, dits haute-fréquence, influencent le comportement et la qualité des marchés. Le nombre d’acteurs annexes, c’est-à-dire qui agissent en support de l’activité du buy-side et du sell-side, a augmenté de manière considérable. Pourvoyeurs et prestataires de services, constructeurs et éditeurs de logiciels proposent un ensemble de solutions adapté à chaque type d’opérateurs et donnent l’élan à l’innovation technologique. La latence est devenue un enjeu considérable dans le choix et le déploiement des systèmes de transactions automatiques. Le procédé de colocation des systèmes d’un opérateur dans des datacenters du marché est une réponse naturelle à l’augmentation de la capacité de calcul et au caractère incompressible du délai dans les communications. La milliseconde est désormais la métrique d’évaluation de la performance d’un système. De manière à apporter les meilleures réponses à ces problématiques, les constructeurs capitalisent les évolutions contemporaines du traitement informatique, le cloud computing et le calcul distribué sur GPU, et redécouvrent des technologies jusqu’à lors limitées à des secteurs très spécifiques de l’industrie, les ASICs. Les budgets et le volume du marché justifient une activité intense en recherche et en développement et, de ce fait, suscitent une concurrence très rude. Mots-clefs : trading algorithmique, marchés financiers, prospective
  • 4. 4 Abstract Financial markets underwent a major transformation those last ten years. Financial deregulation, the rise of alternative liquidity platforms made a radical change in the way people plan and act on financial venues: it gave rise to a whole new set of participants, methods and strategies. The automation of the trading process went step by step, heavily influenced by conjunctural factors, the evolution of the legal framework, and standardization of communication protocols. Algorithmic trading is a direct product of those contemporary transformations. Based on the execution of computer programs, algorithmic trading covers every dimension of market activity, from orders creation and routing to implementation of trading strategies. Computers allow a reduction in processing costs, increase reliability and efficiency, on a transactional process where quantitative evaluation, and therefore automated decision making, is superior to human appreciation. Consequently, algorithmic trading volume soared as well as its importance in the financial system. Electronic trading is the norm on financial markets, from portefolio management and order execution to compliance and settlement. New participants like the high frequency trading firms influence both the market behavior and the quality. The amount of participants acting as a support for the buy side and the sell side soared: service provision, software publishing as well as hardware distribution offer a wide range of solutions for any kind of player and set the pace of technological innovation Latency has become a considerable challenge for automated trading system. Collocation within execution venues datacenters is a natural answer to the increase in available computing power and incompressibility of communication delay, topped by the speed of light. Millisecond has now become the metric for performance evaluation. In order to cope with the ever increasing demand for high performance systems, manufacturers and publishers look down contemporary innovation, like cloud computing and distributed computing on GPUs. Long standing technologies are rediscovered and put forward: the ASICs. The budgets and the market volume inspire an intense R&D process and thus, competition. Keywords : algorithmique trading, financial markets, prospective
  • 5. 5 Les marchés financiers contemporains et la transaction électronique Introduction Les échanges sur les marchés financiers ont connu ces dix dernières années des transformations très importantes. Les entreprises de dérégulations des marchés, couplées à la montée en puissance des moyens alternatifs d'accès aux marchés, ont bouleversé l'activité sur les places financières : de nouveaux acteurs, de nouvelles méthodes et de nouvelles stratégies ont vu le jour. Les gestionnaires de portefeuilles utilisent désormais des systèmes informatisés de gestion des ordres pour suivre les positions et déterminer les transactions souhaitées. Puis, ils se tournent vers les systèmes informatisés de gestion de l’exécution pour envoyer leurs ordres aux sources de liquidité les plus éloignées. Parmi les grandes évolutions contemporaines, on note l'accroissement des échanges dits « algorithmiques » (Algorithmic Trading, AT). Ces types d'échanges, fondés sur la mise en œuvre de programmes informatiques, touchent à toutes les dimensions de l'activité sur un marché, du séquençage et du routage des ordres jusqu'à la mise en œuvre de stratégies d'échanges. Le trading algorithmique a permis une réduction des coûts pour le buy side1 et le sell side, et a ainsi gagné en importance et en volume. L’analyse des coûts de transactions, en utilisant des ordinateurs pour capter les mouvements des prix sur et entre les marchés, permet ensuite aux gestionnaires d’actifs de calculer leurs coûts de transactions pour des stratégies spécifiques de transactions et de prédire alors leurs coûts en utilisant des stratégies alternatives. Proportion de l’adoption du trading électronique par classes d’actifs, Aite Group 2008 1 Le buy-side fait référence aux acheteurs de produits financiers, investisseurs ou industriels, gérants de fonds et éventuellement courtiers. Le sell-side représente les créateurs de produits financiers, généralement les banques d’investissements, via les introductions en bourse (IPO), la création d’obligations corporate et de manière générale l’ingénierie financière.
  • 6. 6 Proportion de l’adoption du trading algorithmique par classes d’actifs, Aite Group 2008 Le trading haute-fréquence (High Frequency Trading, HFT) est une déclinaison récente du trading algorithmique qu’il illustre parfaitement et qui prend un essor considérable. Il capitalise sur les technologies de pointe, en particulier au niveau des moyens de communication avec les sources de liquidité (marchés et plateformes alternatives d’échanges). Il définit la performance en termes de latence entre l'obtention d'une information et l'action qui suit sa consommation. L'unité de temps relative aux activités d'échanges (prise de position, débouclage et fréquence des échanges) est très faible. Elle est mesurée en millisecondes sur la partie système et sur la partie applicative, et en microsecondes sur la couche réseau. Les traders à haute-fréquence utilisent des systèmes informatiques optimisés pour la performance dans le traitement ainsi qu’une connectique privilégiée avec les marchés pour à la fois fournir et prendre de la liquidité sur et entre les marchés. La définition exacte d’un acteur haute-fréquence n’est pas claire, car fonction d’une frontière floue avec le trading algorithmique dont de nombreux aspects capitalisent eux aussi sur la vitesse d’exécution. Néanmoins, l’activité d’entités, qui capitalisent sur un rythme très fin dans les transactions de produits financiers sur les marchés publics, a gagné en importance depuis une dizaine d’années pour devenir actuellement incontournable. De nombreux opérateurs haute-fréquence agissent comme animateurs de marché en plaçant des ordres limites sur des carnets d’ordres. Ces ordres passifs fournissent la contrepartie pour les opérateurs qui souhaitent trouver un acheteur ou un vendeur sur le marché. L’activité des acteurs haute-fréquence couvre aussi une dimension plus classique des opérations boursières qui concerne l’arbitrage statistique. Ils capitalisent sur la performance informatique pour isoler et exploiter des opportunités d’arbitrages sur une ou plusieurs classes d’actifs. Avec des taux de participation estimés à 30-50 % sur les bourses des actions européennes et qui vont jusqu’à 70 % sur les bourses des actions américaines, les transactions à haute-fréquence influencent profondément les marchés actuels.
  • 7. 7 La transaction informatisée est devenue la norme sur les marchés et affecte toute la gamme des transactions relatives aux produits financiers, du choix du portefeuille à la passation d’ordres, jusqu’à la compensation et au règlement. De nouveaux acteurs et de nouvelles stratégies, qui emploient la transaction algorithmique, influencent le comportement et la qualité des marchés. Les marchés financiers contemporains : structures & dynamiques L'informatisation des marchés financiers La baisse du prix du calcul informatique, que ce soit en termes d'acquisition de matériel, de technologies ou de services, a profondément transformé l'industrie, et en particulier, l'industrie financière. Dans le même temps, la gestion de portefeuilles et la manipulation de produits financiers pour répondre à un besoin, qu’il soit spéculatif ou de nature industrielle, sont devenues beaucoup plus complexes. La globalisation financière, l'interconnexion des économies, l'émergence d'une myriade de nouveaux acteurs et de nouveaux produits ainsi que les approches novatrices de l'ingénierie financière, ont rendu l'activité de marché de plus en plus technique. La disponibilité d’une puissance de calcul bon marché a rendu possible le déploiement de systèmes automatisés de transactions considérablement plus performants. Dans la plupart des cas, cette performance était auparavant fondée sur des approches mathématiques, ancrées dans les théories statistiques de modélisation et de probabilité. Cette nouvelle vague de systèmes automatisés se concentrait alors sur l’exécution d’une opération. Le système informatique ne prenait pas la décision de manipuler un certain groupe d’actifs car ces décisions étaient toujours prises par des hommes. Une fois la transaction décidée, son exécution était confiée à un système d’exécutions automatisé. À l’origine, il s’agissait de confier le soin d’exécuter des transactions à un système d’exécutions automatisé pour laisser les traders se consacrer à des opérations plus compliquées. Avec la généralisation des systèmes d’exécutions automatisés et par la confiance croissante placée en eux, différentes institutions de transactions ont commencé à expérimenter des approches plus sophistiquées de l’exécution automatisée. Différentes méthodes et différents algorithmes pouvaient être déployés pour satisfaire les contraintes de différentes classes de transactions, dans des circonstances de marché variables. Le concept de transactions algorithmiques était né.
  • 8. 8 Les avantages des algorithmes,TABB Group 2005 Deux grands jalons définissent et balisent le processus d’informatisation. La volonté des régulateurs américains de favoriser d’abord la transparence dans le processus de cotations (Order Handling Rules, 1997) et la réduction des écarts offre/demande (spreads) avec la décimalisation des prix (2001), puis par la compétition entre plateformes d’échanges au moyen d’un benchmark national (Regulatory National Market System ou Reg NMS, 2004), ont influencés de manière profonde la conception et la pratique des transactions sur les marchés financiers. L’effet majeur des législations américaines comme européennes a été l’accroissement progressif du nombre et du type de plateformes d’échanges. Ce phénomène possède une dynamique qui lui est propre et qui sera décrit plus loin. De façon à assurer la compétition avec les marchés régulés, ces nouvelles plateformes capitalisent sur l’informatique de manière à assurer une performance plus importante en termes de gestion de volumes et des coûts réduits en termes de maintenance qui auront à leur tour un impact sur les coûts de transactions. L’Europe suivra avec un temps de décalage. La Markets in Financial Instruments Directive (MiFID), entrée en application en 2007, encourage la compétition entre plateformes par la reconnaissance de moyens d’accès alternatifs aux marchés de capitaux. Les marchés de dettes, monétaires ou dérivés, pour des raisons liées au type de produits échangés, suivent la dynamique des marchés de capitaux avec une intensité pour l’instant bien moindre. L’adoption d’un standard pour la communication entre systèmes de passages d’ordres, le protocole FIX (Financial Information eXchange), est un corolaire de la multiplication des acteurs. Initié côté buy- side de manière à fluidifier les échanges avec le courtage, ce protocole deviendra le composant essentiel dans les nouvelles plateformes de gestion d’ordres qui vont constituer les premiers systèmes de transactions totalement automatisés. Toutes les avancées en matière d’informatisation des processus de transactions orientés marché dépendent, à des degrés divers, du choix d’un moyen de communication commun entre les systèmes des différents acteurs.
  • 9. 9 La nouvelle cartographie des marchés Fragmentation & compétition La cartographie actuelle des plateformes d'échanges est caractérisée par la fragmentation des sources de liquidité, la compétition pour réunir offre et demande, la pluralité des modes d'accès aux marchés et l'automatisation des stratégies de transactions. On isole un phénomène de centralisation/fragmentation dans l’évolution de la cartographie des plateformes d’échanges de produits financiers. L’évènement marquant au niveau de la transformation cartographique des marchés est la reconnaissance, par les régulateurs, des plateformes de transactions électroniques alternatives (Electronic Communication Network, ECN) qui proposent un service similaire à celui d’un marché régulé. Ils tentent d’attirer l’offre et la demande au moyen de nouveaux modèles transactionnels (par exemple, la rémunération des apporteurs de liquidité) ou en proposant une meilleures performance de traitement dans la gestion des transactions2. Ces nouvelles plateformes, fondées sur des systèmes informatiques, ont contribué en tant que telles, mais aussi par l’accent mis sur la vitesse du traitement comme indicateur de performance, à la généralisation des plateformes de transactions automatiques et au trading algorithmique. Parmi les grands noms de ces nouvelles plateformes, on trouve Better Alternative Trading System (BATS), fondé en 2006 et Direct Edge produit du rachat de l’ECN Attain par Knight Group en 2005, depuis devenus des marchés régulés qui concurrencent les marchés d’actions tenus par NYSE/Euronext et NASDAQ. Les pionniers sont Island racheté par Instinet, le plus vieux ECN, lui- même racheté par le NASDAQ en 2005 et Archipelago racheté par NYSE/Euronext (NYSE ARCA) et REDIBook qui fusionne avec Archipelago en 1998. Par ailleurs, Chi-X Europe, un ECN lancé en 2007 avec le soutien de plusieurs grands noms de la banque d’investissements américaine, attaque les marchés d’actions européens avec un succès notable. Chi-X Global, l’équivalent asiatique de Chi-X Europe lancé en 2010, propose une plateforme pour les transactions de produits actions australiens et japonais et vise à terme toute la zone Pacifique. La généralisation du modèle ECN est suivie par une phase de centralisation alors que les grands marchés régulés absorbent leurs concurrents dans le cadre d’un grand processus d’informatisation. Dans le même temps une autre génération d’ECN, les plateformes de transactions alternatives (Alternative Trading System, ATS dit Dark Pools) voient le jour : l’une des principales, Liquidnet, est lancée en 2001. Ces plateformes, tout comme les ECN, proposent un service unique : des transactions fondées sur un anonymat complet – pas de notions de prix, pas de notions de volumes mais 2 Les ECN en tant que tel existent depuis longtemps : Instinet a été fondé en 1969, avec en perspective la compétition avec le NYSE et le NASDAQ, et a été présenté comme le premier marché d'actions électroniques à sa fondation en 1971. Le boom technologique qui a accompagné le développement d’Internet est en grande partie responsable de la banalisation des compétences informatiques et de la réduction du coût des plateformes matériels et logiciels.
  • 10. 10 uniquement une négociation. Un ATS est une plateforme d’échanges réduite à sa plus simple expression : un moyen pour l’offre et la demande d’indiquer un intérêt pour un produit. Division des transactions relatives aux produits actions US par types de plateformes, au premier trimestre 2010, Tabb Group 2010 Ainsi, on observe un processus de fragmentations suivi d’une centralisation autour des grands pôles d’échanges. Alors que les principaux ECN deviennent des marchés régulés et que les autres se marginalisent ou sont absorbés, une nouvelle génération de plateformes alternatives voit le jour et se développe. Dé-verticalisation & spécialisation Les récentes évolutions du système juridique qui encadre les transactions sur les marchés financiers, Req NMS aux USA et la MiFID en Europe, ont transformé l'organisation des acteurs. Le modèle buy- side / sell-side où le premier représente les investisseurs institutionnels, les fonds d'investissements et le second, les banques, a éclaté désormais en une myriade d'acteurs qui proposent des services très divers. Ces services peuvent être de nature utilitaire, agrégateurs de flux de cotations, processeurs de flux évènementiels, modèles de stratégies financières, modèles de gestion de risques, modèles d'exécutions d'ordres, systèmes automatisés de transactions. Il peut aussi s'agir de moyens d'accès alternatifs aux sources de liquidité qui privilégient l'anonymat dans la transaction, de manière à limiter l'activité prédatrice d'autres acteurs ou de plateformes d'échanges dédiées entièrement à une classe d'actifs ou à une catégorie de produits financiers. La croissance de ces nouveaux acteurs est fulgurante : Chi-X, lancé par Instinet en 2007, couvre 26% des transactions sur l'index britannique FSTE 100 et globalement 15% des transactions sur les produits actions européens. L'investisseur peut désormais choisir tous les composants de son processus de transactions.
  • 11. 11 Les avancées en matière de communication électronique et de calcul informatique vont, en parallèle aux évolutions de la législation contemporaine, permettre une dé-verticalisation du système des acteurs financiers. Les coûts d'entrée moindres pour l'acquisition et la mise en œuvre d'une performance technique au moins équivalente à celle des grands acteurs du monde des échanges financiers vont contribuer à une spécialisation de l'activité et à l’émergence de nouveaux acteurs. Les principales institutions vont déléguer le volet échanges à des acteurs spécialisés sur une dimension très spécifique du processus d'échanges. De fait, les grands pôles de l'architecture du système financier actuel, Londres, New York, Singapour et Tokyo sont concurrencés par l'émergence de systèmes d'échanges mis en œuvre par des entreprises privées qui ont fait l'investissement d'une infrastructure technologique et d'une main d'œuvre qualifiée. L’adoption de plateformes de transactions automatiques est fonction d’une dynamique qui vise à réduire les coûts d’opérations et à augmenter la capacité à traiter un volume d’ordres en constante augmentation. Ce phénomène a, en retour, transformé l’activité sur les marché, spécifiquement en termes de vitesse, de volumes d’actifs associés à un ordre et de volumes de transactions. Les tendances actuelles sont claires. D’une part, les transactions électroniques sont devenues la norme et d’autre part, le trading algorithmique adapté à un système de transactions très rapide sur plateformes multiples est de plus en plus utilisé. Les investisseurs, firmes ou particuliers, ont accès de plus en plus facilement aux plateformes d’échanges. Les plateformes de transactions alternatives
  • 12. 12 (ATS) deviennent de plus en plus attractives et captent de plus en plus de liquidités. Cette flexibilité dans l’accès aux marchés, couplée à une technologie très abordable et facilement disponible, a contribué en retour à augmenter le type et le nombre d’acteurs. Ceux-ci sont autant des opérateurs de marché, les firmes de HFT comme exemple, que des prestataires de services, des constructeurs ou des éditeurs de logiciels. On note ainsi un phénomène de marchandisation des compétences et des systèmes associés aux transactions automatiques sur les marchés. Ce dernier est décrit plus précisément par la suite. Dynamiques dans l'adoption des plateformes de transactions automatiques Le cadre légal actuel : Reg NMS et MiFID La législation des marchés régulés américains a été bouleversée par la Reg NMS qui a posé le concept de meilleur offre/meilleure demande (National Best-Bid Best-Offer - NBBO) au niveau national. Les marchés doivent désormais router les ordres sur la plateforme qui propose la meilleure offre ou demande ou annuler l'ordre. En Europe, la MiFID a introduit un principe similaire. Cependant, contrairement à la Reg NMS, l'obligation de router les ordres en fonction du couple offre/demande n'est pas imposée. Les plateformes d'échanges où les intermédiaires doivent néanmoins "tout faire pour obtenir" la meilleure transaction pour leur client, ce qui en pratique revient, soit à une évaluation en amont, au choix de la meilleure plateforme pour l’échange d’un actif donné, soit à un système similaire à celui mis en place aux US avec une évaluation ordre par ordre et en temps réel. La première option est de loin la plus répandue compte tenu du coût important de la seconde. La MiFID encadre l’existence et l’activité de ces plateformes par une structure juridique : les ECN américains sont caractérisés comme Multilateral Trading Facilities (MTS) et les ATS comme Systematic Internalizer (SI). La convergence des différents facteurs : puissance de calcul peu onéreuse, stratégies de transactions informatiques intensives, exécution automatisée et accès direct au marché, a apporté aux acteurs du marché, au cours de ces dernières années, des avantages et des bénéfices qui leur permettent d’identifier et d’exécuter des transactions, le tout en quelques secondes seulement. Straight Through Processing : l’informatisation complète du processus de transactions L'informatisation des marchés financiers a débuté il y a une quarantaine d'années, au début des années 1970, lorsque le NASDAQ a le premier déployé un système de cotations automatiques pour son activité d'animation de marché. En Europe, les premiers services informatiques ont été créés au cours des années 1980 et il a fallu attendre les années 1990 pour que les plateformes d'échanges deviennent complètement automatiques. Le cœur du processus d'informatisation des marchés est l'implémentation d'un carnet d'ordres centralisé pour les ordres limites qui définit de manière
  • 13. 13 quantitative l'intérêt porté par les acteurs à un actif et qui est accessible par tous les acteurs. Cette transparence a contribué à réduire la dissymétrie entre les acteurs en matière d'information, à favoriser la liquidité des plateformes d'échanges et la détermination des prix. Le Straight through processing (STP) est une conception du processus de transactions relatif aux produits financiers sur les opérations trade et post-trade qui visent à automatiser l’intégralité des actions. Les processus de transactions, de contrôles, de compensations, de règlements et de comptabilisation sont concernés avec l’objectif de limiter le risque et de réduire les coûts. Le concept STP est un ensemble de processus et de technologies utilisé pour créer une infrastructure qui permette la gestion des transactions sur les marchés en temps réel. L'impulsion initiale pour une approche STP est venue de la régulation américaine (SEC) et de la Securities Industry Association (SIA) qui ont proposé de réduire les opérations de compensations de trois jours à une journée. Cet objectif s'est par la suite étendu pour inclure l'intégralité du cycle d'une transaction sur le volet trade/post- trade. Le volume de transactions est en augmentation constante et le risque associé à ces transaction- crédit, liquidité, contrepartie - devient de plus en plus maîtrisable, hors système de traitements temps réel. Par ailleurs, l'impact combiné de l'expansion de la transaction électronique, de la standardisation des produits financiers et d'une régulation axée sur la réduction des spreads, a contribué à réduire les marges des grands opérateurs. Le concept STP est passé de l'expression d'une nécessité à un impératif pour l'industrie financière. Il témoigne de l'exclusivité de la transaction électronique dans les opérations contemporaines sur les marchés financiers dont la qualité, en tant que processus informatique, représente le facteur élémentaire dans la performance d'un opérateur. La qualité du système informatique d'un opérateur de marché contemporain ne détermine pas sa performance, par contre, la performance d'un acteur est fatalement construite sur un système informatique performant. L’accès direct au marché Le modèle classique, courtage ou intermédiaire référencé par un marché qui prend en charge les transactions sur les plateformes d'échanges, n'est plus l'unique modèle. L'accès direct au marché représente un canal mis à disposition par un courtier pour un investisseur afin qu'il puisse opérer directement sur un marché via les infrastructures du courtier, ce dernier ne conservant que les opérations de gestion du risque. L'accès sponsorisé, une déclinaison du procédé d’accès direct au marché (Direct Market Access - DMA), représente une location de référencements d'un courtier sur un marché (Sponsored Access - SA). L'investisseur peut, dès lors, agir avec ses propres infrastructures et choisir ou non de déléguer la gestion du risque au courtier (Filtered SA contre Naked SA). Dans ce dernier cas, le courtier reçoit juste une notification des différentes transactions. Le grand avantage d'un modèle DMA est un temps
  • 14. 14 d'exécution moindre pour chaque ordre. De fait, il s'agit d'une configuration tout à fait adaptée aux échanges algorithmiques. L’accès DMA est le produit d’un long processus d’automatisation des transactions du côté des investisseurs. Initié par la normalisation des échanges, avec notamment le protocole FIX, accéléré par l’inter connectivité des systèmes, le développement des ECN et la progressive mise à l’écart des transactions par opérateurs humains, DMA représente la dernière étape d’un processus amorcé il y bientôt 20 ans. Les modalités de rémunérations des plateformes d'échanges, en termes de volumes ou de moyens, ont aussi influencé l'écosystème des marchés financiers. La concurrence entre les grandes places financières et les plateformes d'échanges alternatives, particulièrement sur les marchés actions, a contribué à revoir à la baisse les systèmes de commissionnement et à mettre en place des modes de tarification incitatifs. Le modèle en la matière est maker/taker dans lequel le preneur de liquidité, à l'achat ou à la vente, a pour charge le règlement de la commission. L'initiateur de ce modèle est l'ECN Island, à la fin des années 1990. L'informatisation des marchés a renforcé l'exigence de rapidité dans le passage d'un ordre. L'évolution d'une situation est effectivement fonction d'un rythme très soutenu et le risque d'obsolescence dans l'exécution d'une stratégie est donc beaucoup plus marqué. L'industrie
  • 15. 15 informatique, constructeurs et développeurs, a pris acte de ce nouveau marché et s'est développée dans des proportions très importantes. En parallèle, les marchés ont ouvert leurs datacenters aux opérateurs et vendent la possibilité de réduire le délai de transmission à fraction négligeable (colocation). Le fonctionnement de ce système est développé plus loin. Enfin, l’origine de ces évolutions récentes est liée aux nouvelles régulations des marchés qui ont défini comme règle première, pour toute transaction de produits financiers sur les marchés régulés, le routage vers la source de liquidité qui propose le meilleur prix. Ces nouvelles régulations ont ainsi entraîné la fragmentation des marchés. L’activité sur les marchés La technologie a contribué à transformer en profondeur l'activité sur les marchés financiers. L'automatisation du processus transactionnel, de l'initialisation jusqu'à la confirmation d'un ordre, l'utilisation massive de systèmes informatiques d'exécutions d'ordres qui assurent la gestion, la notification et le routage, ont placé l'informatique au cœur de l'activité. Depuis une dizaine d'années, le développement de stratégies fondé exclusivement sur des moyens informatiques, associés ou non à des modèles mathématiques, a placé la vitesse d'exécution comme facteur essentiel dans la réalisation d’un profit. Le processus de transaction Les marchés financiers se distinguent par les classes d’actifs prises en charges et par les modalités d’échanges. Les classes d’actifs couvrent les produits actions (equities) qui représentent une part d’une entreprise qui a rendu public : son capital, les produits de dettes (fixed income) étatiques ou industriels (corporate), les devises (foreign exchange), les matières premières (commodities), le financement court- terme sur le marché monétaire (money market) et les dérivés (derivatives), les produits constitués sur la base d’un sous-jacent qui appartient aux grandes classes d’actifs citées. Les plateformes d’échanges de produits financiers se distinguent d’abord en fonction des modalités d’échanges. Le système dit « mené par les cotations » (quote driven) repose entièrement sur l’activité de teneurs de marché qui réceptionnent les ordres et émettent des cotations. L’opérateur peut choisir dès lors, d’acheter ou de vendre au prix fixé ou de négocier avec le teneur de marché. Le système dit « mené par les ordres » (order driven) est fondé exclusivement sur un carnet d’ordres alimenté par les opérateurs. Le rôle du teneur de marché n’est pas indispensable. Les opérateurs peuvent placer une grande variété d’ordres. On peut citer :
  • 16. 16 • les ordres aux marchés qui demandent ou proposent une certaine quantité au meilleur prix et qui sont systématiquement exécutés pour peu que le volume à l’achat ou à la vente corresponde, et • les ordres limites qui donnent un prix à l’achat ou à la vente associé à une quantité et qui ne sont exécutés que s’il existe une contrepartie. Les marchés actuels sont plus proches, dans l’ensemble, du modèle order driven, compte tenu des récentes législations américaines et européennes qui visent à unifier le plus possible l’activité des marchés. Néanmoins, de nombreuses plateformes dont le NYSE/Euronext et le NASDAQ, conservent un système hybride. Enfin, il existe une classe annexe de marché fondée sur la négociation entre opérateurs. Le rôle de la plateforme est, dès lors, limité à la possibilité de transmettre un indicateur d’intérêt d’un opérateur anonyme au marché. Il s’agit du mode de fonctionnement des ATS. Le protocole transactionnel peut beaucoup varier d’une place à une autre et toucher les volumes minimums, les écarts minimums, les disponibilités ou encore les coupe-circuits pour prévenir un changement brutal dans le statut de l’offre et de la demande. Invariablement, le dénominateur commun touche à la précédence des ordres, fondé sur la qualité du prix puis sur l’horodatage (timestamp) de l’enregistrement de l’ordre. Les acteurs des marchés financiers varient beaucoup en fonction de la nature des produits échangés. Les marchés de capitaux, orientés investisseurs, sont par nature très différents des marchés de dérivés qui concernent majoritairement les producteurs et les industriels désireux de couvrir un risque par le biais d'intermédiaires. On peut néanmoins distinguer une typologie commune : • Les opérateurs : il s'agit des acteurs des marchés financiers, à l'offre ou à la demande, qui choisissent de vendre ou d'acheter un risque. Sur les marchés de capitaux, on trouve les investisseurs institutionnels (compagnies d'assurance, fonds de pensions, agences gouvernementales) et les fonds d'investissements. • Les intermédiaires : ils représentent des acteurs passifs dont l'action est déterminée par l'activité des opérateurs et dont le rôle est de favoriser la rencontre de l'offre avec la demande. Il s'agit typiquement des courtiers (broker-dealer) ou des banques d'investissements qui agissent pour le compte de clients • Les infrastructures : soit les plateformes d'échanges, régulées ou alternatives, les chambres de compensations, la myriade de fournisseurs de services informatiques, les constructeurs, les éditeurs et les hébergeurs. L’activité d’un marché est déterminée par la relation entre le distributeur (dealer) et le client. Le distributeur est généralement un courtier qui possède les accréditations pour agir sur une plateforme d’échanges. Dans cette configuration, le client peut faire appel au courtier pour exécuter une transaction : il s’agit du modèle distributeur à distributeur (inter-dealer). Les grands marchés régulés, NYSE/Euronext, NASDAQ, LSE, CME, CBOE, pour ne citer que ceux-là, fonctionnent de la sorte. Les
  • 17. 17 transactions peuvent aussi s’effectuer en dehors d’un marché régulé (Over the Counter - OTC) avec ou sans plateformes d’échanges et touchent, en général, les produits monétaires, les dérivés ou des produits très spécifiques, typiquement les produits structurés autour des dettes des ménages. Le modèle distributeur-client représente une alternative qui met directement en relation l’offre et la demande sur une plateforme dédiée. Les ECN qui autorisent à la fois les communications distributeurs/distributeurs, distributeurs/client et client/client fonctionnent comme un marché classique sur la base d’un carnet d’ordres par actifs. Les plus anciens, comme BATS ou Direct Edge, sont devenus des marchés régulés à part entière. Enfin, des sources de liquidité alternatives, les ATS, fondées sur la négociation ou sur un principe d’alertes, permettent une relation entre offre et demande fondée sur un anonymat complet. Les ATS sont un phénomène nouveau qui représente ce qu’était au début des années 2000 les premiers ECN : un moyen d’accès à la liquidité original et attractif. Les ECN proposaient alors des transactions plus rapides à un coût moindre. Certains proposaient même un nouveau système de rémunération pour les apporteurs de liquidité. Ils transformèrent durablement l’activité sur les marchés financiers et furent, pour beaucoup, finalement absorbés par les grandes places financières. Une transaction sur un marché est généralement divisée en trois étapes : • Pre-trade - Il s’agit de la phase d’analyse durant laquelle un opérateur, personne ou machine, prend la décision d’exécuter un ordre. Cette phase couvre le travail de recherches, de tests et d’évaluations dans le cadre de l’élaboration d’une stratégie d’actions sur les marchés.
  • 18. 18 • Trade - La demande d’exécution est transmise à un courtier ou au système en charge de la connexion avec une plateforme d’échanges. Les modalités d’exécution de l’ordre sont à la charge du courtier, si un intermédiaire est utilisé, qui va rendre compte à son client de la performance de l’opération.3 L’intermédiaire va transmettre la demande à la plateforme d’échanges, le marché, qui va intégrer celle-ci au système de gestion des ordres qui prend en charge les carnets. Généralement, les opérations de validation de la conformité (compliance) et d’évaluation du risque sont assurées à ce niveau. • Post-trade – Une fois l’ordre placé sur un marché et exécuté, celui-ci est notifié au courtier qui notifie à son tour le client. La nouvelle position est attachée à un portefeuille et prise en charge par les systèmes comptables. Les opérations de compensations (clearing) sont établies, en particulier les appels de marges pour les contrats à termes, et la livraison (settlement) des produits est assurée. • Les coûts de transactions Les coûts liés à une opération sur une plateforme d’échanges sont de nature très diverse et peuvent avoir un impact significatif au niveau du retour sur investissement. Il peut s’agir de coûts liés au processus d’investissement, soit les taxes éventuelles ou le coût lié au délai entre l’envoi d’un ordre et à la notification effective sur la plateforme d’échanges, en fonction de l’évolution du prix de l’actif. Il peut aussi s’agir de coûts liés à l’exécution de la transaction : la commission de l’intermédiaire ou la rémunération de la plateforme d’échanges. Enfin, les coûts liés à la transaction couvrent le paiement du spread et l’impact sur le marché. Ce dernier volet est fondamental : les premiers systèmes de transactions automatiques et, de fait, les premiers algorithmes avaient pour objet la gestion du passage d’ordres et la limitation de l’impact sur le marché. L’analyse pre-trade se focalise essentiellement sur les données relatives aux prix – la volatilité - et sur la liquidité de l’actif. Un modèle permet l’évaluation d’un coût lié à la transaction et donc le choix d’une stratégie d’exécution appropriée. L’analyse post-trade s’attache à l’évaluation de la performance de l’exécution et à la mesure du coût réel. Généralement, il s’agit de la comparaison d’un indicateur du coût lié à la transaction avec un benchmark, typiquement un benchmark intraday type VWAP. Le trading algorithmique, en tant que tel, est un moyen de mise en œuvre de stratégies de transactions destinées à limiter le coût de transactions sur un volume d’ordres important. Les courtiers proposent ainsi une multitude de plateformes composée de systèmes d’exécutions d’ordres performants et d’une palette d’algorithmes adaptée à un besoin particulier. Ces systèmes, baptisés EMS pour Execution Management System, représentent l’évolution naturelle des premiers systèmes de gestion d’ordres, orientés back office (Order Management System - OMS) qui sont à l’origine de l’informatisation 3 L’exécution d’un volume d’ordres important est une opération complexe compte tenu de l’impact sur l’équilibre actuel de l’offre et de la demande.
  • 19. 19 des différents acteurs concernés par les transactions de produits financiers. Actuellement, avec le succès rencontré par les ATS, les EMS sont confrontés à un nouveau défi qui est d’intégrer des sources de liquidité difficiles à interfacer au processus de sélection des plateformes et de routage des ordres. Trading quantitatif Le trading dit quantitatif est un modèle décisionnel pour opérer sur les plateformes d’échanges de produits financiers. En effet, une unité de trading quantitatif met en œuvre un ou plusieurs modèles, produits d’un travail de recherche plus ou moins long4et validés par une série de tests sur un volume de données important. Une stratégie représente l’implémentation d’un modèle. Une unité de trading quantitatif est composée de plusieurs modules. Module de stratégies Le module de stratégies produit une demande d’exécution d’ordres en fonction d’une logique. L’ordre est lui-même une transaction qui produit un bénéfice et qui accepte un risque. L’objet du module de stratégies est de proposer une prospective investigatrice. En ce sens, il ne s’agit que d’un élément du système de transactions automatiques. La typologie des modèles s’appuie sur le type de données qui va déterminer le produit de la logique du modèle. Ces données peuvent être le prix ou les informations fondamentales associées à un actif. 4 Certains modèles ou déclinaison de modèles existants sont produits sur un laps de temps très court. Les unités de trading quantitatifs industrialisent souvent la production de modèles (recherche, tests et déploiement) dans un processus intégré.
  • 20. 20 Pour chaque approche, il existe un certain nombre de branches primordiales qui vont constituer chacune le cœur d’un modèle. En fonction de l’historique du prix d’un actif, il est possible de déterminer un courant ascendant ou descendant. Une approche élémentaire consisterait à comparer deux moyennes mobiles sur une plage temporelle différente (longue et courte) et de définir une tendance de manière à capitaliser dessus. Dans la même optique, la théorie associée au concept de « retour à la moyenne », considère l’existence d’un centre de gravité autour duquel évolue un prix. Si celui-ci est isolé, un opérateur peut capitaliser à la vente ou à l’achat sur la différence actuelle entre le prix de l’actif et son prix moyen. L’arbitrage dit statistique, une stratégie qui sera détaillée plus loin, constitue un bon exemple. Il capitalise sur un écart anormal entre deux actifs dont le prix est étroitement corrélé. Le travail de l’opérateur a pour objet de définir l’actif surévalué ou sous-évalué. Les modèles constitués sur la base de données fondamentales vont définir une valeur associée à l’actif. Contrairement à un analyste classique qui va s’attacher à une étude de l’actif et de son contexte pour déterminer sa valeur, l’approche quantitative vise à déterminer précisément la valeur : il peut s’agir, par exemple, d’un taux d’intérêt ou d’un dividende. Un exemple de cette approche est la stratégie dite d’écart sur le rendement qui vise à déterminer pour deux actifs une valeur donnée et à vendre le moins intéressant de manière à financer l’achat du second. D’autres méthodes d’évaluation de la valeur existent sur la base de la croissance historique ou sur une évaluation quantitative de la qualité d’un actif, le rapport dette/bénéfice d’une entreprise par exemple. Module de gestion du risque La gestion du risque représente l’introduction d’une limite au risque auquel s’expose une stratégie en termes de volumes et de types. Il s’agit d’un contrôle effectué sur la sélection et la conservation de positions sur un ou plusieurs marchés de manière à ne prendre en charge qu’un risque gérable et profitable. Ce module permet la supervision des opérations exécutées par les différentes stratégies et la quantification du risque associé au produit de chaque opération, idéalement en temps réel. Module d’exécution des transactions Le module de transactions a pour charge d’évaluer le coût d’une transaction associée à l’exécution d’une stratégie. Tout comme le module de stratégie, il propose une évaluation et n’est pas en charge de l’exécution. Il détermine le coût que représentent les commissions versées à l’intermédiaire, s’il existe, le différentiel éventuel entre le prix à la création d’un ordre et le prix à l’exécution sur la plateforme d’échanges (slippage) ainsi que l’impact de la transaction sur le marché. Plusieurs modèles
  • 21. 21 élémentaires existent qui représentent avec plus ou moins de précisions le coût associé à une transaction. La précision du modèle est intimement liée à la charge de calcul. Module de construction de portefeuilles Le module de construction de portefeuilles a pour rôle d’arbitrer entre le produit du module de stratégies, du module de gestion de risques et du module d’exécution de transactions. Il existe deux grands modèles de construction de portefeuilles. Le premier est fondé sur un ensemble de règles gouverné par une heuristique déterminée par l’opérateur. Il est possible d’isoler quatre types en fonction de la priorité ou de l’exclusivité accordée à un facteur. • La valeur intrinsèque d’une stratégie en fonction du contexte, soit le choix de considérer qu’un signal a permis de déterminer une tendance, par exemple de type trend following, et qu’il est suffisant pour déterminer une action. • Le poids associé au risque, soit une pondération de la valeur déterminée pour un actif avec le risque correspondant de l’intégrer dans le portefeuille. • Le profit potentiel, soit la possibilité de déterminer le choix d’une position en fonction du profit supposé de l’acquisition de cette position. • Un système décisionnel fondé sur la combinaison de modèles qui prend, de fait, la forme d’un arbre de décisions où le produit final et la quantité d’un actif dans un portefeuille, sont fonction de l’interaction de plusieurs modèles, typiquement trend//value. Le second est fondé sur une fonction d’optimisation. Une fonction d’optimisation a pour objectif de maximiser la valeur du portefeuille en fonction d’un certain nombre de paramètres tels que le profit espéré ou la volatilité anticipée et d’un panel d’actifs. Trading algorithmique Le trading algorithmique est un moyen d'action fondé exclusivement sur des plateformes informatiques constituées d'une logique d'actions, d’un algorithme et d'un objectif (passage d'ordres, génération d'un ordre en fonction d'une situation). Un algorithme est défini en fonction d'une stratégie et il est constitué de plusieurs éléments. Le premier élément est un benchmark : c'est-à-dire une mesure de la performance de l'algorithme. Il peut
  • 22. 22 s'agir d'une exécution sur une période historique donnée, comme la journée pour un algorithme de type VWAP ou les secondes précédentes pour un algorithme de routage d'ordres. Le second élément est une logique : c'est-à-dire un module de prise de décisions. Enfin, un support de stockage de données, quel que soit son format, qui peut alimenter la logique en données sur la situation actuelle et surtout permettre le test (back-testing) de nouvelles stratégies ou la modification d’algorithmes existants. Les caractéristiques du trading algorithmique sont : • L’intégration d’un système décisionnel préprogrammé et utilisé par des professionnels. • Une supervision de l'activité des marchés en temps réel. • Un système automatisé de passage et de gestions des ordres sans intervention humaine dans l'exécution. • L'utilisation d'un procédé DMA ou d'un procédé de colocation pour l’accès au marché. • Une action sur des classes d'actifs très liquides, typiquement les produits actions. La typologie des algorithmes est fonction de l’objectif associé à son exécution. On peut isoler les catégories suivantes : • Les algorithmes orientés génération de profits (alpha). Opportunistes, ils sont orientés bénéfices à court terme et fondés systématiquement sur une analyse temps réel. Ils ont pour objet de tirer profit des conditions actuelles du marché. Dans cette catégorie, on peut citer les modèles d’animation de marché automatique, les stratégies event-driven qui détectent une rupture micro ou macro dans l’actualité et qui capitalisent sur son impact sur les marchés ou les différentes modalités d’arbitrage. • Les algorithmes orientés exécution d’ordres. Ils visent le meilleur résultat pour le passage d’un ordre en termes de prix/unité. Ces algorithmes visent une balance entre l’exécution totale de l’ordre et les contraintes au niveau prix, liées à l’impact sur le marché. Typiquement, ce type d’algorithmes fonctionne sur la base de contraintes fournies par l’utilisateur, comme par exemple : achat de N unités de l’actif Z avec le benchmark J+1 VWAP au prix limite J-1 Low. Compte tenu de l’importance de cette catégorie, ce point sera développé plus loin. • Les algorithmes orientés routage. Ils permettent le séquençage et le routage d’un ordre en fonction de critères spécifiés par l’utilisateur. On peut citer le prix ou la vitesse d’exécution. De plus, ils permettent aussi une évaluation fine de la plateforme d’échanges et notamment de la qualité de la liquidité via un mécanisme de tests. Les plus performants concernent aussi les ATS. • Les algorithmes orientés sur la capture d’informations. Ils ont pour objet le filtrage et le séquençage de données d’actualités ou historiques à partir de sources et de supports multiples. Il peut s’agir de modules dans le cadre de stratégies alpha ou d’une aide à la décision pour les opérateurs humains.
  • 23. 23 Trading haute-fréquence Le HFT est un phénomène relativement nouveau dans le monde de l'AT. Il n'existe pas de définition établie. Les caractéristiques de cette activité sont : • Un volume d'ordres et une fréquence de passages d'ordres très importants. • Un volume très important d'annulations d'ordres. • Une activité essentiellement localisée sur des petites entreprises propriétaires (pas d'apports de capital). • Les actifs achetés ne sont conservés que sur une très petite période et les positions sont débouclées avant la fermeture des marchés. • Un profit très faible sur chaque transaction. • Un impératif de rapidité dans la transaction. Les firmes HFT sont généralement propriétaires. Elles opèrent à partir d'un capital qui leur est propre. Elles constituent autour de 48% des acteurs HFT, comme Getco, Optivern et Tradebot. 46% sont des desks qui dépendent de courtiers ou de distributeurs comme Goldman Sachs ou Citigroup et 6% sont classés comme hedge-fund (capital fourni par des clients), Citadel ou Renaissance Technologies. Les acteurs HFT opèrent sur toutes les classes d'actifs et sont particulièrement présents sur les produits actions très liquides. Le HFT n'est pas une stratégie mais un moyen constitué à partir d’une technologie performante sur lequel des stratégies ont étés élaborées ou adaptées. Sur la partie animation de marchés, les systèmes HFT permettent de minimiser le risque dans la création de cotations et d'agir sur un spread très fin. La partie arbitrage, dépendante par nature de la rapidité dans l'opération, capitalise naturellement sur la performance des systèmes HFT. Les acteurs HFT sont devenus incontournables sur les marchés électroniques. Les estimations actuelles, sur les marchés d'actions au niveau mondial, donnent un volume supérieur à 50% pour les transactions dites haute-fréquence. Les perspectives de l'autorité des marchés financiers américaine (SEC) et du Boston Consulting Group estiment que ce chiffre atteindra 70% aux USA comme en Europe d'ici 2015. Le Committee of European Securities Regulators donne pour les acteurs haute- fréquence, en pourcentage de l'activité globale d'une place, 13% pour le NASDAQ et 40% pour Chi-X Europe - le marché d'actions alternatif européen.
  • 24. 24 Les algorithmes orientés exécution d’ordres On distingue trois grandes catégories d’algorithmes en fonction de l’objectif de l’exécution. Les algorithmes qui visent à limiter l’impact d’un volume d’ordres important sur le ou les marchés cibles de manière à conserver un prix proche du prix initial durant la transaction et à masquer autant que possible une brusque modification dans l’offre ou la demande. La première génération comprend les algorithmes fondés sur un prix moyen (TWAP, VWAP) et dont l’efficacité est évaluée par un benchmark. • Time Weighted Average Price (TWAP) : il s'agit de la division d'un volume d'ordres important sur un même actif et sur une plage de temps séquencée en intervalles identiques. L'algorithme séquence le volume avec l'objectif de minimiser l'impact sur le marché et la détection de l'exécution par les autres acteurs. • Volume Weighted Average Price (VWAP) : il s'agit d'un procédé par lequel une transaction sur un gros volume va tenter d'imiter l'évolution normale, comme par exemple l’historique du prix d'un actif de manière à, tout comme TWAP, minimiser l'impact sur le marché. VWAP représente aussi un benchmark pour l'exécution d'un volume d'ordres et permet, à l'aide d'autres indicateurs, de définir une performance par rapport au VWAP du jour ; la théorie voulant qu'une valeur inférieure constitue une transaction performante. La seconde génération, plus évoluée, prend en compte des paramètres dynamiques absents dans la première génération et qui favorisent le caractère opportuniste. Contrairement à la première génération qui fonctionne sur une base statistique et dont l’exécution est prédéterminée, la seconde génération possède un degré d’autonomie et réagit en fonction de l’évolution du marché. L’algorithme Percentage of Volume (POV) illustre le principe : il est fondé sur une exécution, à intervalles réguliers, d’un pourcentage du volume des unités d’un actif échangé au cours de ces intervalles. Les algorithmes orientés coût visent à limiter le coût associé à une transaction avec la notion de risque temporel défini comme le risque naturel que le prix s’éloigne du prix initial (Implentation Shortfall, Adaptative Shortfall, Market Close). Enfin, les algorithmes opportunistes intègrent tout un ensemble de paramètres dynamiques qui détermine totalement leurs comportements. Ils opèrent ainsi en fonction du prix, de la liquidité disponible et du coût de la transaction. L’évaluation relative au choix d’une modalité de transaction, d’un algorithme donné ou d’une combinaison d’algorithmes est déterminée par le choix d’un benchmark et d’une méthode d’évaluation de la performance ainsi que par le degré d’aversion au risque. Le principe directeur veut qu’une exécution rapide garantisse un coût évaluable mais élevé et qu’une exécution en dégradé permette la réduction du coût de transaction au détriment d’un délai plus important et d’une
  • 25. 25 incertitude relative à l’évaluation du coût global. Le choix d’une méthode est aussi fonction d’une analyse du contexte d’exécution. Les principales variables sont le volume associé à l’ordre, la dynamique du prix, la volatilité du prix et la liquidité de l’actif. A ces grandes familles d’algorithmes, on peut ajouter un certain nombre de procédés tactiques qui visent à exploiter une situation, un contexte ou une opportunité. Contrairement à un algorithme d’exécution, ces procédés n’ont pas pour objectif de fournir un résultat opérationnel définitif : il ne s’agit pas d’assurer l’exécution d’un volume d’ordres mais de faciliter leur exécution ou de la rendre plus performante. Enfin, les algorithmes élaborés qui tiennent compte des évolutions du marché en termes de prix, de volatilité ou de risques associés à une situation, incorporent des modèles de prédictions ou de gestion d’évènements. Les modèles de prédictions sont en général associés au volume fondé sur des tendances historiques ou sur le prix en fonction d’un déséquilibre éventuel au niveau de l’offre ou de la demande et de manière général sur une étude de la constitution du carnet d’ordres. De même, des modèles prédictifs sur la liquidité du marché ou sa volatilité fondés sur des données historiques associées à des modèles mathématiques (Generalized Autoregressive Conditional Heteroskedasticity - GARCH, Autoregressive Moving Average Model - ARMA) ou à une étude comparative cross-assets (action/options, action/index) permettent d’accroître la performance d’une opération. La gestion des évènements occupe une place importante et touche autant l’activité en dehors du marché et l’actualité que l’activité au niveau du marché. Systèmes de routages d’ordres intelligents Les systèmes de routages d'ordres intelligents (Smart Order Routing – SOR) ont pour tâche l'exécution optimale d'un ordre en fonction d'un nombre donné de sources de liquidité. Ils assurent un passage d'ordres qui limite au maximum l'impact sur le marché et sur les cotations les plus intéressantes. Ces systèmes sont temps réel et couvrent toute la partie transactionnelle, du passage de l'ordre aux opérations de règlement et de compensation.
  • 26. 26 Ces systèmes utilisent typiquement des flux de niveau 2 (visibilité sur la profondeur du carnet d’ordres) et s’appuient sur plusieurs techniques destinées à manipuler la microstructure des marchés de manière à maximiser les chances d’obtenir un résultat performant. Un processus de traitement type pour un ordre, sur un gros volume d’unités, se décompose en une phase de reconnaissance (probing) sur plusieurs sources de liquidité de manière à tester la profondeur réelle du carnet, c’est-à-dire en tenant compte des éventuels ordres cachés et de cibler (sniping) un marché ayant assuré le traitement immédiat de l’ordre. Typologie des sources de profit Animation de marché et fourniture de liquidité Le terme animation de marché (market marking) fait référence au placement simultané d'ordres limites à la vente et à l'achat pour un actif de manière à profiter de la différence de prix entre l'offre et la demande pour ce même actif (spread bid/ask). Cette activité peut être imposée légalement pour les entreprises en charge d'un marché ou volontaire, c'est-à-dire sans obligation de proposer une cotation. Les animateurs de marché utilisent généralement un système informatique pour la création, la suppression ou la modification des cotations en fonction d'une stratégie établie. De fait, une stratégie d'animation de marché performante implique la nécessité de pouvoir recomposer rapidement ses positions sur les carnets d'ordres et convient ainsi parfaitement à des acteurs qui capitalisent sur la vitesse d'exécution. Les sources de revenus d'une telle activité proviennent de l'écart entre l'offre et la demande et, suivant la politique de rémunération du marché, la prime acquise par le fournisseur de liquidés. Cette stratégie est tout à fait adaptée aux opérateurs HFT. Certains sont d'ailleurs des animateurs de marché désignés : c'est le cas de Getco pour le NYSE/Euronext depuis 2010. Un animateur de marché intervient à l'achat ou à la vente sans rechercher un profit spéculatif. Il se porte acquéreur ou vendeur de manière systématique en ajustant son prix de manière à tirer un bénéfice de l'écart entre le prix de vente et d'achat. L'activité de teneur de marché permet de limiter l'écart entre l'offre et la demande (réduction des spread), ce qui a pour objet en retour de favoriser la liquidité et d'affiner le processus de découverte des prix. Le gain de la stratégie dépend de la finesse des cotations (création et mise à jour) de l'animateur de marché et d'une gestion du risque efficace. L'activité d'animateur de marché est tout à fait adaptée à l’utilisation d’un algorithme. En effet, d’une part les gains générés ne peuvent plus justifier l'emploi ou le maintien d’une masse salariale (cas de la décimalisation des prix au début des années 2000 qui a précipité la disparition des teneurs de marché sur les grandes places américaines), d’autre part, la vitesse des opérations pour les teneurs de marché devient alors capitale pour assurer le succès de cette stratégie.
  • 27. 27 Dès lors que les cotations à l'achat ou à la vente sont suffisamment attractives d'un côté comme de l'autre, le teneur de marché termine ses transactions avec une balance positive et un stock nul. Le volume du bénéfice tient alors au volume de transactions effectué par l'opérateur. Le moyen d'assurer un volume de transactions maximum tient en la capacité du teneur de marché à rester en première position du carnet d'ordres à l'achat ou à la vente. Les priorités sur les transactions à la vente et à l'achat, au niveau des carnets d'ordres, sont déterminées par la qualité du prix puis par la précédence des ordres. Un ordre d'achat à 5.49/10:31:30:427 est prioritaire sur un ordre d'achat à 5.50/10:31:30:425 mais un ordre d'achat à 5.49/10:31:30:427 est prioritaire sur un ordre d'achat à 5.49/10:31:30:428. Dès lors, la vitesse d'exécution devient capitale dans le succès de la transaction : une nouvelle information mise à disposition du marché a un effet sur l'offre et la demande ; l'opérateur qui a les moyens de modifier sa structure d'ordres avant les autres peut ainsi positionner ses nouveaux prix en priorité et donc bénéficier du nouveau spread. L'activité du teneur de marché, évaluée de la position de l'investisseur, permet un spread fin, c'est-à- dire une évaluation des prix la plus fine possible. La contrepartie est une volatilité plus importante sur un intervalle réduit. D'une certaine manière, l'investisseur, avec un animateur de marché compétent, paie moins pour chaque transaction même si le volume exact de ce gain est proportionnellement variable. L'utilisation de plateformes informatiques permet un traitement moins onéreux et plus efficace que le maintien d’équipes d'animateurs de marché. Arbitrage Une opportunité d'arbitrage représente une information manquante au niveau du marché qui se traduit par un écart anormal dans l'évolution du prix de deux actifs corrélés de manière plus ou moins explicite. Un exemple type est une action et une option d'achat sur cette action. Ces opportunités sont traquées par une classe d'opérateurs, les opérateurs orientés arbitrage dont la performance est liée à la qualité des modèles et des programmes associés qui permettent d'isoler ces corrélations ainsi qu’à la vitesse à laquelle l'opération d'arbitrage peut être exécutée. L'arbitrage fondé sur des corrélations est baptisé « arbitrage statistique » dans la mesure où la définition des corrélations est effectuée sur une base statistique. Les grandes modalités d'arbitrage statistique couvrent : • L'arbitrage dit neutre au marché (market neutral arbitrage) qui représente un couple d'investissements avec une vente à découvert (position courte) d'un actif et l'achat d'un autre actif (position longue), tous les deux intimement corrélés. Ainsi, quelle que soit l'évolution du marché, l'investisseur ne sera exposé qu'au risque de performance intrinsèque à l'actif, soit dans le cas d'un arbitrage, d'une corrélation infondée. L'opération est profitable dès lors que la position courte touche un actif de valeur estimée moindre à celle de l'actif choisi pour la position longue.
  • 28. 28 • L'arbitrage entre marchés ou entre classes d'actifs représente l'activité d'arbitrage fondamentale. Un actif dont le prix est différent sur une autre plateforme d'échanges ou par rapport à un dérivé, le prix du sous-jacent évolue alors de manière différente et constitue l'objet d'une opportunité d'arbitrage. Un certain nombre de stratégies capitalise exclusivement sur la performance en matière d'acquisition de données qui proviennent des plateformes d'échanges. Qualifiés de prédateurs dans la mesure où ces algorithmes cherchent généralement à détecter une demande pour profiter de la montée des prix et par cette opération ils contribuent à une augmentation non justifiée du coût des opérations. Les systèmes qui mettent en œuvre ces stratégies sont fondés sur des infrastructures en colocation ou, si les marchés le proposent, sur des ordres flash. L'ordre flash (Flash Order) est un système mis en place par les marchés américains suite au passage de la Reg NMS et de l'obligation d'exécuter un ordre à la meilleure offre nationale. A la réception d'un ordre, si celui-ci n'est pas exécutable sur la plateforme d’échanges, cette dernière rend disponible, durant quelques millisecondes, l’ordre à une sélection d'opérateurs, laissant ainsi le temps de placer une cotation qui permet l'exécution de l'ordre sur la place. Ce système, fondé sur la vitesse d'exécution, ne concerne que les acteurs qui disposent d’infrastructures suffisamment performantes pour en profiter. Le caractère éthique des ordres flash a souvent été abordé car ils constituent effectivement un marché à deux vitesses. Le régulateur américain n'a pas encore imposé une règlementation sur ce point. Très controversée, cette pratique a été abandonnée par le NASDAQ et BATS : le régulateur américain, la SEC, a annoncé en 2009 qu’il étudierait la possibilité d’interdire les ordres flash. Stratégie de trading haute-fréquence Les opérateurs HFT peuvent être de natures diverses. Généralement, il s'agit de petites structures dédiées à cette activité, de hedge-funds spécialisés dans les stratégies de trading quantitatif ou de courtiers. Chacune de ces acteurs possède un business model qui lui propre. Les stratégies HFT sont nombreuses et souvent opaques. Néanmoins, la notion de stratégie HFT fait généralement référence à un moyen d'exécution plus qu'à un type spécifique de stratégie. Effectivement, une typologie peut être élaborée sur la base de grandes familles de stratégies de trading qui bénéficient de l'apport de systèmes informatiques rapides. • Une stratégie orientée capture du spread (spread capturing) capitalise sur des moyens d'accès très rapides au marché pour créer, modifier ou supprimer à la vente et à l'achat des ordres limites, leur permettant ainsi de réaliser un profit égal au spread. Les stratégies orientées sur la capture de la rémunération du marché (rebate driven) capitalisent sur une création agressive de cotations de manière à pousser à la transaction, même défavorable pour l'acteur, qui sera
  • 29. 29 compensée par la prime reversée par le marché. Les profits potentiels d'une telle activité sont importants : les primes reversées par Chi-X en 2009 atteignent 17 milliards de dollars. • Plusieurs stratégies, typiquement HFT, ont pour objectif de détecter sur un marché les grands mouvements en matière de liquidité de manière à les exploiter. Les stratégies de détections visent à isoler l'action des algorithmes de passage d'ordres et à évaluer l'état des carnets d'ordres. Les moyens sont nombreux et tournent essentiellement autour d'un positionnement actif ou passif sur le carnet d'ordres de manière à générer de l'information sur la situation de l'offre et de la demande. • Une stratégie de cotations parallèles capitalise sur la vitesse de passage d'un ordre pour bénéficier d'une opportunité liée à un grand mouvement de liquidité. Par exemple, un ordre limite à l'achat sur un gros volume à 20,00 euros peut être exploité en proposant immédiatement un ordre d'achat à 20,01 euros qui sera prioritaire. Les actifs sont ensuite revendus à l'acheteur initial après que le volume de demandes ait assuré l'augmentation du prix. Dans le cas où le prix baisse, les actifs peuvent toujours être revendus à l'acheteur initial pour limiter les pertes. Quelques exemples permettent de mieux comprendre l'action d'un opérateur HFT : Un opérateur souhaite vendre un volume d'actifs. Le meilleur prix à l'achat est de 5,50 euros. L'opérateur HFT est informé du passage de l'ordre, un ordre limite qui propose une faible quantité à un prix très faible est activé et choisit de pousser l'offre en postant d'autres ordres de vente, ce qui a pour effet de vider la partie demandes du carnet. Dès que la partie demandes est effectivement vide, l'opérateur HFT passe des ordres de vente à un prix légèrement inférieur à celui d'origine, par exemple, 5,48 euros en tenant compte de l'évolution naturelle du prix, ce qui a pour effet de placer l'opérateur HFT en première position de la partie demande du carnet. Cette opération demande une rapidité extrême afin de court-circuiter l'animateur de marché en charge de la contrepartie sur chaque actif de la plateforme d'échanges. L'opérateur qui souhaite liquider sa position doit désormais vendre à 5,48 euros, ce qui a pour effet de générer un profit de 0,02 euros pour chaque actif pour l'opérateur HFT. Par ailleurs, l'opérateur HFT, via un séquençage fin des ordres d'achats, peut déterminer lorsque la liquidité s'assèche et se repositionner à la vente à un prix sensiblement supérieur. Si l'opérateur HFT a effectivement encaissé des pertes sur les transactions initiales (achat à 5,50 euros), elles sont contrebalancées par les gains sur les transactions ultérieures. La capacité à passer très rapidement des ordres et à changer de posture dès que la situation change est un déterminant dans le succès de cette approche. Un évènement laisse suggérer que le prix d'un actif va être amené à augmenter. L'actif vaut 5,50 euros et les ordres d'achat commencent à remplir le carnet d'ordres. L'acteur HFT devance les autres acteurs et achète un maximum d'actifs au prix initial. Suite à cette opération et capitalisant toujours sur une vitesse importante, l'acteur HFT exécute une série d'ordres d’exécution ou d’annulation (fill or kill) pour évaluer le prix maximum auquel les autres acteurs pourraient être disposés à acheter, comme par exemple sur un intervalle [6 euros,5.75 euros] où 5,75 euros est exécuté. Connaissant le prix maximum de l'actif, l'acteur HFT peut vendre son stock pour un profit maximum.
  • 30. 30 Conclusion La structure et l'activité des marchés ont considérablement évolué. Les plateformes d'échanges et les acteurs sont plus nombreux et de types plus variés. Le degré d'informatisation est en augmentation constante, à la fois au niveau des plateformes, des moyens d'accès aux marchés et des traitements sur tout le processus de transaction. On note une diversification des acteurs fondée sur une spécialisation de l'activité, que ce soit au niveau de l'intermédiation, des plateformes ou encore de la nature des opérateurs. En parallèle, les fournisseurs de services informatiques, de solutions matérielles, logicielles ou d'infrastructures ont considérablement augmenté. Enfin, la législation vise à favoriser la liquidité par la compétition ainsi que par la transparence. De fait, la multiplication du nombre et des types de plateformes de transactions alternatives est fonction directe d'un choix législatif. La technologie a joué un rôle fondamental dans ces transformations en révolutionnant la structure des plateformes, les moyens d'accès et les stratégies commerciales. Le rôle notable de la vitesse d'exécution d'une opération dans l'appréciation de l'activité marché est la conséquence directe de l'intégration des nouvelles technologies informatiques à tous les niveaux de l'activité. Le facteur de latence est le dénominateur commun de la performance d'un opérateur, d’un intermédiaire ou d’un fournisseur de services ainsi que du côté des investisseurs. L'émergence du HFT est à ce titre particulièrement révélateur. L’impact de l’innovation technologique sur les marchés financiers a été très important. Il a bouleversé la structure des marchés, les modes d’actions et la manière de concevoir l’activité sur les marchés. L'automatisation des moyens d'accès aux marchés a contribué à leur performance. Elle a aussi renforcé l'efficacité des intermédiaires. Le processus de passage d'ordres s'effectue en flux tendu (concept STP) et favorise ainsi la transparence, le volume et la fiabilité des opérations. L'accès à l'information relative à l'activité des marchés est plus facile, plus rapide et moins cher. Les décisions sont prises sur une base plus solide et les opérations de valorisation d'actifs sont plus fiables. L'élimination des inefficiences via les opérations d'arbitrages est devenue plus fine et plus performante. La rapidité d’accès au marché et d’exécution d'un ordre s’est considérablement accrue. Ce facteur a donné naissance à de nouvelles stratégies, à de nouveaux acteurs (entreprises HFT, éditeurs de solutions logicielles, constructeurs, ATS) et à de nouvelles infrastructures (colocation). L'interopérabilité des systèmes favorise l'accroissement du volume de participation et la liquidité des marchés. Les nouveaux moyens d'accès aux marchés ont déterminés l'émergence de nouveaux acteurs et de nouvelles stratégies. L'innovation technologique a ouvert des champs d'activités nouveaux et à transformer les conceptions et les pratiques de stratégies existantes.
  • 31. 31 Les transactions automatiques sur les marchés : réseaux, systèmes et applications La problématique de la latence Le traitement des activités de marché par les technologies nouvelles est évalué à partir de benchmarks en millisecondes et dans le cas de technologies de pointes ou au niveau de domaines particulièrement sensibles, en microsecondes. De l’avis général, si la norme d’évaluation devait passer à la microseconde, l’effort en matière de recherche et de développement porterait sur un gain de l’ordre de la nanoseconde. La vitesse de la lumière est très rapide (autour de 300 000 kilomètres par seconde) dans l’univers actuel mais aussi futur des transactions haute-fréquence, elle devient un facteur handicapant. En effet, elle impose un délai incompressible dans une communication entre deux points géographiquement distants, comme par exemple, 18 millisecondes entre les deux grandes places financières que sont Londres et New-York. En parallèle, la puissance de calcul est en augmentation constante, que ce soit en termes de puissance par unité ou d’unités disponibles à un instant T. 18 millisecondes ou 36 millisecondes avec le retour représentent 110 millions d’instructions sur un CPU 3GHz, volume exponentiel verticalement via des processeurs plus performants et horizontalement, avec la parallélisation du traitement sur d’autres CPU. De fait, dans le cadre d’un système temps réel à haute-fréquence qui récompense le caractère opportuniste, définition adaptée aux activités marché, l’opérateur qui maximalise le rapport temps/calcul est généralement gagnant. Signe des temps, le procédé de colocation où un opérateur localise ses serveurs dans le datacenter de la plateforme d’échanges est en passe de devenir une norme. Un système rigoureux d’évaluation des distances à l’intérieur même du datacenter est garanti de manière contractuelle. La course aux meilleures performances en matière de vitesse ne s’arrête pas pour autant : la performance des programmes, de l’environnement d’exécution ou du support continue à jouer un rôle déterminant dans le succès des opérateurs de marché. La latence représente le temps entre deux évènements. Il peut s’agir du temps prit par un bit de donnée pour passer d’une interface réseau à une autre, du passage d’un ordre à son exécution ou de la durée prise par le trajet d’un paquet entre New York et Londres. La latence est définie ici comme la durée entre l’occurrence d’un évènement et la réponse apportée. Une caractéristique fondamentale de la notion de latence est le caractère prévisible : la certitude qu’une application répondra sur un intervalle de temps donné. A la notion de latence, il faut donc aussi associer la notion de variations, la gigue, (jitter) qui pondère la moyenne d’une latence sur deux évènements liés à une action sur un réseau, telle que la transmission d’un paquet avec émission et réception. Elle représente les phénomènes anormaux qui perturbent le signal.
  • 32. 32 Les problématiques liées à l’architecture des systèmes informatiques d’une salle de marché, quel que soit l’acteur concerné, sont fonction de la nature de l’activité d’un marché et d’un processus de transactions en temps réel et à haute-fréquence. La spécificité de l’action d’un opérateur de marché tient en la nécessité de traiter un volume d’informations considérable, mis à jour en continu et provenant de sources multiples. Il doit être capable de réagir immédiatement à l’évolution de son environnement et d’entreprendre une action potentiellement complexe, fonction elle-même d’un processus d’analyse élaboré. L’impératif d’une action rapide et donc d’un traitement performant, couvre toute la gamme d’acteurs des marchés financiers, qu’ils soient courtiers, animateurs de marché ou simples opérateurs. C’est un élément déterminant de la qualité du système informatique concerné. La sensibilité à la latence ne touche pas seulement les opérations front office mais aussi les parties de gestion du risque qui doivent être capables de superviser en temps réel la situation des portefeuilles de la structure ainsi que la partie conformité /compensation en charge respectivement du respect de la réglementation et des opérations post-trade relatives à la livraison. La présentation des données fondamentales associées au processus de transactions entre une plateforme d’échanges et le système d’un opérateur offre une meilleure visibilité sur les métriques utilisées.
  • 33. 33 Algorithmic trading: Can you meet the need for speed? Detica White Paper, 2008 Le processus transactionnel se décompose en cinq étapes : • La mise à jour des cotations relatives à un actif sur une plateforme d’échanges se situe entre 2 et 5 millisecondes. Le NASDAQ prétend atteindre une milliseconde pour cette étape, BATS donne entre 400 et 500 microsecondes, le London Stock Exchange donne deux millisecondes tout comme Deutsche Börse et NYSE/Euronext entre 3 et 5 millisecondes. • La dissémination des prix, soit leur publication sur un canal dédié. La durée entre la mise à disposition de l’information sur le canal et la réception par le système cible, au niveau interface, se situe entre 4 et 5 millisecondes suivant la localisation du système cible au niveau du territoire américain et sans prendre en compte les colocations. • La durée associée à la génération d’un ordre est très variable. Un temps médian de 100 millisecondes est avancé par Peter Rubin de Cisco (2008) En fait, l’essentiel du délai est côté opérateur. • Le temps mis par le système de la plateforme d’échanges pour assurer l’enregistrement d’un ordre est aussi très variable : entre 5 et 20 millisecondes pour les grandes plateformes. BATS donne 5 millisecondes, NYSE/Euronext entre 10 et 25 millisecondes, NASDAQ donne 15 millisecondes.
  • 34. 34 • La confirmation d’un ordre qui valide la réception par la plateforme d’échanges prend moins de deux millisecondes, 500 microsecondes pour BATS, une milliseconde pour le NASDAQ, deux pour NYSE/Euronext. Compte tenu de la sensibilité en matière de délai d’une transaction sur les marchés, les sources de latence se trouvent à tous les niveaux du processus de traitement informatique : • Au niveau interface et réseau, dans le cadre du processus de communication, de sérialisation, de transport et en fonction des protocoles de sécurité. • Au niveau transactionnel, c’est-à-dire au niveau des flux traités qui intègrent une gestion d’erreurs, une éventuelle notion de session et au niveau de la distribution des flux ou du produit avec les traitements associés sur le système cible via un middleware. • Au niveau système et application, c’est-à-dire le temps pris par un traitement analytique ou un mécanisme d’exécution applicatif. En réponse à l'attention toute particulière que porte l'industrie financière à la latence, un groupe de travail, FIX Inter-Party Latency (IPL), a été récemment constitué pour définir les critères, les indicateurs et les benchmarks relatifs à l'évaluation de la latence dans les transactions orientées marché. L'objectif est de mettre sur pied une structure complète d'évaluation pour toute la gamme d'acteurs des marchés sur la base de standards pour les mesures ainsi qu’au niveau des objets traités. Un autre indicateur de l'importance acquise par la latence : la typologie des opérateurs. Une distinction peut désormais être effectuée entre les opérateurs haute-fréquences et ultra haute- fréquences. Les premiers capitalisent sur les moyens courants de réduire le délai dans la communication avec les marchés alors que les seconds se tournent vers l'innovation technologique pour assurer une performance maximum.
  • 35. 35 Vue d’ensemble de l’architecture d’une plateforme d’échanges Le processus de traitement de flux de cotations Le processus de supervision de l’activité d’une plateforme d’échanges de produits financiers, qu’il soit un marché ou un moyen alternatif d’accès à l’offre ou à la demande (ECN, ATS) est simple dans son principe. Les plateformes d’échanges produisent de l’information relative à l’état de l’offre et de la demande. Ces flux de cotations dont le format varie en fonction de l’émetteur, primaire (la plateforme) ou secondaire (partie tierce qui propose une consolidation des flux) ou encore du type de données (niveaux 1 à 3 correspondant à la profondeur du carnet d’ordres) sont mis à disposition à qui en fait la demande et contre rémunération. Sauf déploiement des serveurs du récepteur en colocation, en connexion directe avec le réseau des plateformes d’échanges, les données sont transmises via Internet à l’acteur concerné.5 Les flux réceptionnés sont traités de manière à être consommés par les couches supérieures de la plateforme d’échanges (ou avant la transmissions à un autre acteur). L’opération implique une 5 Il existe des exceptions : Bloomberg possède son propre réseau physique, ce qui représente une plus-value considérable
  • 36. 36 gestion des erreurs au niveau réseau et au niveau du contenu, une mise en cache pour les opérations de consolidations ultérieures, un stockage sur support, un formatage et un transfert vers un parti tiers. Le système cible peut être un client, dans le cas d’un courtier ou d’un opérateur dont l’activité est orientée sur la gestion des flux, ou un système interne, généralement le bus de communication dans une architecture orientée service. L’architecture de la plateforme de traitement de flux est variable. Il peut s’agir d’un produit commercial ou d’une combinaison de modules réalisés en interne et de produits commerciaux. Le gestionnaire de flux (feed handler), le gestionnaire de cache et de stockage (cache server) ainsi que le module de routage (data hub) constituent les briques élémentaires de la plateforme. Le détail de l’architecture et un descriptif des standards du marché sont présentés plus loin. Les consommateurs des flux traités sont nombreux et variables. Les outils décisionnels, qu’ils soient à destination d’opérateurs ou entièrement automatisés, n’entrent pas dans le cadre de ce mémoire et ne sont qu’évoqués. Les modules concernés par la prise de décision et l’évaluation du risque associée à cette décision sont décrits plus loin. Le résultat du processus de décision suite à la consommation d’un flux peut être un ordre d’achat ou de vente d’une certaine quantité d’un produit donné. L’exécution de cet ordre est à la charge d’un composant (OMS ou OES) dont la tâche est de sélectionner la meilleure plateforme d’échanges et de minimiser le coût de la transaction (impact sur le marché et délai dans l’exécution de l’ordre). Les algorithmes d’exécutions d’ordres sont les plus vieux composants des outils de trading automatiques. Utilisés par les courtiers ou par les acteurs qui disposent d’une connexion DMA, ils ont pour tâche de séquencer le volume désiré dans le temps en arbitrant entre la rapidité de l’exécution et le coût associé à la transformation de la relation entre l’offre et la demande, suite à l’exécution de l’ordre. Le protocole de communication applicatif pour les passages d’ordres peut varier. FIX reste néanmoins largement utilisé. Les systèmes qui gèrent les transactions avec les plateformes d’échanges peuvent gérer la connectique à ces plateformes par plusieurs moyens. Les accès DMA, déjà décrits, permettent d’assurer une connexion directe avec une plateforme via les systèmes d’un intermédiaire, opérateur agréé d’un marché. Le degré d’interaction avec les systèmes du courtier définit la nature du service qui peut aussi couvrir les opérations pre-trade et post-trade La colocation, soit le déploiement des serveurs de l’opérateur dans le datacenter de la plateforme ou à une proximité immédiate, représente une autre alternative. Toutes les plateformes d’échanges proposent ce service contre une rémunération importante et selon une gamme de fonctionnalités très riche qui vont de la location d’un espace physique jusqu’à la gestion complète des transactions avec le système hôte. Les hébergeurs, comme Saavvis, proposent aussi des solutions de colocations. À titre d’exemple, BATS propose trois types de connectiques : • Un système de colocation sur deux datacenters (New Jersey et Chicago). • Un extranet fourni par un parti tiers, comme BT Radianz et Fixnetix.
  • 37. 37 • Une ligne Ethernet privée, 1Go ou 10Go, à partir de deux datacenters. Toutes les plateformes d’échanges ont une offre similaire, souvent via les mêmes intermédiaires. Le NASDAQ propose aussi une connectivité directe via quatre opérateurs (Con Edison, Level 3, Verizon Business, Yipes) ou un extranet via BT Radianz ou Saavis en plus des services de colocation. Le délai dans une communication réseau est lié aux facteurs suivants : • À la propagation, soit au temps mis pour une information à parcourir une distance donnée à la vitesse de la lumière. Le facteur de vélocité définit la différence entre la vitesse sur un média donné (cuivre, fibre optique) et la vitesse à l’air libre. La vitesse de propagation dépend du support de transmission (70% de la vitesse de la lumière sur un câblage fibre optique, 65% sur un câblage coaxial, 40% à 70% sur un câblage cuivre). Au délai associé à l’envoi, s’ajoute l’action des appareils de transmission et de retransmission dans le cadre de la fibre optique, des routeurs avec la mise en files des paquets, des procédures de sécurité et des systèmes de gestion de charges (load balancer et éventuellement deep packet inspection). • Au processus de sérialisation, c’est-à-dire au temps passé pour effectuer la conversion d’une donnée stockée en mémoire en un flux qui peut être transmis sur un réseau. A cette charge, s’ajoute les contraintes propres à la communication entre composants matériel d’une unité informatique, gestion des interruptions (Interrupt Service Routine), accès à la mémoire centrale et propagation sur les bus de l’unité. • Au protocole utilisé pour le transport, c’est-à-dire à la méthode utilisée pour la transmission des paquets et la gestion de la communication. Couches matériels et réseaux De manière à réduire la latence au maximum et compte tenu du fait que les délais dans une communication tiennent pour l’essentiel aux opérations I/O entre les matériels, une architecture haute-fréquence héberge l’intégralité des modules qui assurent le traitement sur une même machine. La gestion des flux et leur consommation par les unités décisionnelles se font donc sur une même machine, virtuelle ou physique. Ironiquement, la réduction de la latence passe par la simplification de l’architecture : moins de serveurs, moins de processus, moins de délais. Le transfert de données représente le cœur de l’activité d’une plateforme d’échanges. Une entreprise de trading haute- fréquence, en 2010, traite plus de 400 Go de données de marché par jour et autour de 20 Go de flux FIX, soit autour de 1.5 To si l’on tient compte des transmissions annexes. La première source de latence est le processus de sérialisation. Il s’agit du délai entre la création d’un paquet par l’interface réseau et sa transmission à la ligne. Ce délai peut être réduit par l’utilisation d’une ligne Ethernet 10 Go qui offre à l’heure actuelle les meilleures performances.
  • 38. 38 La seconde source de latence est la propagation, soit le délai lié à la transmission du paquet. Le délai nécessaire à la transmission des paquets sur le réseau constitue une source naturelle de latence entre l’envoi d’un paquet et sa réception par une machine distante. Plusieurs solutions existent pour traiter ce problème : • Une ligne Ethernet haut débit, typiquement Ethernet 10 Go. • Infiniband, un bus haut débit conçu pour la gestion de charges importantes qui implémente notamment la technologie Remote Direct Access Memory (RDMA). Infiniband et la technologie RDMA sont décrits plus loin.
  • 39. 39 • Un câblage fibre optique. L’avantage associé aux lignes en fibres optiques tient, potentiellement, à l’absence des opérations de sérialisation IP/Ethernet dans les réseaux classiques. En effet, le routage via fibre optique propose une alternative aux opérations de sérialisation classiques (Optical cross-connect), transitions optique/électronique, via les Reconfigurable Optical Add-Drop Multiplexers (ROADMS) qui maintiennent le signal optique de l’envoi jusqu’à la réception. • Un système de compression performant. La compression des paquets apporte en effet beaucoup à la performance du transfert. Le gain est notable malgré les cycles de CPU nécessaires aux opérations de compression/décompression. La troisième source de latence est la vitesse de propagation nominale sur un switch, soit le délai de transmission d’un paquet via un switch. Plusieurs méthodes permettent de réduire ce délai. • Cut-through switching, une méthode de traitement des trames fondée sur la propagation d’une trame Ethernet avant réception de la totalité de celle-ci. • La compression, un trade-off entre le temps réduit pour le transport et le temps CPU passé pour assurer la décompression du paquet. La quatrième source de latence concerne la performance de l’algorithme en charge de la mise en files des paquets. Cisco propose un ensemble de solutions logicielles et matérielles pour traiter ce problème. Baptisée Low Latency Queuing, cette technologie est fondée sur une notion de priorité associée à un paquet de manière à privilégier le traitement d’un flux de paquets par un matériel réseau. Par ailleurs, la gestion des paquets par piles TCP est paramétrable : il est possible de modifier ou de désactiver des protocoles de contrôle algorithmique en charge du traitement des paquets de manière à optimiser le temps de traitement. Enfin, un outil de monitoring de l’activité du système permet de cibler les sources de latence dans la transmission ou le traitement de l’information, tels que le Bandwidth Quality Manager (BQM) et le IP SLA de Cisco. Plusieurs produits spécifiques au monde de la banque existent, comme CorvilNet, AON Financial Services Latency Monitoring Solution pour les gestionnaires FIX. La cinquième source de latence est le délai de retransmission lors de la perte d’un paquet. Le choix d’une méthode de retransmission (mise en files ou abandon) détermine dès lors la performance du traitement. Couche Transport & Session Le processus de copie des buffers réseau au niveau des interfaces vers les buffers du système d’exploitation constituent, avec la commutation de contexte, la principale source de latence.