L’apport de l’informatique dans les calculs prédictifs

Maj le 6/3/23

De tous temps, l’homme a cherché à prédire l’avenir.

La physique et les mathématiques, les sciences dures, progressent, et il est avéré d’affirmer qu’elles sont très souvent dans une temporalité antérieure à leurs applications. Par exemple – tout simplement – la théorie héliocentrique de Copernic est prédictive de la réalité astronomique, et ceci de nombreuses années avant que l’ensemble de la population ne l’admette, la reconnaisse ou mieux l’observe. Et à quel prix …

De nos jours, les théories scientifiques et la modélisation de la réalité physique aboutissent à des calculs prédictifs complexes, qui nécessitent des moyens techniques et informatiques considérables. Et les autres sciences, dites « molles » par opposition, autres que les mathématiques et la physique, sont par voie de conséquence, concernées. L’ économie, la géologie, la démographie, la sociologie, etc. utilisent elles aussi désormais l’informatique pour les calculs prédictifs.

Heureusement, la loi de Moore, l’innovation et l’équipement, permettent aux ordinateurs (bel et bien programmés par le génie humain) une croissance exponentielle de la rapidité des calculs complexes. Dès lors, la prédictibilité de nombreuses réalités se voit, de nos jours, grandement améliorée.

La transformation numérique, ou digitalisation, ou bien encore disons les progrès de l’informatique, sont donc des facteurs d’amélioration de la prévision. A l’ère naissante de l’informatique quantique, ce paradigme se voit confirmé.

Prévoir, anticiper ce qu’il adviendra dans de nombreux domaines est une activité commune entre le génie humain et la puissance de calcul des machines informatiques. Prédire, c’est un enjeu politique, civil et militaire mais aussi économique, individuel et collectif.

Illustrons avec quelques exemples les formidables évolutions de la prédictibilité.

La météorologie : Plus personne ne s’étonne de la fiabilité extraordinaire de la PNT (prévision numérique du temps), dans l’heure, à 24 heures, 48h, voire même à 10 jours. C’est bien aussi grâce à la transformation numérique des institutions et sociétés prévisionnistes qu’une telle fiabilité prédictive est atteinte. Notez bien que ces entités disposent d’une puissance de calcul considérable. On parle de super-calculateurs, dont le développement peut nécessiter plus d’un milliard d’euros. Par ailleurs la fiabilité et la précision de la prévision sont intimement liées à la discrétisation du modèle atmosphérique d’une part et à la puissance de calcul informatique d’autre part. En 2021, les prévisions relatives au type de temps (anticyclonique, régime perturbé, etc.) et aux températures sont aujourd’hui fiables jusqu’à 15 jours, contre 8 jours il y a une vingtaine d’années. Impressionnant !

+

La biologie et la santé : L’apport de l’imagerie médicale avancée et de l’intelligence artificielle n’en sont qu’à leurs débuts. Diagnostiquer, c’est prédire mais aussi analyser , objectiver, observer, écouter. De fait, disposer de l’imagerie, c’est inspecter grâce à l’informatique le corps humain; utiliser des bases de données cliniques, c’est de plus aider à affiner la prédictibilité et l’évolution.

+

Le calcul des coûts prévisionnels de produits: Il est important lorsque l’on crée un nouveau produit voué à être commercialisé, de pouvoir anticiper autant que faire se peut le coût de fabrication de ce produit. Traditionnellement, l’approche analytique s’est imposée. Elle consiste à décomposer le produit en ses différentes pièces, et à quantifier unitairement le coût de ses pièces, auquel on ajoutera le coût d’assemblage notamment. En bref, tout est décomposé: la somme des charges de travail, des matières premières, des coûts d’usinage et d’assemblage permet la prédiction du coût unitaire.

Mais, de nos jours, grâce à la mise en œuvre de puissants algorithmes statistiques, à base d’intelligence artificielle, une nouvelle approche est possible: on procède non pas par analyse mais par comparaison avec des produits similaires ayant déjà été créés et pour lesquels on bénéficie à l’avance des coûts de fabrication unitaire. L’algorithme déduit des données existantes les facteurs de coûts (couleurs, taille, dimensions, matériaux, etc.), leur pondération dans l’impact coût, et permet ainsi de donner une estimation prédictive quasiment instant.

+

Les transports : marche, deux-roues, automobile, trains, avions, bateaux / prédictibilité du traffic: A portée de nos doigts, nos voyages s’organisent. Sous nos yeux, des cartes dynamiques sont accessibles. Et parfois nous disposons d’une prévision précise de la durée de nos déplacements, quel que soit le moyen de transport, d’adresse à adresse, et non plus de “hub” à “hub”. Le guide numérique nous offre de l’autonomie dans nos déplacements.

La macroéconomie : inflation, croissance , récession, emploi. Les sachants naguère reclus entre eux bénéficient aussi de l’apport de la modélisation informatique afin d’affiner les prévisions et les apprenants curieux ont accès aux prévisions. Le modèle numérique objective la prevision car il opère indépendamment des biais humains et il travaille sur une quantité gigantesque de données. On sait annoncer désormais quelle sera la croissance économique d’un pays à horizon de plusieurs mois.

Les marchés financiers: dans sa légitime recherche de subvenir à ses besoins, l’être humain souhaite s’enrichir, légalement. Jadis réservé à quelques spécialistes agités, crayons et papiers en main autour d’une corbeille, l’informatique popularisée permet à bon nombre d’accéder aux marchés financiers dans une optique d’investissement complémentaire à l’acquisition de biens matériels. Face aux variations qui peuvent sembler erratiques du cours des matières premières, des monnaies, des actions et options, la notion de prédictibilité via l’outil informatique prend tout son sens. Si des modèles prédictifs permettent de nos jours une anticipation de la météorologie, alors pourquoi ne serait-il pas possible de prévoir les variations des cours ? Puisque la puissance de calcul a augmenté selon la loi de Moore, à tendance exponentielle, alors qu’en est-il de la capacité via le numérique à prévoir la tendance d’un marché ?

Les mathématiques avancées sont massivement utilisées par les professionnels du domaine. Des robots informatiques traitent bon nombre de transactions, d’achats et de vente. Mais l’algorithmique de ces robots est définie par des humains. Alors quels sont les signaux d’achat et de vente ? Le propos de ces lignes n’est pas de fournir une quelconque martingale, mais d’observer voire d’appliquer deux grandes approches de l’analyse des marchés à vocation prédictive: l’approche chartiste, ou graphique d’une part, et l’analyse fondamentale d’autre part. Si cette dernière s’appuie sur des factualités micro et macroéconomiques, géopolitiques, l’analyse graphique (ou chartiste) possède cette esthétique singulière qui consiste à s’appuyer sur des postulats de tendance décorrélée des sous-jacents. Ainsi, bon nombre de chartistes, s’appuyant exclusivement sur les performances ou sous-performances graphiques passées, vont déduire par extrapolation les tendances à venir. Supercherie ou génie ? Tout comme dans l’épidémiologie, la météorologie, où l’on sait prévoir -grâce au modèle- ce qu’il va advenir, il en est en partie question pour l’évolution des cours, et ceci, pour les chartistes, sans se préoccuper de l’analyse fondamentale. Prenons un exemple avec la théorie des vagues d’Elliot. Elle existe certes depuis près d’un siècle, mais sa mise en application est aujourd’hui rendue possible, via le numérique, à quiconque souhaite investir dans les valeurs mobilières. Détaillons le scénario, dans le cas d’une hausse de la valeur – ou de l’indice-. Nous posons comme hypothèse une liquidité importante de l’objet considéré. Cette théorie nous décrit qu’une phase de hausse est constituée de cinq étapes, en segments de droite, selon la séquence temporelle suivantes :

  • 1 une hausse du cours du point A vers le point B
  • 2 une baisse du cours du point B vers le point C, le cours au point C étant situé entre A et B
  • 3 une hausse du cours du point C vers le point D, le cours au point D étant supérieur à yB
  • 4 une baisse du cours du point D vers un point E, le cours au point E restant supérieur à yB
  • 5ème et dernière phase vers le point F, avec yF >yD

Et donc, si l’on repère une tendance à la hausse, on serait en mesure de prédire son évolution par application. On ne détaille pas ici les étapes suivantes, de consolidations. A noter que cette prédictibilité est symétriquement réversible pour les tendances de baisse.

En quoi ceci n’est-il pas insensé ? Comment se fait-il qu’il soit fait fi de toute considération d’analyse fondamentale ?

Voilà le raisonnement appliqué pour le cas de la hausse:

  1. Quelques acheteurs sont présents. Le titre ou l’indice est recherché. Hausse.
  2. Les gains sont substantiels, les vendeurs deviennent majoritaires. On consolide.
  3. Ayant repéré la phase 1, les acheteurs viennent massivement. A noter que yC-yD>>yB-yA !!! dans cette théorie, conformément au nombre d’intervenant alors protagonistes.
  4. On assiste au même processus que pour la phase 2.
  5. Les retardataires acheteurs se présentent. On atteint yF > yA. Fin de la hausse.

Et la suite ? La théorie évoquée la détaille ! On se référera à la théorie des vagues d’Elliott.

Et ceci peut-être utilisé avec beaucoup de logiciels de gestion de portefeuille, l’immense majorité d’entre eux étant liés aux établissements dépositaires, ou aux intermédiaires. Dans ce cas, c’est la simple capacité graphique de la machine qui permettra de définir son propre scénario d’extrapolation. Ainsi qu’une expérience avérée du domaine, bien sûr.

On l’a donc vu, loin des illusions, il existe dans une certaine mesure une prédictibilité pour ces activités, là aussi.

+++

L’apport en puissance de calcul avec l’informatique quantique.

On le comprend aisément, les capacités en terme de prédictibilité sont intimement liées à, d’une part, la qualité des algorithmes mis en oeuvre , et , d’autre part à la puissance de calcul. En 2022, et ceci depuis quelques années, un nouveau progrès est en devenir avec l’informatique quantique.

De quoi s’agit-il ? Qu’est-ce que l’informatique quantique ? Nouveau buzz marketing ou progrès de la science ?

L’informatique « traditionnelle » a ses fondements basés sur l’état binaire (0 ou 1) de ses composants unitaires. En découle des logiques booléennes – le bit ne peut prendre que 2 valeurs, 0 ou 1 – basées sur l’encodage de suites de 0 et de 1. Ainsi par exemple, le nombre binaire 1011010 vaut 90 en système décimal. Les opérations de d’addition, de multiplication, les chemins logiques sont liées à cette réalité électronique duale: 0 ou 1.

+++

Pour qui connait un peu la physique quantique, on sait que cette dualité n’est que toute relative.

L’informatique quantique naissante est une nouvelle technologie qui utilise les états non booléens des particules élémentaires. Et la puissance de calcul afférente potentielle est considérable…

Illustrons par un exemple quantifié qui en surprendra plus d’un: en 2022, un ordinateur quantique est parvenu à résoudre en quelques secondes une équation qui aurait pris des centaines d’années à un ordinateur “traditionnel”.

Publicité