
Il est bon de retourner aux fondamentaux et de simplement tenter d’identifier les avantages de la numérisation (et la dématérialisation) des …
Pourquoi numériser ?
La transformation numérique des entreprises
Des articles pour mieux comprendre la transformation numérique
Il est bon de retourner aux fondamentaux et de simplement tenter d’identifier les avantages de la numérisation (et la dématérialisation) des …
Pourquoi numériser ?
Le retour sur investissement (ROI: return on investment, retour sur investissement) est un calcul visant à démontrer, qu’après un certain temps, …
ROI et NPV (retour sur investissement et net present value)
Tant de nouveautés à comprendre, décrypter, appréhender sur les évolutions de la monnaie ! Je vous recommande vivement cette série qui nous éclairent sur la génèse, l’évolution et le devenir de ces nouvelles thématiques qui font le buzz (ou l’histoire ?).
Envie d’en savoir plus ? Cliquez sur le lien ci-après !
Maj le 6/3/23
De tous temps, l’homme a cherché à prédire l’avenir.
La physique et les mathématiques, les sciences dures, progressent, et il est avéré d’affirmer qu’elles sont très souvent dans une temporalité antérieure à leurs applications. Par exemple – tout simplement – la théorie héliocentrique de Copernic est prédictive de la réalité astronomique, et ceci de nombreuses années avant que l’ensemble de la population ne l’admette, la reconnaisse ou mieux l’observe. Et à quel prix …
De nos jours, les théories scientifiques et la modélisation de la réalité physique aboutissent à des calculs prédictifs complexes, qui nécessitent des moyens techniques et informatiques considérables. Et les autres sciences, dites « molles » par opposition, autres que les mathématiques et la physique, sont par voie de conséquence, concernées. L’ économie, la géologie, la démographie, la sociologie, etc. utilisent elles aussi désormais l’informatique pour les calculs prédictifs.
Heureusement, la loi de Moore, l’innovation et l’équipement, permettent aux ordinateurs (bel et bien programmés par le génie humain) une croissance exponentielle de la rapidité des calculs complexes. Dès lors, la prédictibilité de nombreuses réalités se voit, de nos jours, grandement améliorée.
La transformation numérique, ou digitalisation, ou bien encore disons les progrès de l’informatique, sont donc des facteurs d’amélioration de la prévision. A l’ère naissante de l’informatique quantique, ce paradigme se voit confirmé.
Prévoir, anticiper ce qu’il adviendra dans de nombreux domaines est une activité commune entre le génie humain et la puissance de calcul des machines informatiques. Prédire, c’est un enjeu politique, civil et militaire mais aussi économique, individuel et collectif.
—
Illustrons avec quelques exemples les formidables évolutions de la prédictibilité.
La météorologie : Plus personne ne s’étonne de la fiabilité extraordinaire de la PNT (prévision numérique du temps), dans l’heure, à 24 heures, 48h, voire même à 10 jours. C’est bien aussi grâce à la transformation numérique des institutions et sociétés prévisionnistes qu’une telle fiabilité prédictive est atteinte. Notez bien que ces entités disposent d’une puissance de calcul considérable. On parle de super-calculateurs, dont le développement peut nécessiter plus d’un milliard d’euros. Par ailleurs la fiabilité et la précision de la prévision sont intimement liées à la discrétisation du modèle atmosphérique d’une part et à la puissance de calcul informatique d’autre part. En 2021, les prévisions relatives au type de temps (anticyclonique, régime perturbé, etc.) et aux températures sont aujourd’hui fiables jusqu’à 15 jours, contre 8 jours il y a une vingtaine d’années. Impressionnant !
+
La biologie et la santé : L’apport de l’imagerie médicale avancée et de l’intelligence artificielle n’en sont qu’à leurs débuts. Diagnostiquer, c’est prédire mais aussi analyser , objectiver, observer, écouter. De fait, disposer de l’imagerie, c’est inspecter grâce à l’informatique le corps humain; utiliser des bases de données cliniques, c’est de plus aider à affiner la prédictibilité et l’évolution.
+
Le calcul des coûts prévisionnels de produits: Il est important lorsque l’on crée un nouveau produit voué à être commercialisé, de pouvoir anticiper autant que faire se peut le coût de fabrication de ce produit. Traditionnellement, l’approche analytique s’est imposée. Elle consiste à décomposer le produit en ses différentes pièces, et à quantifier unitairement le coût de ses pièces, auquel on ajoutera le coût d’assemblage notamment. En bref, tout est décomposé: la somme des charges de travail, des matières premières, des coûts d’usinage et d’assemblage permet la prédiction du coût unitaire.
Mais, de nos jours, grâce à la mise en œuvre de puissants algorithmes statistiques, à base d’intelligence artificielle, une nouvelle approche est possible: on procède non pas par analyse mais par comparaison avec des produits similaires ayant déjà été créés et pour lesquels on bénéficie à l’avance des coûts de fabrication unitaire. L’algorithme déduit des données existantes les facteurs de coûts (couleurs, taille, dimensions, matériaux, etc.), leur pondération dans l’impact coût, et permet ainsi de donner une estimation prédictive quasiment instant.
+
Les transports : marche, deux-roues, automobile, trains, avions, bateaux / prédictibilité du traffic: A portée de nos doigts, nos voyages s’organisent. Sous nos yeux, des cartes dynamiques sont accessibles. Et parfois nous disposons d’une prévision précise de la durée de nos déplacements, quel que soit le moyen de transport, d’adresse à adresse, et non plus de “hub” à “hub”. Le guide numérique nous offre de l’autonomie dans nos déplacements.
La macroéconomie : inflation, croissance , récession, emploi. Les sachants naguère reclus entre eux bénéficient aussi de l’apport de la modélisation informatique afin d’affiner les prévisions et les apprenants curieux ont accès aux prévisions. Le modèle numérique objective la prevision car il opère indépendamment des biais humains et il travaille sur une quantité gigantesque de données. On sait annoncer désormais quelle sera la croissance économique d’un pays à horizon de plusieurs mois.
Les marchés financiers: dans sa légitime recherche de subvenir à ses besoins, l’être humain souhaite s’enrichir, légalement. Jadis réservé à quelques spécialistes agités, crayons et papiers en main autour d’une corbeille, l’informatique popularisée permet à bon nombre d’accéder aux marchés financiers dans une optique d’investissement complémentaire à l’acquisition de biens matériels. Face aux variations qui peuvent sembler erratiques du cours des matières premières, des monnaies, des actions et options, la notion de prédictibilité via l’outil informatique prend tout son sens. Si des modèles prédictifs permettent de nos jours une anticipation de la météorologie, alors pourquoi ne serait-il pas possible de prévoir les variations des cours ? Puisque la puissance de calcul a augmenté selon la loi de Moore, à tendance exponentielle, alors qu’en est-il de la capacité via le numérique à prévoir la tendance d’un marché ?
Les mathématiques avancées sont massivement utilisées par les professionnels du domaine. Des robots informatiques traitent bon nombre de transactions, d’achats et de vente. Mais l’algorithmique de ces robots est définie par des humains. Alors quels sont les signaux d’achat et de vente ? Le propos de ces lignes n’est pas de fournir une quelconque martingale, mais d’observer voire d’appliquer deux grandes approches de l’analyse des marchés à vocation prédictive: l’approche chartiste, ou graphique d’une part, et l’analyse fondamentale d’autre part. Si cette dernière s’appuie sur des factualités micro et macroéconomiques, géopolitiques, l’analyse graphique (ou chartiste) possède cette esthétique singulière qui consiste à s’appuyer sur des postulats de tendance décorrélée des sous-jacents. Ainsi, bon nombre de chartistes, s’appuyant exclusivement sur les performances ou sous-performances graphiques passées, vont déduire par extrapolation les tendances à venir. Supercherie ou génie ? Tout comme dans l’épidémiologie, la météorologie, où l’on sait prévoir -grâce au modèle- ce qu’il va advenir, il en est en partie question pour l’évolution des cours, et ceci, pour les chartistes, sans se préoccuper de l’analyse fondamentale. Prenons un exemple avec la théorie des vagues d’Elliot. Elle existe certes depuis près d’un siècle, mais sa mise en application est aujourd’hui rendue possible, via le numérique, à quiconque souhaite investir dans les valeurs mobilières. Détaillons le scénario, dans le cas d’une hausse de la valeur – ou de l’indice-. Nous posons comme hypothèse une liquidité importante de l’objet considéré. Cette théorie nous décrit qu’une phase de hausse est constituée de cinq étapes, en segments de droite, selon la séquence temporelle suivantes :
Et donc, si l’on repère une tendance à la hausse, on serait en mesure de prédire son évolution par application. On ne détaille pas ici les étapes suivantes, de consolidations. A noter que cette prédictibilité est symétriquement réversible pour les tendances de baisse.
En quoi ceci n’est-il pas insensé ? Comment se fait-il qu’il soit fait fi de toute considération d’analyse fondamentale ?
Voilà le raisonnement appliqué pour le cas de la hausse:
Et la suite ? La théorie évoquée la détaille ! On se référera à la théorie des vagues d’Elliott.
Et ceci peut-être utilisé avec beaucoup de logiciels de gestion de portefeuille, l’immense majorité d’entre eux étant liés aux établissements dépositaires, ou aux intermédiaires. Dans ce cas, c’est la simple capacité graphique de la machine qui permettra de définir son propre scénario d’extrapolation. Ainsi qu’une expérience avérée du domaine, bien sûr.
On l’a donc vu, loin des illusions, il existe dans une certaine mesure une prédictibilité pour ces activités, là aussi.
+++
L’apport en puissance de calcul avec l’informatique quantique.
On le comprend aisément, les capacités en terme de prédictibilité sont intimement liées à, d’une part, la qualité des algorithmes mis en oeuvre , et , d’autre part à la puissance de calcul. En 2022, et ceci depuis quelques années, un nouveau progrès est en devenir avec l’informatique quantique.
De quoi s’agit-il ? Qu’est-ce que l’informatique quantique ? Nouveau buzz marketing ou progrès de la science ?
L’informatique « traditionnelle » a ses fondements basés sur l’état binaire (0 ou 1) de ses composants unitaires. En découle des logiques booléennes – le bit ne peut prendre que 2 valeurs, 0 ou 1 – basées sur l’encodage de suites de 0 et de 1. Ainsi par exemple, le nombre binaire 1011010 vaut 90 en système décimal. Les opérations de d’addition, de multiplication, les chemins logiques sont liées à cette réalité électronique duale: 0 ou 1.
+++
Pour qui connait un peu la physique quantique, on sait que cette dualité n’est que toute relative.
L’informatique quantique naissante est une nouvelle technologie qui utilise les états non booléens des particules élémentaires. Et la puissance de calcul afférente potentielle est considérable…
Illustrons par un exemple quantifié qui en surprendra plus d’un: en 2022, un ordinateur quantique est parvenu à résoudre en quelques secondes une équation qui aurait pris des centaines d’années à un ordinateur “traditionnel”.
La transformation numérique des entreprises a souvent pour effet induit des améliorations de l’expérience utilisateur.
L’utilisateur de l’ outil numérique, qu’il soit collaborateur d’une entreprise ou d’une institution, ou bien encore aussi citoyen et consommateur, mérite bien des égards. Aussi, le secteur du logiciel et de l’informatique s’investit afin qu’au-delà des fonctionnalités qui sont proposées à l’utilisateur, une expérience plus simple, plus fluide, plus agréable, voire ludique lui soit offerte.
Développons cela avec l’exemple de la télévision à la demande.
Pour commencer, quelques chiffres (source médiamétrie): en 2021, le CSP+ regarde en moyenne la télévision 2h56 chaque jour; chaque jour, en 2022, plusieurs millions de Français sont devant leur « petit écran ».
« Petit écran » est devenu « grand », et , avec la transformation numérique des diffuseurs et des téléviseurs, les utilisateurs -téléspectateurs- bénéficient d’une expérience plus confortable et plus maitrisée.
Le téléviseur est numérique: doté d’un OS (android ou autre), il est sous le contrôle, plus que jamais, de l’utilisateur. L’utilisateur ne choisit plus non seulement le programme, mais aussi la temporalité de celui- ci grâce à ce qui est courant de dénommer désormais « la télévision à la demande« .
Notez-bien que le terme utilisateur désigne dans le jargon de l’informaticien ce que d’autres appellent usager, client, téléspectateur, citoyen, habitant etc.
La « télévision à la demande » constitue donc, à mon sens, une avancée majeure -via la transformation numérique- vers la liberté individuelle. 24 h sur 24, 7 jours sur sept, l’utilisateur est désormais libre de sélectionner son programme télévisuel. Il peut maintenant de plus interrompre, reprendre, revisionner, enregistrer, bénéficier d’une description écrite de son programme avant de décider d’y investir son temps. Grâce au choix des applications gratuites sur son téléviseur android connecté, qu’il télécharge via l’internet, il peut à tout moment s’informer, se divertir, travailler, se former, se cultiver dans tous les domaines : documentaires et reportages, cinéma, séries et fictions, information et société, histoire, voyages et découvertes, Sciences, culture et pop pour n’en citer que quelques uns …
Bon nombre d’intellectuels s’expriment -depuis son invention- sur le caractère potentiellement aliénant de la télévision sur le téléspectateur, avec son cortège de publicités, de simplifications, d’outrances, d’addictions perpétrées. Il n’en demeure pas moins vrai que les chiffres parlent d’eux-mêmes: sociologiquement, la télévision occupe toujours une place importante dans nos vies, en 2022.
Mais la donne a changé: le téléspectateur peut reprendre le contrôle, dans son intérêt, avec la télévision à la demande.
°°°
Un autre changement majeur s’opère de nos jours dans le domaine de la Banque. Naguère, l’agence bancaire était un endroit géographiquement localisé, ultra-sécurisé, incontournable, aux horaires intangibles, au personnel plus ou moins disponible et compétent, plus ou moins transparent. En bref, la gestion de nos avoirs dépendaient fortement de l’agence bancaire et de son cortège de contraintes. Quant au pouvoir du banquier sur son client, il était important aussi pour de mauvaises raisons: lenteurs induites, autorité, manque de souplesse.
La transformation numérique des entreprises est en marche ; nous pouvons de nos jours, via l’internet sécurisé, être plus autonome et plus libre, dans nos relations avec la Banque. Consulter ses comptes, encaisser de l’argent, effectuer des virements, procéder à des arbitrages, épargner, accéder à la documentation, emprunter, choisir d’avoir plusieurs banques, est rendu possible depuis chez soi ou depuis tout lieu donnant un accès à internet, en quelques clics et écrits numériques bien pensés.
Allons plus loin et plus vite dans la réflexion et projetons-nous dans l’avenir: l’émergence des cryptomonnaies induit l’atténuation potentielle du rôle de ce tiers de confiance qu’est la Banque. Certains pensent que les technologies informatiques dont la blockchain permettront à l’avenir d’envisager à large échelle tout commerce licite sans que la Banque ne soit nécessaire…
Un système d’information d’entreprise est, dans la plupart des cas, composé de modules remplissant chacun une ou plusieurs fonctionnalités bien précises. Citons les fréquents modules suivants :
On le voit donc, au travers de cette première liste, un SI d’entreprise composé de nombreux éléments comporte naturellement une complexité d’autant plus exacerbée que chacun de ces éléments va interagir avec les autres.
Chaque composant peut être une partie d’un progiciel, un développement spécifique, mais à coup sûr ou disons dans 90% des cas, aucun SI n’est composé d’une solution unique couvrant tous les besoins fonctionnels.
D’où la nécessité d’interfaces, c’est à dire d’éléments autorisant la communication entre ces différents modules.
Prenons un module A et un module B, composants d’un SI, on peut avoir une interface « monodirectionnelle » A vers B (A envoie des infos à B), « bidirectionnelle » (A envoie des infos à B et réciproquement B envoie des infos à A). Voilà pour le sens des flux, par ailleurs il faudra considérer la dimension temporelle de ces flux :A envoie-t-il à B des données de façon périodique (par exemple une fois par jour, la nuit entre 3 et 4 h du matin, A envoie l’ensemble de ses données mises à jour depuis la veille à B), ou bien encore A et B échangent-ils de façon synchrone : dès qu’une information de A est ajoutée ou mise à jour, B en est immédiatement notifié et l’information lui est envoyée ? Ce caractère synchrone se mesure-t-il selon une latence exprimable en minutes, secondes, milli voire microsecondes ?
On voit donc plusieurs critères apparaître dans la définition d’un flux inter-applicatif :
On comprend dès lors aisément toute la complexité de l’intégration d’un SI comportant, par exemple, une dizaine de modules. Si chaque module communique avec tous les autres, selon un flux unique, ce ne sont pas moins de 9+8+7+…+2+1= 45 interfaces qui sont potentiellement à mettre en œuvre !
Prenons un exemple concret aisément compréhensible. Imaginons un SI composé de 3 modules : un CRM (pour les commerciaux), une gestion commerciale permettant de faire des devis détaillés (avec catalogue de produits et services intégré) et un système de facturation. Voici un flux simple : le commercial identifie un prospect et une opportunité, il les saisit dans le CRM. Son prospect souhaitant recevoir un devis, une première interface permet au système de gestion commerciale de recevoir les informations relatives au prospect, sans que l’on ait à les ressaisir. Puis le devis est réalisé, et s’il est accepté, transmis par une seconde interface au système de facturation. On voit dans cette chaine simple deux interfaces : CRM vers gestion commerciale et gestion commerciale vers la facturation. Il est clair que le premier intérêt de la mise en place de telles interfaces réside dans le fait qu’il évite la saisie multiple d’information, ainsi ici, le nom du prospect saisi en amont dans le CRM, n’aura plus à être écrit de nouveau jusqu’à l’émission de la facture.
Se pose la question de la « vélocité » de ces interfaces. Peut-on accepter un délai d’une journée voire d’une heure entre la création d’un prospect dans le CRM et sa prise en compte dans le système de gestion commerciale ? Quel(s) est(sont) par ailleurs le(s) événement(s) déclencheur(s) de la transmission d’information ?
On le conçoit aisément, l’intégration inter-applicative d’un SI constitue une des activités essentielles et réellement difficile de l’architecture informatique d’entreprise. Quand on a vu que pour 10 modules différents, il existe potentiellement 45 interfaces, on comprend mieux l’utilisation fréquente par les informaticiens du fameux mot « spaghettiware » : tel un plat de spaghettis, l’information circulerait au sein du SI au travers d’innombrables tuyaux enchevêtrés. Ce serait d’autant plus vrai que les SI ont une histoire et que, au gré de leurs évolutions, de nouveaux modules se sont greffés, avec leur lot de nouvelles interfaces …
Comment donc concevoir un SI simple, lisible, pleinement opérationnel, et évolutif ? Cela passe par une réflexion sur plusieurs axes:
1/ la définition claire des « datamaster », c’est à dire les systèmes qui sont référentiels pour chaque type de données
2/ les interfaces ne devraient servir qu’à transporter que les informations strictement nécessaires
3/ une analyse détaillée des flux, tant d’un point de vue du contenu transporté que des contraintes de temps de transport
4/ une harmonisation des technologies de circulation des informations (fichiers plats, API, middleware …)
5/ un effort proportionné dans le développement de l’interface en fonction des enjeux sur les données transportées selon plusieurs critères dont : le volume de données, et les délais acceptables pour les transporter.
Jean-Michel Lucas
©2018-2024
Désireuse de s’équiper d’une solution informatique dotée d’un certain nombre de fonctions, une entreprise émet une expression de besoins, le plus souvent un « cahier des charges ».
Une question fondamentale -à mon sens- doit apparaître très vite : un progiciel, c’est à dire un produit de « série » proposant une gamme de fonctionnalités pourra-t-il répondre à ce cahier des charges, ou bien alors faut-il envisager un développement spécifique, c’est à dire un produit « sur mesure », totalement spécifié par le cahier des charges ?
Cette réflexion est réellement fondamentale pour l’entreprise à de nombreux égards, notamment :
A. Le coût total de la solution
B. La maintenabilité et l’évolutivité de la solution
C. L’adéquation fonctionnelle attendue
A. Le coût total de la solution
J’ai pour habitude d’utiliser une métaphore automobile pour comparer le coût potentiel d’une solution spécifique versus l’acquisition d’un progiciel.
En investissant pour un développement spécifique, le client demande un « prototype », une solution unique, qu’aucun autre client n’utilisera. En choisissant un progiciel, c’est comme si celui-ci choisissait un véhicule de « série », fabriqué en grande quantité, en usine.
On comprend mieux alors, au travers de cette analogie industrielle, la différence potentiellement drastique de coût entre les deux solutions.
Le raisonnement est simple. Imaginons la solution 1., spécifique, dont le développement coûterait 1 Million d’€. Cette solution sera vendue une fois et une seule au coût de 1,3 Million d’€ par exemple.
Imaginons désormais la solution 2., progiciel dont le développement coûterait 2 Millions d’€. Si la solution est vendue 50 fois, il suffit de la vendre 2 x 2 M€ / 50 soit 80 000 € pour générer au total un revenu double du coût de production !
1,3 M€ dans le 1er cas …
80 k€ dans le second cas …
De quoi réellement s’interroger quant à la bonne alternative !
B. La maintenabilité et l’évolutivité de la solution
Une entreprise s’équipant d’une solution logicielle un tant soit peu élaborée le fait pour plusieurs années. Se pose donc la question du caractère maintenable et évolutif de la solution choisie. Quels sont les risques en fonction du scénario choisi ?
La vocation même de l’éditeur est effectivement de proposer des produits qu’il fera évoluer, débuggera, et qui sont utilisés par plusieurs clients.
C. L’adéquation fonctionnelle attendue.
On marche souvent sur la tête dans ce domaine si l’on n’a pas bien compris l’importance de la dualité progiciel / développement spécifique.
On lit même bien souvent dans des cahiers des charges : « un développement spécifique ou une solution à base de progiciel pourront être proposés ».
De fait, le processus d’expression des besoins est – me semble-t-il – à reconsidérer:
Processus classique
Le processus qui me semble participer d’une démarche optimisée:
Ceci me parait d’autant plus pertinent que 80% des besoins ne sont pas spécifiques à la société (ou organisation) cliente, mais communes à toutes les entreprises (ou organisations) du même secteur. Par ailleurs, il est bon de rappeler la fameuse règle des 80/20 : 20% des efforts risquent de représenter 80% du prix.
A quoi bon se restreindre à une description très spécifique et unique du besoin ? A quoi faire (il en existe encore) des maquettes d’écran ? A quoi bon croire que c’est le client qui reste décideur quant à l’ergonomie du logiciel ?
En conclusion :
Jean-Michel Lucas
©2018-2024
Il est bon de retourner aux fondamentaux et de simplement tenter d’identifier les avantages de la numérisation (et la dématérialisation) des documents.
Imaginons un dossier de 5 000 pages, comportant des notes manuscrites, des plans, des diagrammes, des tableaux, une structuration (chapitres, sections, paragraphes). Composé de feuilles A4, à 5 grammes par feuille, notre dossier pèse 25 kilogrammes.
Quels sont les avantages d’une version numérisée de notre dossier ? Imaginons désormais que notre document soit disponible sous forme de fichier informatique.
Voilà donc quelques avantages qui illustrent l’intérêt de travailler sur des documents numériques. Ils sont nombreux et je vous propose de continuer à les recenser en commentant cet article.
Le retour sur investissement (ROI: return on investment, retour sur investissement) est un calcul visant à démontrer, qu’après un certain temps, l’investissement que vous réalisez va vous rapporter beaucoup plus que ce que vous dépensez.
Pour le quantifier, trois principales entités entrent en jeu:
Le gain réalisé
Le gain réalisé correspond aux économies que vous allez réaliser grâce à votre investissement: il peut s’agir d’un gain en productivité, d’une réduction des dépenses et achats, d’une augmentation de vos ventes rentables.
Par exemple , un logiciel peut vous permettre de passer deux fois moins de temps sur une activité. Le coût de votre activité est donc réduit de moitié dès que vous êtes formés et l’utilisez. Ou encore, un progiciel permet de réduire de 10% les temps de coordination d’une équipe de 100 personnes (*). Alors, chaque personne dégage 1 dixième de son temps pour ses activités principales. L’économie réalisée correspond au travail à temps plein de 10 personnes, qui peuvent dès lors se concentrer pleinement sur leur cœur de métier.
L’investissement
Le montant de l’investissement peut se décomposer en deux principaux paramètres : le CAPEX (coût ponctuel) et l’OPEX (coût récurrent). Par exemple si on achète un logiciel 100 000 € en CAPEX, on aura un OPEX de 20 000 € par an au titre de la maintenance évolutive, corrective, et du support qui est proposé. Ou encore si on loue un logiciel 5 000 € par mois (SaaS), maintenance et support inclus, il n’y a pas de CAPEX. Enfin si on achète un meuble neuf, il n’y a quasiment pas d’OPEX (hormis le temps que l’on passera à l’entretenir).
Le facteur temps
L’échelle de temps est ponctuée par le lancement du projet et le point mort, comme l’illustre le schéma ci-dessous:
A inflation nulle, le retour sur investissement (ROI) commence donc à opérer après le point mort, c’est à dire le moment d’équilibre entre l’argent investi et les économies réalisées.
Quant au NPV (net present value), il s’agit simplement de se dire: en cas de statut quo, donc si vous retardez votre investissement, vous décalez le point mort et décalez donc d’autant l’encaissement des gains nets cumulés réalisables.
Jean-Michel Lucas
©2018-2024
(*) lire mon article : Tableurs, solution durable ?
Disons que le déploiement d’un progiciel correspond à sa mise en production pour tout ou partie de ses utilisateurs. Alors, l’engagement proposé repose sur une date anticipée.
Comment s’assurer du respect des délais ? Comment planifier le projet ?
Une première approche consiste à définir la date de mise en production en partant de cette date future; bref, à concevoir un planning inversé (rétro-planning).
Ainsi, en simplifiant, la séquence 1. spécifications, 2. développement et paramétrage, 3. tests 4. recette interne, 5. recette externe, 6. ajustements, et 7. mise en production, aura à être planifiée en commençant par l’étape 7. puis 6. 5… jusqu’à la date présente.
Cet exercice comporte des règles de l’art, à l’époque de la méthode dite du cycle en V, on avait coutume de répartir en trois tiers les phases de a. spécifications, b. développement et paramétrage, c. recette, tests et ajustements.
Avec les méthodes agiles, on procède me semble-t-il, finalement, de la même façon, à ceci près que l’on découpe le projet en tranches, chaque tranche correspondant à une sous-partie des fonctionnalités attendues, ou à la résolution d’une anomalie, ou bien encore à une évolution.
Mais cette vision de l’organisation du temps du projet ne peut en aucun cas se faire sans une co-construction avec la maitrise d’ouvrage, autrement dit le prospect (en avant-vente) ou le client (après la vente). Respecter les délais nécessite un accord préalable entre maitrise d’œuvre et maitrise d’ouvrage sur les modalités d’interactions entre les deux parties. C’est la continuité du respect de cet accord lors du projet qui constituera un facteur limitant de risque de ce que l’on appelle couramment les dérives, c.à.d tout simplement les retards.
Vouloir objectiver cet accord, c’est d’abord quantifier les ressources humaines nécessaires, tant du côté de la maitrise d’ouvrage que de la maitrise d’œuvre. Aussi le coût global du projet inclue l’addition du montant de la commande avec le coût investi par le maître d’ouvrage.
On doit donc veiller à une transparence quant à l’application d’abaques donnant les ratios :
Temps passé par la maitrise d’ouvrage (tmoa) / Temps passé par la maitrise d’œuvre (tmoe)
tmoa/tmoe < 0.1 : les délais ne seront pas tenus et en conséquence la date de mise en production sera décalée.
Par ailleurs, tout retard implique une augmentation du coût projet (TCO: total cost of ownership).
Le retard du démarrage du projet lui-même induit une augmentation du TCO, on peut essayer de la prévoir avec le calcul du NPV (net present value).
Le retour sur investissement (ROI: return on investment) global est lié à une augmentation de la performance de l’entreprise après la mise en production, tout simplement lorsque les utilisateurs ont été formés et utilisent la nouvelle infrastructure progicielle en mode nominal.
Et l’exercice budgétaire, traditionnellement annuel, est-il possible sans associer le montant prévisionnel du projet avec le temps de réalisation nécessaire ?
Reprenons la liste des principaux critères :
La date de mise en production prévue (liée aux exercices fiscaux, aux publications des comptes et résultats, aux autres projets en cours).
La charge de travail de la maitrise d’ouvrage dédiée.
La charge de travail de la maitrise d’œuvre dédiée.
La date de démarrage du projet.
Et surtout, le respect tout au long du projet de l’accord entre le fournisseur et le client.
Les paroles s’envolent et les écrits restent. C’est du ressort de l’avant-vente que d’inclure dans sa proposition les modalités de cet accord. C’est de la responsabilité du client de s’engager, à la signature, au respect de ces modalités. Sans quoi le projet n’est rentable ni pour la moa, ni pour la moe.
Jean-Michel Lucas
©2018-2024
Utiliser à titre gratuit, louer ou acheter, telle est la question …
La production d’un logiciel mobilise des moyens : d’abord naît l’idée, puis la conception, les spécifications, la réalisation, les tests, et ce que l’on appelle la mise en production.
Le fait même d’évoquer succinctement ces étapes implique qu’un travail est réalisé. Et comment est-il alors possible que la gratuité des logiciels – progiciels, App(s), et autres utilitaires- soit si répandue ?
D’abord parce qu’il existe des supports matériels aux logiciels (smartphones, tablettes, ordinateurs) dont le coût inclut bon nombre d’entre eux. Ensuite parce qu’il existe également des communautés de bénévoles qui contribuent à cette production. Enfin parce que les publicités financent certaines productions en contrepartie d’une visibilité de leur contenu au sein du logiciel.
Ayons également en tête l’Etat et les Institutions publiques, qui proposent l’utilisation gratuite d’outils financés par l’impôt et les cotisations obligatoires. Et, bien sûr, les entreprises qui mettent à disposition des particuliers ou de leurs clients de l’informatique les aidant et les fidélisant.
C’est extraordinaire : de quels autres types d’outils bénéficiez-vous sans que cela ne vous coûte ?
C’est paradoxal : comment envisager un avenir du logiciel, donc une production et une maintenance, sans qu’aucun ne daigne le financer ?
La gratuité du logiciel est une illusion. Chacun doit en prendre conscience ; on lit si souvent la question « qui connait un logiciel gratuit qui … ? ».
Alors, évoquons ici trois modalités de sa commercialisation :
Le modèle freemium consiste à mettre à disposition de l’utilisateur, gratuitement, une partie des fonctions de l’outil logiciel, puis de proposer, moyennant un loyer ou un achat, une version plus complète de l’outil. C’est une bonne possibilité de faire découvrir l’outil au plus grand nombre tout en pariant que cet investissement sera rentabilisé par une extension payante de son usage. Son succès est lié à la popularité, l’addiction ou l’impérieuse nécessité.
La location est de plus en plus répandue et classique : c’est le fameux « Software As a Service -SaaS-« , le « logiciel comme un service », dont les modalités de mise en œuvre sont définies par un loyer (le plus souvent mensuel) et une durée d’engagement (le bail).
L’achat est également toujours possible et sera généralement assorti d’un contrat de maintenance (évolutive et corrective) et d’un contrat de support. Typiquement le montant d’exécution ces contrats – non obligatoires – est, pour une annuité, de l’ordre de 20% du montant de l’achat.
Bien sûr, il conviendra d’analyser les avantages et inconvénients de ces modèles, à la fois pour les éditeurs mais aussi pour leurs clients.
Vu par l’éditeur, le SaaS permet la génération de revenus récurrents et une visibilité sur l’activité de l’entreprise pour plusieurs années.
Pour le client, le SaaS permet de s’équiper sans trop réduire sa trésorerie voire devoir faire appel à l’emprunt.
Les critères pertinents de décision sont multiples : durée de l’engagement, coût de l’abonnement (mensualité), nombre d’utilisateurs, évolutivité.
A suivre …
Jean-Michel Lucas
©2018-2024
Les processus de vente sont couronnés de succès lorsque la commande est signée et couchée sur le papier (ou sur l’écran, lorsque l’on parle de signature électronique). Cette fameuse commande (ou contrat), dûment signée par les deux parties, par celle ou celui qui est devenu votre client, est un indicateur objectif et quantifié. Elle entre alors dans le carnet de commande, dont le remplissage est une condition nécessaire de pérennité et de bonne santé de la société.
Cette commande, c’est un élément constitutif de la partie émergée de l’iceberg. Tout le travail mené en préparation de celle-ci s’inscrit dans le cycle de vente et constitue l’essentiel du travail commercial.
La génération de demande, la prospection, la transformation du suspect en prospect, la qualification, la réponse à l’appel d’offres, les présentations, les rendez-vous, la mise en place de prototype ou PoC (proof of concept), l’argumentation, le traitement des objections, les propositions (techniques, fonctionnelles, commerciales et financières), la négociation, la mise à jour de l’offre, l’accord juridique sont autant d’étapes incontournables du cycle de vente. Chacune de ces étapes est en interaction avec les acteurs agissant pour la société qui achètera. Ces acteurs ne sont pas uniquement des acheteurs potentiels, ils travaillent sur de nombreux autres projets et sujets. Aussi leurs interactions avec le responsable commercial s’inscrivent dans un temps empreint de discontinuité.
D’autre part, la démarche commerciale n’échappe pas au bon vieux proverbe « il ne faut pas mettre tous ses œufs dans le même panier ». Aussi est-il nécessaire de traiter plusieurs dizaines d’opportunités simultanément (en même temps !) pour transformer et conclure. Personnellement, je suis un fervent utilisateur des outils de CRM (gestion de la relation client – entendez ici client comme suspect ou prospect-).
Et cela est loin d’être exhaustif …
Voilà pour une partie immergée de l’iceberg !
Le cadre commercial contemporain n’est ni un magicien bavard ni un extraverti hystérique ou comique. Il se doit de procéder avec rigueur, ténacité, empathie, patience et méthode. C’est avant tout un homme de conseil au service de ses interlocuteurs et son honnêteté, son sérieux, sont les garants d’une vente réussie et rentable pour l’entreprise. Car une fois la commande enregistrée, c’est toute l’entreprise qui doit délivrer les solutions et projets qui ont été vendus. Et la satisfaction du prospect devenu client réside notamment dans l’adéquation entre l’offre vendue et l’offre obtenue …
Jean-Michel Lucas
©2018-2024
Le « cloud computing », littéralement l’informatique du nuage, ou en nuage, est omniprésent et mérite quelques explications. Il désigne simplement le fait que l’information numérisée réside en dehors des locaux de la société, l’entité hôte étant distincte de l’entité utilisatrice.
Ce jargon anglo-saxon illustre donc une réalité historique qui existe depuis que le réseau informatique a permis le lien entre un lieu d’utilisation des données et leur hébergement.
Par extension, on parle de cloud computing en désignant les entreprises spécialisées dans l’hébergement de serveurs informatiques ; on parle alors de datacenters (« centres de données »).
On parle donc avec le cloud computing d’externalisation de l’hébergement des données mais aussi des traitements sur ceux-ci: outre les mémoires, les processeurs sont en dehors de l’entreprise. Et les logiciels : systèmes d’exploitation, logiciels spécifiques ou progiciels peuvent être également à l’extérieur de l’entreprise.
Ceci n’est pas bien sûr sans susciter des interrogations responsables quant à la maîtrise des données et de leur traitement. Tout d’abord, il existe un contrat entre l’utilisateur et l’hébergeur qui, s’il est précis, indique la localisation, la disponibilité, et les droits d’administration de l’utilisateur. Par ailleurs, la circulation des données sur le réseau est garantie par des protocoles élaborés et normalisés. Le centre de données est une forteresse, le réseau est sécurisé. En outre un processus de sauvegarde et de réplication est assumé par l’hébergeur qui possède plusieurs datacenters.
Les tiers susceptibles d’interférer entre les deux parties (utilisateur et hébergeur) sont les transporteurs de données (opérateurs de télécommunications), les potentiels ayant droit comme l’état sous réserve d’une législation appropriée et de sa mise en application, et les nuisibles (malveillance et piraterie).
Et l’entreprise utilisatrice est responsable des données qu’elle exploite avec la protection de la donnée personnelle notamment (25 mai 2018: loi européenne GDPR – general data protection regulation), mais aussi évidement par les contrats qui la lient avec ses clients et partenaires.
Jean-Michel Lucas
©2018-2024
Une des raisons d’être des progiciels élaborés réside dans le fait qu’ils contiennent une base de données relationnelle en général normalisée. La normalisation est une garantie de souplesse, d’agilité et de réduction de saisies multiples d’informations identiques.
Par ailleurs, ce que l’on appelle souvent les accès concurrents, c’est à dire la possibilité pour plusieurs personnes de travailler en même temps sur le même progiciel, constituent fréquemment un impératif à la bonne exécution des processus fonctionnels de l’entreprise. Fusse-t-elle autre qu’unipersonnelle, une société requiert l’exécution de tâches collaboratives, et la création de richesse est simplement augmentée lorsque les agissants interviennent simultanément sur le même contenant.
Essayez donc de faire travailler plusieurs personnes sur un même fichier de tableur …
Non pas que les tableurs soient inutiles, mais les remplacer par des solutions logicielles dotées de base de données relationnelles constitue un effort conduisant à une optimisation de la performance de l’entreprise.
Il faut donc changer !
Mais la « disruptivité » permanente est aussi source de chaos. Une bonne gestion de projet et un accompagnement fondent donc les conditions nécessaires à un tel changement.
Jean-Michel Lucas
©2018-2024