Dans un contexte marché où tout s’accélère, un haut niveau de rapidité peut être nécessaire pour devancer ses concurrents. A condition d’atteindre le meilleur résultat possible en sortie de processus. Or, la relation entre vitesse d’exécution et performance n’est pas toujours démontrée.
La (grande) vitesse sera-t-elle bientôt un marqueur dépassé ? Possible, à en croire le constructeur automobile Volvo. A la surprise générale, il vient d’annoncer qu’il allait brider tous ses modèles à 180 kilomètre-heure, à compter de 2020, exprimant par là son souhait de ne plus compter de mort ou de blessé grave dans l’une de ses voitures, d’ici l’année prochaine. Il veut que ses utilisateurs puissent se rendre d’un point à un autre dans les meilleures conditions de sécurité, quitte pour cela à obliger les amateurs de bolides à lever le pied. Dans un communiqué, l’entreprise explique que cette décision a été prise après avoir constaté la difficulté qu’ont les automobilistes à adapter leur vitesse à leur environnement, sans réaliser le danger que peuvent présenter certaines situations.
Et si l’on transposait cette analyse dans le monde informatique ? N’y a-t-il pas matière à s’interroger sur la relation entre quête de vitesse et performance ? D’autant plus quand l’humain intervient dans le processus.
La recherche de vitesse est de fait omniprésente dans notre informatique moderne. Cela se vérifie, par exemple, avec nos appareils dont le nombre de transistors continue d’augmenter, suivant les conjectures de Moore ; cela se vérifie encore dans le domaine de l’analyse de données, aujourd’hui proche du temps réel, grâce aux capacités de traitement « in-memory » ; cela se vérifie enfin au sein des processus métier, accélérés grâce à leur orchestration par des robots (RPA, Robotic Process Automation), capables de traiter à grande vitesse des algorithmes toujours plus complexes.
Il faut pouvoir partager une masse grandissante d’informations en temps réel, commercialiser un nouveau produit avec un time-to-market le plus court possible, tenir une date impérative, comme la clôture des comptes, etc. En somme, faire toujours plus dans un laps de temps de plus en plus court.
Adopter une approche systémique
Le temps c’est de l’argent, nous dit l’adage. Mais aller vers toujours plus de vitesse est-il in finerentable ? Au prix de quels investissements en infrastructures nouvelles, pour quelle valeur ajoutée tangible pour les métiers, avec quel respect des normes en vigueur dans l’entreprise ? A l’instar de Volvo, ne convient-il pas surtout de s’assurer que le traitement des données délivre son résultat dans des conditions de sécurité et de qualité répondant aux attentes globales des utilisateurs ?
La vitesse d’exécution est évidemment un indicateur intéressant, mais pour obtenir le panorama complet d’une performance, il faut le combiner avec d’autres mesures, dans une approche systémique. Etre capable de traiter des milliers de factures en une heure est une performance si, en fin de processus, le taux d’erreur – nécessitant un retraitement manuel – est minime et si les fournisseurs sont effectivement payés dans les délais.
Synchroniser les traitements
La performance doit être vue comme une chaîne complète où, selon la théorie, elle se rompt par son maillon le plus faible. Pour rester dans notre analogie des transports, une addition de tronçons rapides ne compense pas les pertes de temps qui peuvent intervenir entre deux étapes, du fait d’un accident ou de travaux. En entreprise, si une des tâches d’un chemin critique est retardée, alors c’est tout le processus qui est ralenti. On ne peut pas, par exemple, chercher à rapprocher automatiquement des écritures inter-compagnies si les sociétés en question ne les ont pas préalablement enregistrées. Synchroniser les traitements est donc nécessaire. Mais en veillant à ne pas en faire un facteur de ralentissement de l’ensemble. Il convient plutôt de s’interroger sur les méthodes et moyens à mettre en œuvre pour permettre à tous les participants d’être prêts ensemble, dans des délais compatibles avec les impératifs opérationnels.
Evaluer les coûts induits
Si la vitesse est un atout, elle a aussi un coût. Tant en équipements nécessaires pour l’obtenir, qu’en énergie utilisée pour l’atteindre. Et si des progrès ont été réalisés, la technologie numérique – en particulier le Cloud – reste très énergivore. On dit que si Internet était un pays, il serait le troisième plus gros consommateur d’électricité au monde, derrière la Chine et les États-Unis. Ici encore, il faut évaluer le coût des infrastructures nécessaires pour, d’abord réaliser le projet, ensuite lui permettre de fonctionner (maintenance, supervision, évolution). La facture supportée par les entreprises doit être mise en regard d’un gain pas toujours mesurable.
Aligner des compétences
Dernier point et non des moindres : la grande vitesse implique des risques d’erreurs accrus et des conséquences bien plus fâcheuses en cas d’accident. Parmi les méthodes possibles pour réduire ces risques figurent la formation et la limitation des performances. D’où la décision de notre constructeur automobile de brider ses modèles. Nous ne sommes pas tous – a notre corps défendant – des pilotes aguerris.
En entreprise, un environnement de travail où tout va plus vite demande là aussi des utilisateurs solidement formés et des mécanismes robustes de supervision interne. Au risque sinon de s’exposer à de graves dysfonctionnements comme l’injection de données erronées dans le système de gestion ou la perte d’informations. L’automatisation et la robotisation offrent une solution pour introduire de la rapidité de traitement, sans erreur et avec un fonctionnement en 24/7. Mais, en l’état des technologies, cela vaut pour des tâches répétitives et ne faisant pas appel à des fonctions cognitives (anticipation, analyse, décision). Par ailleurs, cela n’exonère pas l’entreprise de veiller à synchroniser les traitements avec l’ensemble d’un processus où l’humain intervient encore, pour des tâches de contrôle ou de validation par exemple.
Une vision équilibrée
Il ne s’agit pas ici de faire l’éloge de la lenteur, mais d’avoir une vision équilibrée du point d’excellence que l’on veut atteindre. Les choix d’innovation doivent être éclairés, en fonction des attentes de l’entreprise, de ses équipes et de sa capacité de mise en œuvre de projets complexes. Il convient aussi de se poser la question du processus ou sous-processus sur lequel une accélération est souhaitée, des raisons de cette attente et du niveau d’amélioration attendu. Par exemple, dans le cas de la gestion de données : faciliter la saisie, fiabiliser les données, ou rendre les processus plus transparents et plus mesurables.
La recherche de gain à tout prix peut s’avérer contre-productive. Tesla l’a expérimenté à ses dépens en 2017. L’usine, reconnue comme le site le plus robotisé au monde, avait connu une sévère déconvenue sur sa ligne d’assemblage de batteries, obligeant à ralentir toute la production. Son médiatique patron, Elon Musk, avait alors admis « une automatisation excessive ».
Par David Coerchon chez Winshuttle France