Select Page

Silicon

– le 18 octobre 2022
Les technologies d’analyse de données offrent tout le potentiel prédictif, descriptif et prescriptif. Mais faut-il encore savoir appréhender le besoins d’analyse dans des environnements incertains.
De nos jours les outils d’analyse de données servent une conception toujours linéaire des décisions. Raison pour laquelle ils n’ont parfois que des effets marginaux sur leur amélioration. L’enjeu pour les décideurs serait plutôt de revoir l’approche conceptuelle des modèles d’analyse afin de répondre aux réelles contraintes qu’imposent des environnements incertains.

Le contrôle en milieu entropique

La comptabilité est « l’organe de vision des entreprises. Elle doit permettre de savoir à tout instant où l’on est et où l’on va » (Fayol, 1918).

Au début du XXème siècle, on entend par comptabilité : système d’information décisionnelle. «Puissant moyen de direction » qui concoure aux opérations administratives de prévoyance et de contrôle (Fayol, 1918). Un « contrôle stratégique » qui consiste à établir des normes attendues, constater les performances réelles et en analyser les écarts (Asch, 1992).

Un siècle plus tard, les technologies d’analyse de données s’inscrivent toujours dans cette triple optique prédictive, descriptive et prescriptive (Appelbaum, et al., 2017).

Cependant, la viabilité de cette approche déterministe repose sur deux postulats révolus de nos jours : la simplicité et la stabilité des environnements économiques (Lorino, 1995).

Les technologies du big data ambitionnent depuis de couvrir, par la collecte et l’exploitation de données étendues, toute l’entropie des environnements. En complément, les systèmes de Business Intelligence évoluent vers une mise à disposition de ces données en mode « self-service » afin de servir des besoins d’analyse toujours plus élargis, fluctuants et permanents (Kohtamäki, 2017).

Mais les résultats restent questionnables car c’est parce que ces données proviennent de ces environnements entropiques qu’elles en portent le substrat de la désorganisation et de l’imprédictibilité. De fait, beaucoup de ces projets de Big Data Analytics échouent en raison d’une trop grande volumétrie de données et du manque de compétences pour en faire ressortir des informations d’ordre réellement stratégique (Jayakrishnan, et al., 2018).

Les technologies d’aujourd’hui offrent donc tout le potentiel. Mais faut-il encore savoir appréhender le besoins d’analyse dans des environnements incertains.

Le chaos des données financières

Dans la continuité des travaux de la fin du XIXème siècle sur la thermodynamique, le concept de systèmes chaotiques ou systèmes dynamiques non linéaires se formalise au cours du XXème siècle. Paradigme applicable à la description des systèmes sociaux (Krasner, 1990), le champs de l’entreprise en présente toutes les caractéristiques (Thiétart, et al., 2006) :
  • La complexité : Elle se définie par « la présence d’un nombre important d’éléments indépendants en interaction » (Thiétart, 2000), plus que ne peut en supporter l’esprit.

La comptabilité s’est enrichie au fil des décennies de visions analytiques diverses. Si bien qu’il est aujourd’hui difficile de cibler les axes pertinents pour retranscrire de manière soutenable les performances critiques de la stratégie. Cette accumulation de potentiels d’analyse entraine une inflation de reportings partiels, souvent contradictoires entre eux, qui nourrissent le sentiment de complexité et le besoin d’axes analytiques supplémentaires.

  • L’instabilité : Elle se caractérise par l’incapacité d’anticiper l’impact qu’aura un changement d’état, même infime, d’une composante du système sur l’ensemble de celui-ci. Ce principe imagé par l’effet papillon (Lorenz, 1972) rend les conséquences des décisions stochastiques. L’exercice de la prévision repose sur des conditions d’analyse initiales basées sur l’historique.

Or, dans des environnements fluctuants et complexement imbriqués, ces conditions initiales évoluent continuellement avec de forts impacts. Les processus budgétaires et de planification, par exemple, aboutissent inévitablement à des scénarios rapidement caducs. La volonté de limiter les spéculations stratégiques sur des bases erratiques pousse alors les directions à démultiplier l’exercice, lui donnant au final l’inefficacité du supplice de Sisyphe.

  • La fractalité : Elle se définie par l’autosimilarité des échelles (Mandelbrot, 1892). C’est-à-dire que les deux dynamiques décrites précédemment se reproduisent à l’infini sur des échelles plus petites. Se pose ici la question du grain de finesse pertinent pour travailler les données.

Depuis les documents transactionnels jusqu’aux ratios financiers globaux, l’effet étudié peut être plus ou moins perceptible et diagnostiqué. En plus des axes d’analyse et des récurrences temporelles, il faut donc savoir jongler entre des niveaux d’imbrications qui démultiplient rapidement la volumétrie de données à embarquer.

Suivre le chaos déterministe

Pour décider « les organisations doivent créer un niveau acceptable de certitude » (Daft, et al., 1984). Mais c’est aussi parce que cet « îlot de certitude » peut-être « en porte-à-faux avec les exigences auxquelles l’organisation est soumise » qu’il en devient source de chaos (Thiétart, et al., 2006). L’enjeu est donc de rechercher une zone d’incertitude acceptable.

Car ces systèmes chaotiques ne sont pas complètent ergodiques mais s’imbriquent dans un schéma directeur périodique que l’on qualifie d’attracteur étrange (Lorenz, 1963). C’est ce schéma que le bornage des données à embarquer doit permettre de faire ressortir comme le champs des possibles réactions aux perturbations. Ceci en :

  • Prenant le temps d’observer les cycles pour définir la bonne récurrence d’analyse
  • Sélectionnant les dimensions et grains analytiques ou peuvent se manifester les perturbations

Par exemple, le délais d’encaissement des créances peut être vu comme un indicateur chaotique.

Il est tout d’abord complexe puisqu’une déviation de ce délai peut être lié à des facteurs divers comme un problème de qualité entrainant des litiges, des difficultés dans la relation commerciale, des difficultés financières des clients ou encore des défauts dans le processus de facturation.

Il est ensuite instable car l’une ou une combinaison de ces variables peuvent agir aléatoirement et influer fortement sur l’indicateur.

Il est enfin fractal car chacune de ces dimensions analytiques regroupent des niveaux de détails plus ou moins pertinents selon les cas et les moments pour comprendre la déviance de l’indicateur. Parfois une facture seule en sera la cause, parfois il faudra regrouper ces factures sous un grain client, groupe de clients ou secteurs de ventes pour saisir la nature du problème. Et si cette dimension commerciale ne s’avère par pertinente, il faudra répéter cet exercice de polarisation sur les autres dimensions.

Une perturbation peut donc s’appréhender par l’un de ces nombreux aspects ou une combinaison de ceux-ci. Raison pour laquelle, l’outil d’analyse de cet indice devra embarquer l’ensemble de ces données et offrir des fonctionnalités exploratoires pour cibler la dimension et le grain analytique pertinent. Il s’agit donc d’avoir une approche pragmatique sur l’observation des possibles plutôt que d’empiler séparément les rapports sur tous les angles ou de limiter l’analyse à une seule de ces visions.

Par Frantz Frebault, Consultant Senior Square Management.

AUTRES ACTUALITÉS EN DATA

Share This