Embauché il y a 2 ans pour digitaliser les process, Alexandre Aubry raconte tous les changements que cela a induit : transformation de l'organisation, de l'infrastructure matérielle et réseau, ouverture et décommissionnement progressif de l'ERP Cobol...
Nous avons assisté à la conférence client de l'entreprise Orange à Agile en Seine. Cet article vous propose de découvrir comment l'IA Gen devient déjà un atout incontournable chez certains clients.
Un bon mix d'indicateurs - des KPI classiques ainsi que des KPI personnalisés - devrait vous aider, à condition de respecter un principe essentiel : faites simple !
Un manque de qualité chronique peut conduire à une catastrophe
Avez-vous déjà regardé l'émission de la chaîne scientifique intitulée Engineering Catastrophes ? Il s'agit d'une émission captivante qui montre comment le moindre défaut de conception technique peut faire échouer des projets de toutes tailles.
Manque de prise en compte des facteurs environnementaux, travail bâclé ou manqué, erreurs de jugement, manque de conformité à la réglementation ou à la sécurité... les raisons des catastrophes à l'échelle industrielle liées aux questions de qualité sont nombreuses. Cependant, le facteur le plus courant est un défaut crucial dans la conception initiale et/ou les changements apportés à cette conception pendant la construction. Un dicton ne dit-il pas que lorsqu'on construit un grand bâtiment, chaque élément, aussi petit soit-il, est crucial ? Ne pourrait-on pas en dire autant de la chaîne de valeur des données industrielles ?
Des données de qualité, sinon rien
Lors d'un récent appel client, un prospect nous a confié qu'il n'était "pas en mesure, à l'heure actuelle, de donner la priorité à la qualité des données plutôt qu'à l'exercice d'agrégation et de rationalisation de la collecte des données". Il s'agit d'une étrange dissonance cognitive, où certaines entreprises expliquent que "oui, nous avons besoin d'agréger et de stocker les données, mais nous ne nous préoccupons pas de leur qualité". Autrement dit, "nous avons besoin des données, mais nous n'avons pas besoin qu'elles soient utilisables". Mais la condition vitale de l'utilisation des données n'est-il pas justement leur exactitude et leur fiabilité ?
Ignorer la qualité des données, le facteur crucial qui a un impact sur chaque application basée sur ces données, crée une situation potentiellement catastrophique. Pour éviter la catastrophe, vous avez besoin d'une stratégie de données complète. D'ailleurs, la moitié des responsables technologiques interrogés dans le cadre d'un sondage Pulse by Gartner ont déclaré que l'absence d'une stratégie de données clairement articulée était le premier obstacle à la progression des projets axés sur les données ; avant la technologie, le retour sur investissement, le financement ou le talent.
Une stratégie data demande de comprendre la chaîne de valeur de la donnée
Alors pourquoi est-il si difficile de créer une stratégie de données complète et efficace ? L'ampleur même du problème des données oblige souvent les stratèges à réduire le champ d'application pour répondre aux priorités les plus élevées et sont souvent de nature réactive. Les projets ou fonctions concurrents, tels que la visualisation et l'analyse des données, pour lesquels il est plus facile de prouver l'impact et le retour sur investissement, prennent souvent le dessus. C'est une situation où l'on ne voit pas la forêt pour les arbres. Une stratégie de données n'est pas une série de projets ou d'outils informatiques adaptés à une certaine fonction. Elle commence plutôt par la compréhension de la chaîne de valeur des données industrielles et de l'interdépendance de ces fonctions de données entre elles.
Dans quelles fonctions avez-vous investi ? Il est probable que vous ayez investi dans certaines fonctions, mais pas dans toutes. Dans un autre sondage Pulse by Gartner, deux tiers des personnes interrogées ont déclaré que la qualité des données était le principal problème de leur entreprise. Alors, pourquoi nous concentrons-nous tant sur la sécurité, l'agrégation et/ou l'analyse ? La qualité des données est intrinsèque à une stratégie de données réussie, en tant que couche d'infrastructure entre l'historisation et les utilisations des données. Elle peut constituer un défaut de conception clé pour l'ensemble de votre stratégie, si elle n'est pas réalisée correctement ou si elle est ignorée au profit d'autres fonctions de données dont le retour sur investissement est plus élevé et plus visible.
Traiter les problèmes de qualité avec la même sévérité que les problèmes techniques
Les problèmes de qualité des données doivent être traités avec la même sévérité qu'une défaillance technique sur une route, un pont ou un bâtiment. Certains incidents notables survenus dans des usines montrent à quel point les défaillances de la qualité des données ont un impact important sur les performances. Par exemple :
L'explosion de 2005 à Texas City chez BP a été causée par la défaillance d'un seul capteur (et une série de décisions instinctives imprudentes) qui a indiqué aux opérateurs que la colonne d'isomérisation ne se remplissait pas. Ils ont continué à pomper des hydrocarbures, ce qui a entraîné une surpression, puis une étincelle a provoqué l'explosion mortelle. [Engineering Catastrophes S5, EP3]
Dans les 11 dernières minutes avant l'explosion de la raffinerie de Milford Haven, deux opérateurs ont dû reconnaître et agir sur 275 alarmes. 1765 autres alarmes ont été affichées comme hautement prioritaires, bien que beaucoup d'entre elles se soient avérées n'être que des informations.