La loi européenne sur le climat votée le 24 juin 2021 impose à l’Europe de devenir neutre en carbone d’ici 2050. Les moyens d’actions pour diminuer les émissions de gaz à effet de serre sont variés et le recours au numérique constitue justement un levier intéressant. À condition de limiter et d’organiser les données produites ! L’évaluation de l’empreinte environnementale du numérique en France de l’ADEME et l’Arcep publiée en mars 2023 démontrerait en effet que l’impact du numérique sur l’environnement pourrait tripler d’ici 2050. Si les données peuvent permettre de répondre aux enjeux environnementaux, il convient en parallèle de contenir les potentielles dérives du numérique, si l’on ne veut pas avoir l’effet inverse. Dans cette perspective, Thierry Chambon, administrateur de la SBA et Directeur général des sociétés Energisme (logiciels applicatifs sur la gestion des fluides du bâtiment) et Loamics (middlewares sur le traitement de la data), partage ses bonnes pratiques pour un usage raisonné et une meilleure gouvernance des données au service d’un numérique plus responsable.
Les sources de données sont aujourd’hui de plus en plus nombreuses dans le bâtiment. Et chacune d’entre elles produit de plus en plus de données individuellement. « L’API d’Enedis, par exemple, qui envoyait jusqu’à présent des “points 10 minutes” à partir des compteurs électriques, transmet désormais ces informations toutes les 5 minutes, illustre Thierry Chambon. Avec un pas de temps 2 fois plus court, l’abonné reçoit ainsi 2 fois plus de données. »
Le constat : beaucoup de données pour satisfaire le plus grand nombre
En soi, cette augmentation de la quantité de données est une bonne chose. Parce que les données permettent de prendre des bonnes décisions. Dans le bâtiment, elles sont très utiles notamment en matière d’économie d’énergie. « Il ne suffit pas de dire que ses locaux sont chauffés à 19 °C parce que c’est la norme, poursuit Thierry Chambon. Il faut le vérifier à l’aide d’une sonde de température, qui donne la température “réelle” : une réalité (pas juste une affirmation) sur laquelle se baser pour analyser la situation et prendre des décisions. » Le problème, c’est que souvent, certaines données sont superflues. Imaginez : des sociétés mettent des systèmes de contrôle sur chaque prise électrique, même celles qui sont peu ou pas utilisées. « Évitons de faire les choses systématiquement et faisons preuve de bon sens. Toute source de données fournit plus de données que ce qui est utile. J’estime que seules 10 % des données produites en moyenne sont réellement utilisées. Il est donc essentiel d’établir un “plan de comptage” approprié pour déterminer avec justesse et pertinence ce qu’il convient de mesurer, en fonction du cas d’usage. Sinon, c’est ainsi que naissent des “cimetières de données”. » Si l’on revient à notre exemple de l’API d’Enedis, elle ne fournit pas moins de 140 valeurs par donnée. Chacun d’entre nous en utilise moins de cinq, mais nous n’utilisons pas tous les mêmes ! Pour satisfaire tout le monde, Enedis doit donc fournir ces 140 valeurs. C’est surdimensionné, mais on ne peut pas agir autrement. « Pour faire un parallèle : utilisez-vous l’ensemble des fonctionnalités d’Excel® ? Non ? Et pourtant, Microsoft ne vous vendra jamais Excel avec les trois seules fonctionnalités que vous utilisez au quotidien ! », ajoute Thierry Chambon.
Le risque : trop de numérique et une mauvaise exploitation aggraverait le bilan carbone
Pour exploiter les données qui viennent de différents équipements, les croiser entre elles, le réflexe est de les dupliquer aussi souvent que nécessaire pour permettre à chacun de travailler sur une analyse, de l’exploiter pour un besoin précis… Avec le risque de dérive et de multiplication des données à l’infini. « On assiste ainsi à un vrai emballement et, rapidement, on ne s’y retrouve plus et on consomme beaucoup plus d’énergie que l’on devrait, déplore Thierry Chambon. Nous devons arrêter de répliquer sans fin les données, mais plutôt les centraliser dans un “catalogue”, qui permettra de les sauvegarder une seule fois pour les utiliser à bon escient seulement. C’est du bon sens et la base de la sobriété numérique, afin de réduire son empreinte carbone. »
Effectivement, comme le montre l’étude de l’ADEME et l’Arcep qui a mesuré l’empreinte environnementale du numérique en France, 10 % de la consommation électrique annuelle (soit l’équivalent de la consommation électrique d’un radiateur de 1 000 W alimenté sans interruption pendant 30 jours) vient des services numériques. « Ce n’est pas négligeable, mais peu, comparé à l’empreinte carbone du numérique qui serait, selon le Shift Project, liée principalement à l’explosion des usages vidéo, streaming et autres, et à la multiplication des smartphones, tablettes et ordinateurs trop fréquemment renouvelés, relativise Thierry Chambon. De surcroît, une étude du cabinet de stratégie américain McKinsey & Company a démontré que lorsqu’on utilise le numérique pour optimiser un process les gains sont de 1/10. En clair, lorsque le numérique “coûte” un gramme d’émission de CO2, il permet d’en économiser 10 ! Le numérique permettrait ainsi d’éviter entre 3,2 et 9,4 gigatonnes de CO2 chaque année d’ici à 2030. » Alors, comment exploiter correctement les données pour un numérique plus responsable ?
La solution : l’utilisation d’un “data catalog”
Pour ne plus être saturé face à cette inflation de données, finalement peu performante et énergivore, différentes bonnes pratiques existent. Thierry Chambon préconise notamment la constitution d’un catalogue de données : « C’est un emplacement centralisé où est répertorié l’ensemble des informations (définition, localisation, qualité, utilisation…) sur les données produites, y compris les données contextuelles appelées métadonnées. Toutes les valeurs de la donnée (valeur primaire et métadonnées) sont inventoriées puis nommées et étiquetées, pour en disposer facilement. Ainsi, si l’on veut accéder à des données issues de bâtiments de plus de 1 000 m², pour répondre aux obligations du dispositif Eco-Energie Tertiaire par exemple, il suffit d’étiqueter les données concernées avec le label “1 000 m²”. L’objectif ? Permettre à tous les utilisateurs d’accéder à ces données en libre accès et d’en simplifier et préciser l’analyse, tout en étant capable de supprimer les doublons, de faire des mises à jour et de fiabiliser les données. » Une même donnée peut entrer dans plusieurs “cases”. Un collaborateur dans une entreprise peut en effet être tagué en tant que technicien dans le logiciel de maintenance assistée par ordinateur, en tant que salarié dans le système informatique des RH et en tant que “celui qui a réglé la sonde de température lors de son installation” dans l’application dédiée au confort de l’immeuble. Une seule personne, trois données différentes. Le “data catalog” permet d’avoir une vue globale de ces données, de constater que la même personne apparaît 3 fois dans les données. L’analyse recherchée sera plus juste, plus fiable et plus précise.
Le résultat : une meilleure gouvernance des données avec le data catalog
Grâce au “data catalog”, les entreprises peuvent ainsi inventorier, ranger, nettoyer, nommer, étiqueter les données, savoir d’où elles viennent… « Le catalogue est un vrai outil de la gouvernance de la donnée, qui permet de lui donner de la valeur, d’en prendre soin, insiste Thierry Chambon. On sait ainsi d’où vient chaque donnée, par qui elle a été taguée et comment. C’est à partir de là que l’on peut partager les données venant de sources variées et multiplier les croisements entre elles pour des analyses efficaces et pertinentes, dans des conditions qui permettent d’avoir une utilisation de ces données peu gourmande en énergie. » De plus, le “data catalog” permet d’exposer les seules valeurs que l’on veut exposer et non la donnée toute entière. Il est donc un outil essentiel de la gouvernance de la donnée.
Outre la possibilité d’exploiter les données avec sobriété, le “data catalog” brille par sa simplicité d’usage. « C’est uniquement une question d’autorisation alors, pour savoir qui a le droit de récupérer telle ou telle data, conclut-il. Il n’y a plus besoin d’être informaticien pour utiliser les données, de réinventer les algorithmes ou de calibrer une formule mathématique. Le “data catalog” rend le pouvoir des données aux métiers, tout en apportant de la sobriété. Rien que la valeur de la donnée, quasiment sans impact sur l’environnement ! »