Pramana
14 juin 2023 Back To Basics #Architecture Technique #cloud public

Cloud responsable et FinOps : un duo qui marche !

Pramana

A l’heure actuelle, vous n’êtes pas sans savoir que le cloud ne cesse de se développer sur le marché des nouvelles technologies. Ses plus gros fournisseurs proposent un large choix de services répondant à une liste grandissante de problématiques et de cas d’usage. Et bien que cela soit très intéressant pour les entreprises. La multiplication des datacenters, données, applications et utilisateurs entraîne inévitablement une augmentation de ses émissions de gaz à effet de serre.

Le message que je souhaite faire passer dans cet article est qu’il faut rester vigilant et adopter d’ores et déjà les bonnes pratiques pour suivre une démarche responsable. Et la bonne nouvelle, c’est que dans cette mouvance, « bonnes pratiques » rime avec « économies » ! A la lumière des sujets Green IT et FinOps que j’ai pu mener au cours de mes missions, je vous expliciterai ici comment nous appliquons notre démarche RSE à travers le prisme de l’architecture technique dans le cloud.

Quels leviers pour diminuer au mieux son empreinte ?

Le choix de processeur

Pour les services non serverless, il vous est possible de choisir jusqu’au processeur sur lequel vous souhaitez que vos applications reposent. De ce que j’ai pu observer en mission, ce premier point fait déjà la différence !

A titre d’exemple, l’hyperscaler Amazon Web Services propose depuis 2018 ses propres processeurs ARM, nommés Graviton. Ces derniers peuvent supporter des charges de travail optimisées, en offrant de meilleures performances, une plus faible consommation d’énergie, et tout cela à coûts réduits par rapport aux autres processeurs.

L’utilisation de gabarits d’instance de dernière génération

Le second point sur lequel j’attire votre attention est qu’il est important de maintenir son parc d’instances (VM classiques, bases de données managées…) à jour. En d’autres termes, vos applications doivent toujours être hébergées sur des instances de dernière génération. Celles-ci consomment moins d’énergie, sont plus performantes, resteront maintenues par le fournisseur sur une plus longue durée et coûtent moins cher que les générations précédentes.

Ajustement des gabarits d’instance

Pour traiter cette problématique, la meilleure solution est de faire comme à la maison : du ménage périodique ! De cette manière, vous pourrez redimensionner les ressources des applications qui en ont besoin, et supprimer celles qui ne vivent plus. Et si vous voulez agir de manière plus efficace, n’hésitez pas à utiliser des services serverless ou encore de l’auto-scaling : ils s’occuperont de l’ajustement à votre place en réajustant, en éteignant ou en supprimant les ressource que vous n’utiliserez pas. Voilà une bonne chose de faite !

Mise en place de plages de service ajustées

Vous avez la possibilité de définir les créneaux horaires durant lesquels vos ressources fonctionnent, alors pourquoi s’en priver ?

Pour vous donner un cas concret, si vous travaillez sur vos environnements hors production uniquement en période ouvrée, vous pouvez démarrer et arrêter les ressources associées grâce à un programme qui s’exécute aux horaires désirés (ex : Instance Scheduler sur AWS). Et même dans le cas des environnements de production, si vos applications ont vocation à être utilisées uniquement en horaires ouvrés, vous pouvez choisir d’interrompre leur fonctionnement le reste du temps. Vous pouvez ainsi réduire de deux à trois fois votre facture !

Optimiser l’utilisation des services en fonction de l’usage

Si je reprends l’exemple d’AWS, le fournisseur propose divers services qui permettent de réduire les coûts et les émissions carbone associées en fonction de la fréquence d’utilisation des données qui y sont stockées. Ainsi pour vos compartiments Amazon S3 ou encore vos systèmes de fichiers Amazon EFS, si vous répartissez vos données peu accédées voire pas du tout respectivement dans les classes de stockage d’accès peu fréquent ou d’archivage, ces données seront compartimentées dans des espaces de stockage avec peu voire pas de transferts sortants. Et qui dit peu de transferts, dit peu de téléchargement et d’accès utilisateurs, dit moins de consommation d’énergie et d’émissions de gaz à effet de serre. Bien évidemment, cela se reflète également sur la facturation.

Visualiser votre parc

Tout cela me paraît déjà très bien, cependant vous pouvez ajouter un axe complémentaire et garder un œil sur l’évolution de votre parc de ressources, vous permettant ainsi de savoir combien vous émettez et dépensez.

Pour ce faire, vous pouvez :

Bien que les solutions et standards de calculs d’empreinte carbone de cloud soient encore en cours de développement, ils permettent déjà de suivre un certain nombre de services. D’autre part, ils nous font constater une chose très intéressante : les courbes d’émissions et les courbes de dépenses sont sensiblement les mêmes par rapport au temps, ce qui montre là un réel lien entre les deux aspects.

Nous sommes loin d’être à court d’options

Vous l’aurez constaté, il existe divers leviers qui permettent d’optimiser sa consommation d’énergie dans le cloud, et donc ses émissions de gaz à effet de serre associées. Pour ma part, je ne vois que de bonnes raisons d’optimiser la constitution d’un parc de ressources, pour le bien de la planète et du porte-monnaie. Si vous souhaitez traiter cette problématique au sein de votre organisation, n’hésitez pas à nous contacter sur https://pramana.fr/contact/ !

Anne-Sophie Narcisse
Consultante en Architecture Technique