Aller au contenu principal

Le Green IT, épisode 2 : Pas coule !

· 10 minutes de lecture
Emmanuel Peru
CTO & DSI zatsit

Nous aimerions tous que ce ne soit qu'une goutte d'eau dans l'océan, malheureusement la réalité se mesure en centaines de milliards de litres. Je veux bien sûr parler ici de la consommation d'eau des datacenters, ceux qui calculent pour vous des itinéraires, vous permettent de chiller devant la dernière série et qui hébergent aussi cette page web... Dans le premier épisode de cette série, nous avions exploré l'impact environnemental de l'extraction des matières premières nécessaires à nos appareils personnels, mais aussi aux serveurs de nos datacenters... Après le carbone, place à une autre facette moins visible de l’empreinte numérique : l’eau. On parle souvent d’émissions, rarement d’évaporation, et pourtant la consommation d’eau du secteur mérite qu’on s’y attarde.

Cycle de l'eau

IA et consommation énergétique

· 12 minutes de lecture

Depuis plusieurs mois nous entendons parler dans les médias de la consommation énergétique inquiétante de l'Intelligence Artificielle (IA). Cette alerte fait désormais partie de notre quotidien, et j'en suis venu à me poser plusieurs questions : quelle est la consommation d'un prompt ChatGPT ? Combien faut-il de prompts pour obtenir l'équivalent d'un plein d'essence ? Ou encore, combien de prompts faut-il pour consommer l'équivalent en euro d'un abonnement Netflix ?

Contexte et introduction

Avant de commencer à se pencher sur le sujet, il nous faut remettre un peu de contexte. Bien que l'IA existe depuis de nombreuses années, comme le montre, par exemple, l'ordinateur Deep Blue qui a été le premier à vaincre le champion du monde d'échecs en 1997, ou encore Deep Thought qui est le premier ordinateur conçu pour jouer aux échecs, c'est avec l'apparition des chatbots se basant sur les LLM et ouverts au grand public, tel que ChatGPT, en 2022 que l'utilisation de l'IA a explosé. Si avant elle était réservée à des domaines précis et particuliers, aujourd'hui tout le monde peut l'utiliser en quelques clics, que cela soit sur son ordinateur ou son téléphone.

C'est cette ouverture au monde qui a poussé une consommation énergétique importante de l'IA. Et cette consommation ne s'exprime pas uniquement par le nombre de prompts faits par jour, mais aussi par l'énergie utilisée par les datacenters, le réseau, les serveurs lors des entrainements et bien d'autres paramètres encore. Malheureusement, l'ensemble de ces données sont difficilement trouvables et calculables. Pourtant nous savons que l'impact est réel, comme l'admet Google dans son rapport environnemental de 2024 :

In 2023, our total GHG emissions were 14.3 million tCO2e, representing a 13% year-over-year increase and a 48% increase compared to our 2019 target base year.
This result was primarily due to increases in data center energy consumption and supply chain emissions. As we further integrate AI into our products, reducing emissions may be challenging due to increasing energy demands from the greater intensity of AI compute, and the emissions associated with the expected increases in our technical infrastructure investment.

Infographie sur la consommation des datacenters pour l'IA

Sources : Média Basta! & l'Agence Internationalle de l'énergie

Il est compliqué de connaître exactement l'impact total de ces IA sur l'environnement au travers de sa consommation énergétique. Il y a de nombreux facteurs à prendre en compte et pour cet article, nous avons choisi de nous limiter. Veuillez prendre en compte que les chiffres que nous allons présenter et étudier se basent principalement sur la consommation énergétique des prompts. C'est-à-dire, sur ce qui est dépensé lorsque nous réalisons une demande à ChatGPT ou une IA similaire.

Consommation énergétique d'un prompt

La consommation énergétique exacte d'un prompt en IA n'est pas connue. Cependant, selon un article de ScienceDirect, une requête ChatGPT consomme environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google estimée à 0,3 Wh. Nous pouvons aussi citer la Délégation Régionale Académique au Numérique Educatif qui nous informe qu'une requête d’environ 400 tokens sur ChatGPT / GPT-4o mini consomme environ 2 Wh d’électricité, soit plus de 6 fois la consommation d’une recherche Google classique.

Un prompt venant remplacer une simple recherche internet consomme donc 6 à 10 fois l'énergie qui aurait été utilisée si vous l'aviez faite à la main sur Google par exemple.

Mais alors, est-ce que la consommation énergétique de toutes nos actions est multipliée par 10 lorsque nous utilisons l'IA ? Existe-t-il d'autres comparatifs ?

Différentes comparaisons de consommations énergétiques

En prenant le temps de quelques recherches sur le web (à l'ancienne), il est possible de trouver de nombreuses comparaisons entre la consommation des prompts et d'autres outils ou objets fonctionnant à l'électricité, tout comme le montre l'infographie ci-dessous crée par le média indépendant Basta! à l'aide des informations regroupées par Hugging Face, l'Université de Carnegie Mallon et Futura sciences: Infographie que l'usage massif de l'IA

Ces images sont très intéressantes, mais d’un point de vue personnel, elles ne me parlent que peu. C’est pour cela nous allons vous présenter plusieurs cas différents et les comparer à l'énergie consommée par un plein d’essence ou au prix d’un abonnement Netflix.

Pour l'ensemble de ces tests, nous nous baserons sur les informations suivantes :

  • Une recherche Google vaut 0,3 Wh
  • Les informations fournies par EcoLogits seront notre référence
  • Nous arrondirons toujours les résultats à l'entier supérieur
  • Notre voiture de tests, une familiale moyenne, a un réservoir de 50 litres
  • Un litre d’essence contient l’énergie équivalant à 8,9 kWh d’électricité
  • Notre abonnement Netflix est un abonnement Standard à 14,99€/mois
  • Nous baserons le prix du kWh à 0.2016€ TTC

En indicatif, nous ajouterons aussi le temps d'une vidéo en streaming dont la consommation énergétique est équivalente à un prompt.

Écrire un mail (170 output tokens)

Dans cet exemple, nous allons utiliser une demande de génération d'un email simple.

Voici une sortie d'environ 170 tokens :

Objet : Demande de réunion pour suivi du projet

Bonjour Madame Dupont,

J’espère que vous allez bien. Je vous écris afin de convenir d’une réunion pour faire un point d’étape sur l’avancement du projet “Nova”. Nous souhaiterions vous présenter les dernières évolutions ainsi que les prochaines étapes envisagées.

Auriez-vous des disponibilités cette semaine ou en début de semaine prochaine ? Une réunion d’une trentaine de minutes suffirait.

Merci par avance pour votre retour.
Bien cordialement,

Julien Martin
Chef de projet
julien.martin@exemple.com
+33 6 00 00 00 00

Et voici combien de prompts il faudrait effectuer afin d'atteindre les objectifs que nous nous sommes fixés :

ModèleConsommation estimée en WhTemps équivalent d'une vidéo en streamingNombre de recherches GoogleConsommer un litre d'essenceRemplir un réservoir de voitureUn mois d'abonnement à Netflix
ChatGPT 4o14,98,52 min5059829 8664 991
Claude 3.7 Sonnet14,98,52 min5059829 8664 991
Google Gemini 2.0 Flash1,5252,3 s65 85629 276448 918
Meta Llama 3.1 8B0,64122,2 s313 885694 228115 999
Meta Llama 3.1 70B2,131,22 min84 179208 92134 909
Meta Llama 3.1 405B40,523,1 min13522010 9881 836
Mixtral 8x7B v0.10,75726,1 s311 757587 84798 224
Mixtral 8x22B v0.12,761,58 min103 225161 23226 941

Avoir une petite conversation (400 output tokens)

Cet exemple nous montre les équivalences pour une petite conversation avec notre modèle d'IA favoris.

Comme il est compliqué de vous montrer une conversation complète, voici une sortie d'environ 400 tokens :

Objet : Suivi d’avancement et prochaines étapes du projet Orion

Bonjour à toutes et à tous,

Je vous écris afin de partager un point d’étape sur le projet Orion, dont le développement avance conformément au calendrier prévisionnel établi en début d’année.

À ce jour, les modules suivants sont finalisés :
- Interface de gestion utilisateur
- Système d’authentification renforcée
- Intégration de l’API partenaire

L’équipe développement est actuellement focalisée sur le volet analytique et l’optimisation de la base de données. Ces tâches devraient être complétées d’ici la fin du mois.

Du côté des tests utilisateurs, une première session a eu lieu la semaine dernière. Les retours ont été globalement positifs, notamment sur la fluidité de navigation et la clarté des écrans. Quelques ajustements sont prévus, en particulier sur la vitesse de chargement des rapports.

Voici les prochaines étapes :
- Finalisation des développements restants d’ici le 28 juin
- Phase de tests complète (2 semaines) à partir du 1er juillet
- Livraison de la version stable prévue pour le 15 juillet

Nous organiserons une réunion d’équipe le jeudi 20 juin à 10h pour faire le point ensemble, répondre à vos questions, et ajuster si besoin le plan de charge.

Merci à chacun d’entre vous pour votre implication continue dans ce projet structurant pour l’entreprise. Je reste bien sûr disponible si vous avez des remarques ou demandes spécifiques d’ici là.

Bien cordialement,
Nicolas Petit
Chef de projet – Programme Orion
nicolas.petit@exemple.com
+33 6 01 02 03 04

Et ci-dessous les résultats de nos calculs :

ModèleConsommation estimée en WhTemps équivalent d'une vidéo en streamingNombre de recherches GoogleConsommer un litre d'essenceRemplir un réservoir de voitureUn mois d'abonnement à Netflix
ChatGPT 4o35,120,1 min11725412 6792 119
Claude 3.7 Sonnet35,120,1 min11725412 6792 119
Google Gemini 2.0 Flash3,582,05 min122 487124 30220 770
Meta Llama 3.1 8B1,5152,2 s65 895294 70249 242
Meta Llama 3.1 70B5,022,87 min171 77388 64614 812
Meta Llama 3.1 405B95,454,4 min318944 665780
Mixtral 8x7B v0.11,781,03 min65 000250 00041 773
Mixtral 8x22B v0.16,513,73 min221 36868 35711 422

Écrire du code (15 000 output tokens)

Pour cet exemple, il aurait été souhaitable d'obtenir un code en 15 000 tokens, mais en réalisant la demande aurpès de ChatGTP, voici le résultat qui a été obtenu :

Créer un **code Java de 15 000 tokens exactement** est possible, mais il demande une approche rigoureuse car cela correspond à un **très long fichier source**, d’environ :

* **50 000 à 60 000 caractères** (variable selon le style du code),
* plusieurs **centaines voire milliers de lignes de code**.

---

### ✅ Avant de générer cela, quelques questions importantes :

1. **Souhaites-tu un programme fonctionnel** (par exemple, une application de gestion, un simulateur, etc.) ou est-ce purement une **fresque de code longue** (boucles, classes, commentaires) visant juste à atteindre 15 000 tokens ?

2. As-tu une **préférence de thème** ? Exemples :

* Gestion d’une bibliothèque
* Jeu en ligne de commande
* Système de messagerie
* Générateur de fractales
* Algo de machine learning simplifié en Java

3. Comment veux-tu **récupérer le code** ?

* Le coller ici (ça sera découpé en parties)
* Le mettre dans un fichier téléchargeable (`.java`) ?

---

### 📌 Exemple de plan pour un code de 15 000 tokens

Pour te donner une idée de structure :

* `Main.java` (point d’entrée)
* `AppManager.java` (gestion générale)
* `User.java`, `Book.java` (classes métier)
* `Database.java` (fausse base de données en mémoire)
* `Utils.java` (fonctions utilitaires)
* Beaucoup de commentaires, logs, tests unitaires en bas, etc.

---

Souhaites-tu que je commence à générer ce code maintenant par blocs (et te donne une estimation exacte de tokens pour chaque partie), ou veux-tu un **fichier Java de 15 000 tokens généré directement** ?

> ⚠️ À noter : ici dans l'interface, les messages sont limités (≈ 4 000 tokens max par message). Donc je devrai **te l’envoyer en plusieurs blocs** ou te proposer un **fichier `.java` complet** à télécharger. Quelle option préfères-tu ?

Mais il est tout de même possible de calculer des équivalences :

ModèleConsommation estimée en WhTemps équivalent d'une vidéo en streamingRecherches GoogleConsommer un litre d'essenceRemplir un réservoir de voitureUn mois d'abonnement à Netflix
ChatGPT 4o132012,5 h4 400733857
Claude 3.7 Sonnet132012,5 h4 400733857
Google Gemini 2.0 Flash1341,28 h447673 321555
Meta Llama 3.1 8B56,632,6 min1891587 8631 314
Meta Llama 3.1 70B1881,79 h627482 368396
Meta Llama 3.1 405B358034 h11 934312521
Mixtral 8x7B v0.166,838,4 min2231346 6621 114
Mixtral 8x22B v0.12442,33 h814371 824305

Conclusion

La consommation d'un modèle dépend de beaucoup de choses comme son nombre de paramètres d'entrée, et plus la sortie est grande, plus l'IA consomme d'énergie. Comme nous l'avons dit en introduction, utiliser l'IA ne fait qu'augmenter cette consommation. N'oublions pas non plus que nous n'avons pas pris en compte la consommation énergétique des appels sur le réseau ou encore de l'entrainement des IA.

L'objectif de cet article n'est pas de demander à arrêter d'utiliser l'IA, mais à venir nous sensibiliser sur les impacts énergétiques de cette dernière afin que nous puissions l'utiliser plus intelligemment. Arrêtons de tout lui demander dès que nous faisons face à un problème. Si ce dernier peut être résolu avec une simple recherche Google, privilégions là. Servons-nous de l'IA pour les tâches les plus complexes au lieu de nous demander de synthétiser la documentation d'un programme. À l'inverse, si nous devons utiliser une IA, essayons de prendre le modèle le plus pertinent et spécialisé possible. Ainsi, notre consommation énergétique sera réduite au maximum.

Il est aujourd'hui courant de voir dans son entourage un développeur junior qui pose des questions à l'IA plusieurs fois par jour. Ou encore il y a eu l'apparition du vibe coding où l'IA a une place importante dans l'ensemble du processus de création.

Essayons simplement d'être un peu plus intelligents dans nos utilisations de l'IA et ne laissons pas mourir les forums communautaires comme StackOverflow en posant toujours plus de questions dont la réponse n'existe pas encore !

Cela peut aussi vous intéresser

Si vous souhaitez approfondir le sujet ou mettre en place des solutions de votre côté, voici des pistes afin d'aller plus loin :

Nous sommes Entreprise à Mission

· 3 minutes de lecture
Flavien Bailleul
Flavien Bailleul
Co-fondateur engagé

Quand nous avons cofondé zatsit, nous ne voulions pas créer une énième ESN. Le marché n’en manque pas et il en existe déjà beaucoup. Trop peut-être.

Ce que nous voulions, c’était faire émerger une autre façon d’entreprendre, dans le numérique.

Une façon plus humaine, plus responsable, plus engagée.

Nous sommes convaincus que la tech peut – et doit – être un levier d’impact positif. Pour nos clients, pour la société, pour l’environnement.

C’est cette conviction qui nous a poussés à faire de zatsit, une entreprise à mission, et à inscrire noir sur blanc notre raison d’être dans nos statuts.

OpenRewrite : Automatiser les montées de version

· 6 minutes de lecture
Guillaume Gayot
Software Engineer

Le serpent de mer des montées de version

En tant que développeur·euse·s il n'est pas toujours facile de trouver le temps de maintenir à jour les versions des langages et des frameworks que l'on utilise.

Suivre le rythme des releases n'est pas toujours aisé, et on se retrouve souvent dans ce cercle vicieux : les montées de version mineures ne semblent pas suffisamment intéressantes pour que l'on prenne le temps de les faire. Alors on attend les majeures et les LTS...

La tyrannie de la commodité

· 10 minutes de lecture
Guillaume Gayot
Software Engineer

Grafiti on a wall saying tyranny is already there

La tyrannie de la commodité : ce que nous coûte la facilité

La Tyrannie de la commodité, qu'est-ce que c'est ?

Traduction littérale de l'Anglais "tyranny of convenience", le concept n'est pas si récent. Evan Williams, co-fondateur de Twitter, le déclarait déjà en 2018 : « la commodité décide de tout ». Clef de voûte du marketing, certaines marques en ont même fait leur argument principal : "Pratique et intuitif", "Tous vos outils au même endroit". Pourtant, on devrait le savoir, un argument marketing est rarement un argument rationnel.

Crossplane - Présentation des concepts

· 10 minutes de lecture
Germain Lefebvre
OSS Ambassador

Crossplane est une extension open-source à Kubernetes qui permet aux équipes plateforme d'assembler l'infrastructure provenant de plusieurs cloud providers, et d'exposer des APIs de plus haut niveau pour que les équipes d'applicatives puissent les consommer.

Crossplane Logo

Hacktoberfest 2024 : l'engagement de zatsit

· 6 minutes de lecture
Germain Lefebvre
OSS Ambassador
Ludovic Dussart
Deputy CTO & Developer Advocate

Le mois d'octobre est LE mois de l'année pour tous les amoureux de l'open source, c'est le mois du Hacktoberfest ! La communauté open source a besoin d'aide (d'idées, de compétences, de temps) pour faire avancer ses projets.

Il était donc évident pour nous de participer activement à cet événement, en contribuant sur des projets qui nous tiennent à cœur, ou que nous utilisons au quotidien.

hacktoberfest banner

Realworld, ou la mère des applications démo

· 2 minutes de lecture
Lucas Perreau
Developer

Hello, world! Et voilà ! Je sais comment développer avec Vue | Java | Rust | GoLang ! 🤓 Faire de la veille sur un projet technologique nécessite de trouver des cas d'implémentation, ce qui n'est jamais vraiment simple à trouver, non ?

Ca tombe bien, on a la solution pour vous : Realworld !