Intelligence artificielle : Comment améliorer son empreinte carbone tout en protégeant sa vie privée ?

Noé
2026-04-24

L'intelligence artificielle (IA) nous a transformés, elle est partout, de nos smartphones à nos bureaux. Mais ce progrès a des coûts cachés : une consommation énergétique alarmante et une fuite de nos données. Rassurez-vous, il existe des alternatives pour naviguer dans cette révolution sans hypothéquer notre avenir climatique ni notre vie privée.

Les problématiques apportées par l'IA

L'empreinte carbone cachée de l'IA

On nous présente l'IA comme un outil magique, mais savez-vous quel prix énergétique elle réclame ?

La dernière étude de l’International Energy Agency (IEA)1 datant de 2025 estimait qu’en 2023 la consommation mondiale des datacenters dédiés à l’IA se situait entre 30 et 50 TWh. Les projections pour 2030 sont comprises entre 200 et 400 TWh. À titre de comparaison, les 18 centrales nucléaires françaises ont produit 320 TWh en 2023. Il faudrait donc l’énergie d’un pays entier comme la France uniquement pour faire tourner nos IA !

Les quelques 50 TWh nécessaires aujourd’hui ne concernent pas uniquement l’utilisation de l’IA. Il ne faut pas oublier les étapes de R&D notamment l’entrainement du modèle dont sa consommation est loin d’être négligeable.

Source : étude IEA1

Des chercheurs de Hugging Face ont récemment publié une étude2 visant à déterminer en particulier la consommation des IA pour générer de la vidéo. Dans le graphique ci-dessous, vous trouverez en orange la consommation de l’IA et en bleu des comparaisons avec des actions du quotidien. Ce graphique démontre à quel point la génération de vidéo en particulier est énergivore, surtout que la consommation évolue au carré en fonction de la durée de la vidéo ou de sa résolution !  

Si la consommation énergétique des requêtes textuelles peut paraitre négligeable comparés à l’utilisation d’un smartphone par exemple, il ne faut pas oublier que cette consommation n’existait pas du tout il y a quelques années ! C’est donc de l’énergie supplémentaire qui est dépensée chaque jour

Sources : Article de recherche publié par Hugging Face2 et une étude d’Epoch AI3 (En considérant un téléphone de capacité 5000 mAh et une ampoule LED de 6W.) 

L'hémorragie de nos données

Un autre point à relever concerne la confidentialité de nos données. En effet, des informations sensibles sont collectées et utilisées pour créer et affiner les systèmes d’IA. Quand nos données quittent notre machine voire notre territoire, on perd le contrôle. Il devient difficile de savoir si les règles de protection des données locales suffisent. Il y a un risque réel que nos informations personnelles soient utilisées sans notre accord, ou que des systèmes étrangers les analysent pour des fins qui ne nous concernent pas. En tant que particulier comme professionnel, il est fondamental que nous soyons maitres de nos données.

Quelles options pour améliorer notre usage de l'IA ?

La meilleure solution serait peut-être de ne pas utiliser ces outils. Cependant, dans un monde comme le nôtre, freiner le développement technologique est une mission impossible... Même Tom Cruise s’y casserait les dents ! 

Comme souvent, la solution n’est donc pas de ne pas consommer mais de maîtriser ses usages et d’exploiter au mieux la technologie existante. Nul besoin d'utiliser une Formule 1 pour aller chercher son pain, il faut choisir l'outil juste pour le besoin précis. Autrement dit : la modération est la clé.

Bon, soyez rassurés, j’ai une solution plus pragmatique pour vous ! On ne va pas se mentir, l’IA est un outil génial dont il est aujourd’hui déjà difficile de se passer. Je vous propose donc d’utiliser une alternative qui met en avant les mêmes promesses mais plus adaptée aux besoins quotidiens : l’IA locale. 

Le meilleur candidat : une mini IA locale

Derrière le terme de « mini IA locale », l’idée est d’utiliser un modèle d’IA très léger qui est capable de tourner sur votre machine personnelle comme un ordinateur ou même un téléphone portable. 

Mais alors en quoi une IA locale et légère est une solution intéressante ? 

  • Autonomie totale : Avoir accès à son assistance partout dans le monde même sans accès à internet est une aide précieuse. Pouvoir traduire un panneau de signalisation ou encore la carte d'un restaurant, demander des informations touristiques ou une liste des choses à voir dans le coin... Tout cela sans accès à internet.
  • Confidentialité : Avec un modèle local, plus besoin de se poser la question de ce qui peut être partagé ou non ! Du code propriétaire, des infos de santé, de la documentation soumise au secret... Comme rien de transite sur internet, tout peut être partagé et utilisé par l'IA.
  • Économie énergétique : Comme on l'a évoqué précédemment, la consommation des gros modèles d'IA est gigantesque. À l'inverse, un modèle miniature consomme en comparaison entre 60 et 70% moins d'énergie.4

Mon retour d'expérience : quand l'IA devient accessible localement

Il y a seulement deux ans, faire tourner une IA sur son PC était un parcours d'obstacles. Les outils étaient complexes et les performances lamentables. C'était franchement inutilisable pour un usage quotidien. 

Mais aujourd'hui, tout a changé. Ce que j'ai testé récemment avec Gemma 4 (dernier modèle de Google) est bluffant. J'ai commencé sur mon téléphone via l'application Edge Gallery5.En choisissant la version légère de Gemma (2B), j'ai pu générer du code Python ou traduire une carte de restaurant sans le moindre accroc et avec une rapidité étonnante. 

Cette surprise m'a poussé à tester la version plus performante de Gemma (4B) sur mon ordinateur. J'ai comparé deux outils: LMStudio pour les discussions simples, et Ollama, un outil en ligne de commande. Ollama est extrêmement pratique car il permet d'intégrer l'IA directement dans divers environnements comme VS Code. La combinaison de ces deux outils répond parfaitement à tous mes besoins du quotidien : écriture de code, relecture d’e-mails, synthèse de textes... Ils m’ont permis de remplacer ChatGPT par mon modèle local ! 

Pour information, de nombreux mini-modèles existent. Presque toutes les entreprises d’IA ont un modèle léger : Llama chez Meta, Phi chez Microsoft ou encore GPT-OSS chez Open AI. J’ai choisi Gemma 4 de Google car c’est aujourd’hui celui qui m’a le plus bluffé au vu de sa vitesse et de la pertinence de ses réponses. 

Vous trouverez en annexe de cet article des tutoriels pour configurer un modèle d’IA sur votre ordinateur personnel

Les compromis à accepter

Malheureusement, malgré la puissance de ce nouvel outil, cette solution n’est pas parfaite. Quelques limites techniques sont à prendre en compte. 

  • Exigence matérielle : Les performances dépendent directement de votre équipement. Pour une expérience fluide, un processeur graphique dédié (GPU) ou une puce spécialisée (NPU/TPU) est idéal. Le facteur critique reste la mémoire vive (RAM) : elle doit pouvoir contenir l'intégralité du modèle. Bien que ces exigences puissent paraître élevées aujourd'hui, les avancées matérielles rendent ce rêve d'IA décentralisée de plus en plus réaliste.
  • Limites de l'autonomie totale : Un point déjà évoqué dans les avantages, c'est la non-dépendance à internet. C'est bien pratique, mais internet n'a pas été inventé pour rien... Donc si vous avez des questions sur des événements récents, l'IA risque de ne pas être en mesure de vous répondre. Ceci-dit, il est possible de configurer l'IA pour qu'elle interroge le web mais cela demande un peu de configuration supplémentaire.
  • Consommation énergétique : L'entraînement du modèle représente jusqu'à 40% de la consommation totale de l'IA. Notre mini modèle local est construit à partir de gigantesques modèle qui ont été compressés. Donc sans cette phase énergivore d'entraînement de gros modèles, notre mini-modèle ne peut pas exister. Cela dit, une diminution d'au moins 60%, c'est déjà bien !
  • La mémoire courte : Soyez conscient que la capacité de mémoire de ces modèles est limitées. Contrairement aux géants en ligne qui peuvent se souvenir de tout ce que vous leur avez dit depuis des jours, votre IA locale a une "mémoire" plus courte. Pour les longs dossiers ou les conversations très étendues, il faudra parfois relancer le contexte manuellement.
  • Impact sur l'autonomie de l'appareil : Bien que la consommation énergétique soit bien inférieure aux data centers, il est important de noter qu'utiliser un modèle local sollicite directement la batterie de votre appareil. Cela signifie que l'usage intensif reste soumis à la gestion énergétique de votre téléphone ou ordinateur portable.

Conclusion

Comme le premier ordinateur qui demandait une salle entière, les gros modèles d’IA ont aujourd’hui besoin de beaucoup d’espace et surtout de beaucoup d’énergie pour fonctionner. Mais surveillez bien les modèles d’IA embarqués car cela est en train de changer ! S’ils seront toujours moins performants sur les tâches complexes que les modèles «généralistes » 6, ils sont déjà largement suffisants pour nos besoins du quotidien

Et n’oubliez pas, l’énergie la plus propre est celle qu’on ne consomme pas!Alors l’IA locale est certes une meilleure option que les IA « généralistes » mais avant d’utiliser l’un de ces outils posez-vous la question : ai-je besoin d’une IA pour ça ? Est-ce que tout simplement un collègue ou un ami ne pourrait pas répondre à ma question?

Annexes

Pour aller plus loin

Article du journal Le Monde sur la consommation des IA : 

https://www.lemonde.fr/les-decodeurs/article/2025/06/08/pourquoi-notre-utilisation-de-l-ia-est-un-gouffre-energetique_6611132_4355770.html 

Mise en perspective intéressante sur la consommation desIA locales : 

L'impact environnemental de l'IA textuelle locale -Greenspector 

Article sur les SLM (Small Language Models) : 

Small language models (SLMs) : A cheaper, greener route into AI 

Article sur comment réduire l’impact carbone des IA : 

Energy-awareAI: Quantifying and reducing the carbon footprint of model training and inference | by Khayyam H. | Medium 

Tuto pour utiliser un modèle d’IA local dans VS Code : 

How to UseAI Models Locally in VS Code with the Continue Plugin (with Multi-ModelSwitching Support) - DEV Community 

Tuto installation LMStudio : 

Get started with LM Studio | LM Studio

Sources

1 Étude IAE : https://www.iea-4e.org/wp-content/uploads/2025/05/Data-Centre-Energy-Use-Critical-Review-of-Models-and-Results.pdf

2 Étude Hugging face : https://arxiv.org/pdf/2509.19222

3 Étude Epoch AI : https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-use

4 Étude de la consummation SLM vs LLM : https://papers.academic-conferences.org/index.php/icair/article/view/4345/4001

5 Application Edge Gallery : https://play.google.com/store/apps/details?id=com.google.ai.edge.gallery&hl=en

6 Benchmark Gemma 4 : https://huggingface.co/google/gemma-4-26B-A4B-it

Partager l’article
Data Science et IA
Noé
2026-04-24