Quelles pistes pour une IA générative moins énergivore ?

15/05/2024

Alors que l’IA générative écrite et visuelle se développe à un rythme exponentiel, les préoccupations sur son impact environnemental s’intensifient. En effet, les modèles statistiques et les ressources technologiques mobilisées augmentent les besoins de puissance informatique et, par ricochet, la consommation en électricité et en eau des centres de calcul. Le point avec Vincent Courboulay, cofondateur de l’Institut du numérique responsable. 

Peut-on évaluer l’impact de l’intelligence artificielle générative sur les émissions de CO2 ?

Vincent Courboulay – De façon précise et exhaustive, c’est difficile, car il existe de multiples IA génératives, comme OpenAI, Alphabet, Meta, Amazon, Microsoft, Mistral… De plus, il faut distinguer deux strates : celle nécessaire à l’apprentissage, sur la base des modèles ; et celle dédiée aux requêtes formulées par les utilisateurs. Sur la première partie, les plateformes se refusent à révéler le fonctionnement de leurs « boîtes noires ». Quant à la seconde, elle représenterait 80 % des impacts énergétiques de l’IA. Et des sources prospectives projettent que dans un futur proche, l’IA serait responsable de 3 % de la consommation électrique mondiale. 

En fait, la question – difficilement soluble – est celle du périmètre concerné. Veut-on en effet mesurer les effets écologiques :
- directs de l’intelligence artificielle générative (en termes d’énergie, d’eau et de matériels nécessaires à la modélisation puis à l’exécution des requêtes) ? 
- indirects (car l’IA peut aussi servir à optimiser des trafics routiers, ferroviaires, aériens, maritimes, et auquel cas, contribuer à réduire les émissions de CO2) ?
- les effets rebonds (l’IA générative étant simple d’usage, de plus en plus de monde génère de plus en plus souvent des textes et des images par ce biais).

 

Quelles mesures permettraient de réduire l’empreinte carbone de l’IA générative ?

V. C. – Les intervenants étatiques, les offreurs de services et les utilisateurs doivent basculer d’un « triangle de l’inaction » à un triangle de l’action. Concernant les utilisateurs, il s’agit de promouvoir des usages plus responsables par la pédagogie, la formation et la sensibilisation.

Les offreurs de services disposent quant à eux de deux leviers. D’une part, leurs algorithmes s’appliquent sur des modèles de langage étendus (LLM) qui brassent des pétaoctets de données et des centaines de milliards de paramètres. Or, dans la plupart des cas, recourir à des mini ou à des micro modèles de langage suffirait. D’autant que l’avenir de l’IA consistera à être disponible « dans nos poches », avec des modèles frugaux extraits de ces LLM.

D’autre part, leurs algorithmes peuvent fonctionner à l’aide de serveurs et de centres de calcul plus écologiques, utilisant des techniques de refroidissement naturel, une énergie décarbonée, des indicateurs d’efficacité énergétique (PUE), en allongeant la durée de vie des matériels… 

Enfin, concernant les entreprises, la plupart refusent d’extraire et de fournir leurs données aux plates-formes génératives, pour des questions de propriété intellectuelle, notamment. Elles utiliseront donc des modèles d’IA comme des services coexistant avec leurs données et modèles propriétaires, selon un modèle dit de « génération augmentée par méthode de récupération » (RAG). Cela engendre un équilibre entre les enjeux de réduction des gaz à effet de serre et la protection de la propriété intellectuelle. 

 

Quel rôle peuvent jouer les régulateurs dans la recherche d’un numérique « plus responsable » ? 

V. C. – En avril dernier, l’Union européenne a adopté une loi (IA Act) qui encadre les utilisations de l’IA et en classe les risques par degrés (d’inacceptables à minimes). En parallèle, un centre d’expertise, d’évaluation et de coopération internationale (baptisé le bureau de l’IA) a été instauré au sein de la Commissions européenne. Le but de l’Europe consiste à la fois à réguler et protéger ses citoyens comme ses organisations, même si à ce stade la loi sur l’IA n’inclut pas d’obligations environnementales. 

Pour sa part, l’Institut du numérique responsable publiera d’ici fin 2024 un guide des bonnes pratiques destiné aux entreprises utilisant les IA génératives. D’autres institutions cherchent à définir des labels, à documenter et outiller cette technologie. Mais qu’elles soient publiques ou privées, toutes les organisations sont confrontées à l’écart de temporalité entre la phase d’exécution (le marché de l’IA, en essor fulgurant) et de réflexion (sociale, légale). Tout s’est accéléré, à un rythme tel que cela pose la question d’une reprise en main possible.

Il ne faut cependant pas jeter le bébé avec l’eau du bain. Si l’IA est née il y a 80 ans, l’IA générative date de moins de 3 ans… Tout l’enjeu est d’en reprendre le contrôle et de la mettre au service des personnes, de la transition écologique et de la prospérité partagée. 

 

Retrouvez le guide des bonnes pratiques du numérique responsable 2023.

Crédits photo de couverture : © Adobe Stock

La bio de Vincent Courboulay

Vincent Courboulay est cofondateur de l’Institut du numérique responsable (créé en 2018). Il est à l’origine de la charte, du label et d’un enseignement en ligne accessible à tous sur le sujet. 
Son livre Vers un numérique responsable est paru en 2021 aux éditions Actes Sud.

La bio de Vincent Courboulay
Vincent Courboulay Crédit photo : Université de La Rochelle

VOUS POURRIEZ ÉGALEMENT AIMER