À l'échelle de mon organisation

Évaluez la pertinence de l’IA générative avant de l’adopter dans votre organisation

J'ai les bases
Impact très fort
#Adapter ma pratique web

L’intelligence artificielle est aujourd’hui partout et s’impose comme une tendance incontournable. Face à cet engouement, certaines entreprises peuvent être tentées de développer leur propre IA pour rester compétitives. Mais cette démarche est-elle toujours nécessaire et pertinente ?

L’IA générative donne parfois l’impression d’avoir réponse à tout. Pourtant, ses productions peuvent être approximatives, de qualité inégale, et s’accompagnent d’un coût environnemental et énergétique élevé. Elle pose également des risques pour la sécurité des données, qu’elles soient personnelles ou professionnelles.

📌 Pour approfondir, voir la bonne pratique   »Evitez le recours à l’IA générative« .

Questionner le besoin avant d’agir

Avant de recourir à une IA générative, il est essentiel de s’interroger :

  • Une alternative plus sobre ou plus fiable existe-t-elle déjà ?
  • Quel est l’impact environnemental du modèle choisi, à la fois lors de son entraînement et pendant son utilisation ?

💡 À noter : un modèle entraîné dans un data center aura une empreinte carbone différente selon l’emplacement de ce centre.

Bonnes pratiques en cas d’usage intensif

Si vous constatez une forte utilisation de l’IA générative dans votre organisation ou si vous favorisez son recours, pensez à  : 

  • Sensibiliser et former les équipes à interagir efficacement avec ces outils, pour éviter les requêtes inutiles et les résultats de faible qualité. 
  • Proposer des alternatives plus fiables et moins énergivorese 

Dimensionner l’outil à son besoin

L’empreinte carbone d’un modèle d’IA est directement liée à sa taille. Il est donc préférable de :

  • Bien définir le besoin pour éviter de recourir à un modèle surdimensionné.
  • Éviter d’entraîner un nouveau modèle lorsqu’un équivalent open source existe déjà.

Mesurer et piloter l’impact

Le manque de transparence de nombreux acteurs rend le suivi environnemental difficile. Des outils comme Ecologits (ecologits.ai) peuvent toutefois donner une estimation. Privilégier des modèles ouverts plutôt que propriétaires permet non seulement d’avoir une meilleure visibilité sur leur consommation énergétique, mais aussi de gagner en autonomie et en souveraineté.

📌 Pour aller plus loin : consultez le Kit d’engagement pour une IA frugale et le Référentiel général pour l’IA frugale : greentechinnovation.fr/ia-frugale

Bien définir le besoin pour éviter de recourir à un modèle surdimensionné.

x 2

Selon l’Agence internationale de l’énergie (AIE), la consommation électrique mondiale des data centers devrait doubler d’ici 2030, atteignant un niveau équivalent à la consommation totale du Japon. Près de 70 % de cette hausse serait imputable au développement de l’intelligence artificielle.

BON A SAVOIR

Les IA génératives nécessitent des quantités gigantesques de données pour leur entraînement. Or, il réside une grande opacité dans les données utilisées. Cela soulève deux grandes questions : 

  • Droits d’auteur : Les bases de données utilisées pour entraîner les modèles incluent parfois des œuvres protégées par le droit d’auteur (textes, images, musiques, etc.), souvent sans le consentement des créateurs. Par exemple, une IA peut produire un contenu imitant le style d’un artiste à partir de ses œuvres, sans que celui-ci ait donné son accord. 
  • Confidentialité des données : Certains acteurs, comme les GAFAM, ont accès à d’importantes quantités de données personnelles et confidentielles. Il est rapporté qu’ils utilisent ces informations pour entraîner leurs modèles. Par exemple, des entreprises comme Meta ou Microsoft modifient leurs conditions d’utilisation pour intégrer les données des utilisateurs, sauf opposition explicite.  

Les modèles d’IA génératives (texte, images, et vidéos) sont entrainés sur les données disponibles sur internet. Lors du développement des modèles actuels, quasiment aucun contenu disponible n’était généré par IA. Cependant, avec leur capacité à produire du contenu en masse, internet devient de plus en plus saturé par du contenu produit par IA, de qualité intrinsèquement moindre. Ce phénomène risque de provoquer une dégradation continue de la qualité des données disponibles, créant un cercle vicieux pour les futurs modèles. Pour contrer ce problème, certains fournisseurs d’IA cherchent activement à accéder à des contenus plus susceptibles d’avoir été créés par des humains. Cela passe parfois par des pratiques contestables, comme l’utilisation de « dark patterns » ou de « design adversarial » visant à collecter des données de manière détournée.