Au travail

Privilégier d’autres solutions à l’IA générative

J'ai les bases
Impact très fort
#Adapter ma pratique web

Il est de plus en plus difficile de renoncer à la tentation de l’IA générative dans notre travail. Bien qu’elle puisse s’avérer parfois une bonne assistante, elle n’est pas sans conséquence d’un point de vue environnemental, éthique et en matière de sécurité. 

Quel est l’impact numérique générative de l’IA ? 

Au regard de l’évolution rapide de l’IA, il est encore difficile d’obtenir des chiffres précis. Néanmoins, les rapports environnementaux des GAFAM de 2023 révèlent clairement l’ampleur de son impact sur l’environnement : Microsoft a vu ses émissions de carbone augmenter de 30 % depuis 2020, tandis que Google a enregistré une hausse de 48 % depuis 2019. Ces augmentations sont en grande partie dues aux investissements massifs dans des centres de données dédiés à l’IA, qui consomment une quantité colossale d’énergie et de ressources. Bien que ces entreprises aient pour objectif d’atteindre la neutralité carbone d’ici 2030, l’IA générative compromet indéniablement leurs efforts. 

L’entraînement des modèles nécessite en effet du matériel très performant (sa fabrication a donc un impact environnemental conséquent) et beaucoup d’énergie. En outre, nos prompts consomment de l’énergie, mais aussi de l’eau pour refroidir les data centers utilisés.  

Plus un modèle est généraliste, comme ceux des IA génératives les plus populaires, plus il contient de paramètres et de calculs complexes, ce qui nécessite davantage de ressources pour chaque interaction, même pour des simples prompts. 

Par ailleurs, bien que les IA génératives de texte soient de plus en plus performantes, elles ne sont pas conçues pour fournir des réponses « exactes », mais plausibles. Elles peuvent parfois « halluciner », c’est-à-dire donner des réponses erronées ou complètement hors sujet. 

Enfin, les données saisies dans vos prompts peuvent présenter un réel risque de fuite. Il est essentiel d’éviter d’y inclure des informations sensibles ou confidentielles, qu’elles vous concernent ou votre organisation. Par exemple, évitez de partager des informations confidentielles en demandant de l’aide pour la rédaction d’un contrat, de codes sources logiciels pour du débogage, ni de données contractuelles, commerciales, des plans stratégiques, des informations sur des clients ou des données personnelles sur les salariés… 

Quelles alternatives à l’IA générative ? 

L’IA générative semble avoir réponse à tout, mais elle produit souvent des réponses approximatives, de qualité discutable, tout en ayant un coût environnemental et énergétique très élevé. C’est aussi un risque pour la sécurité des données (personnelles et d’entreprises). Il vaut mieux lui préférer des outils spécifiques, bien plus fiables : 

  1. Privilégier une IA spécifique (traduction, orthographe, production de texte) plutôt qu’une IA générative, cela consommera beaucoup moins d’énergie.  Exemple pour de la traduction, privilégier DeepL ou un site de dictionnaire comme “WordReference” pour chercher un mot en particulier plutôt que des IA conversationnelles.  
  1. Eviter autant que possible le recours à l’IA générative pour générer des images ou des vidéos. Oui c’est amusant… mais son coût environnemental est salé. Les études montrent que générer une image ou encore une vidéo, avec l’IA consomme bien plus d’énergie que de créer du texte, et qu’en plus, il y a souvent plus de déchets dans le processus… Dans la mesure du possible, utiliser des images déjà existantes provenant de banques d’images libres de droit.  
  1. Lorsqu’ils peuvent offrir le même service, préférez donc les moteurs de recherches à l’IA générative.  Par exemple, pour des questions factuelles comme « Quelle est la capitale du Cambodge ? », il est préférable d’utiliser un moteur de recherche ou Wikipédia plutôt que d’interroger ChatGPT ou d’autres IA génératives. Et si c’est vraiment inévitable, allez droit au but : exit les conversations superflues ! 

135 TWh

La consommation électrique de l’IA pourrait atteindre 135TWh d’ici 2027, équivalent à la production de 22 réacteurs nucléaires. 

Source : article “The growing energy footprint of artificiale intelligence” de la revue Joule par Alex Vries

BON A SAVOIR

Les IA génératives nécessitent des quantités gigantesques de données pour leur entraînement. Or, il réside une grande opacité dans les données utilisées. Cela soulève deux grandes questions :

  • Droits d’auteur : Les bases de données utilisées pour entraîner les modèles incluent parfois des œuvres protégées par le droit d’auteur (textes, images, musiques, etc.), souvent sans le consentement des créateurs. Par exemple, une IA peut produire un contenu imitant le style d’un artiste à partir de ses œuvres, sans que celui-ci ait donné son accord. 
  • Confidentialité des données : Certains acteurs, comme les GAFAM, ont accès à d’importantes quantités de données personnelles et confidentielles. Il est rapporté qu’ils utilisent ces informations pour entraîner leurs modèles. Par exemple, des entreprises comme Meta ou Microsoft modifient leurs conditions d’utilisation pour intégrer les données des utilisateurs, sauf opposition explicite.  

Les modèles d’IA génératives (texte, images, et vidéos) sont entrainés sur les données disponibles sur internet. Lors du développement des modèles actuels, quasiment aucun contenu disponible n’était généré par IA. Cependant, avec leur capacité à produire du contenu en masse, internet devient de plus en plus saturé par du contenu produit par IA, de qualité intrinsèquement moindre. Ce phénomène risque de provoquer une dégradation continue de la qualité des données disponibles, créant un cercle vicieux pour les futurs modèles. Pour contrer ce problème, certains fournisseurs d’IA cherchent activement à accéder à des contenus plus susceptibles d’avoir été créés par des humains. Cela passe parfois par des pratiques contestables, comme l’utilisation de « dark patterns » ou de « design adversarial » visant à collecter des données de manière détournée. Par exemple, Microsoft, via la suite Office365, se permet par défaut de récupérer tout contenu produit via leurs logiciels, et d’en acquérir les droits d’auteurs (pour éviter la débâcle sur les droits d’auteurs des précédents entrainements.)  

Pour paramétrer vos critères de confidentialité dans la suite Office365 Microsoft: 

Allez dans : Options >> Centre de gestion de la confidentialité >> Paramètres du centre de gestion de la confidentialité >> Options de confidentialité >> Paramètres de confidentialité >> Vérifiez que la case « Activer les fonctionnalités connectées optionnelles » est cochée par défaut

Pour plus d’informations, vous pouvez consulter les pages suivantes :