Il est de plus en plus difficile de renoncer à la tentation de l’IA générative dans notre travail. Bien qu’elle puisse s’avérer parfois une bonne assistante, elle n’est pas sans conséquence d’un point de vue environnemental, éthique et en matière de sécurité.
Quel est l’impact numérique de l’IA générative ?
Au regard de l’évolution rapide de l’IA, il est encore difficile d’obtenir des chiffres précis. Néanmoins, les rapports environnementaux des GAFAM de 2023 révèlent clairement l’ampleur de son impact sur l’environnement : Microsoft a vu ses émissions de carbone augmenter de 23 % depuis 2020, tandis que Google a enregistré une hausse de 54 % depuis 2019. Ces augmentations sont en grande partie dues aux investissements massifs dans des centres de données dédiés à l’IA, qui consomment une quantité colossale d’énergie et de ressources. Bien que ces entreprises aient pour objectif d’atteindre la neutralité carbone d’ici 2030, l’IA générative compromet indéniablement leurs efforts.
L’entraînement des modèles nécessite en effet du matériel très performant (sa fabrication a donc un impact environnemental conséquent) et beaucoup d’énergie. En outre, nos prompts consomment de l’énergie, mais aussi de l’eau pour refroidir les data centers utilisés.
Plus un modèle est généraliste, comme ceux des IA génératives les plus populaires, plus il contient de paramètres et de calculs complexes, ce qui nécessite davantage de ressources pour chaque interaction, même pour des simples prompts.
Par ailleurs, bien que les IA génératives de texte soient de plus en plus performantes, elles ne sont pas conçues pour fournir des réponses « exactes », mais plausibles. Elles peuvent parfois « halluciner », c’est-à-dire donner des réponses erronées ou complètement hors sujet.
Enfin, les données saisies dans vos prompts peuvent présenter un réel risque de fuite. Il est essentiel d’éviter d’y inclure des informations sensibles ou confidentielles, qu’elles vous concernent ou votre organisation. Par exemple, évitez de partager des informations confidentielles en demandant de l’aide pour la rédaction d’un contrat, de codes sources logiciels pour du débogage, ni de données contractuelles, commerciales, des plans stratégiques, des informations sur des clients ou des données personnelles sur les salariés…
Quelles alternatives à l’IA générative ?
L’IA générative semble avoir réponse à tout, mais elle produit souvent des réponses approximatives, de qualité discutable, tout en ayant un coût environnemental et énergétique très élevé. C’est aussi un risque pour la sécurité des données (personnelles et d’entreprises). Il vaut mieux lui préférer des outils spécifiques, bien plus fiables :
- Lorsqu’ils peuvent offrir le même service, préférez donc les moteurs de recherches à l’IA générative. Il vaut mieux effectuer une recherche internet ou utiliser Wikipédia plutôt que d’interroger ChatGPT ou toutes autres IA génératives. Par exemple, pour des points factuels, comme connaître la capitale du Cambodge, mieux vaut consulter directement une source fiable comme Wikipédia plutôt que d’interroger l’IA. Et si cela reste incontournable, formuler la question de façon directe et éviter les échanges superflus. D’autres alternatives simples existent pour se passer de l’IA : dictionnaires ou encyclopédies en ligne, correcteurs orthographiques intégrés aux logiciels de traitement de texte… autant d’outils efficaces pour gagner du temps et limiter l’usage de l’intelligence artificielle lorsque ce n’est pas nécessaire.
- Eviter autant que possible le recours à l’IA générative pour générer des vidéos. Oui c’est amusant… mais son coût environnemental est salé : générer une vidéo, avec l’IA consomme bien plus d’énergie que de créer du texte, et qu’en plus, il y a souvent plus de déchets dans le processus… Dans la mesure du possible, utiliser des vidéos ou des images déjà existantes provenant de banques d’images libres de droit.
x 2
Selon l’Agence internationale de l’énergie (AIE), la consommation électrique mondiale des data centers devrait doubler d’ici 2030. Près de 70 % de cette hausse serait imputable au développement de l’intelligence artificielle.
BON A SAVOIR
Les IA génératives nécessitent des quantités gigantesques de données pour leur entraînement. Or, il réside une grande opacité dans les données utilisées. Cela soulève deux grandes questions :
- Droits d’auteur : Les bases de données utilisées pour entraîner les modèles incluent parfois des œuvres protégées par le droit d’auteur (textes, images, musiques, etc.), souvent sans le consentement des créateurs. Par exemple, une IA peut produire un contenu imitant le style d’un artiste à partir de ses œuvres, sans que celui-ci ait donné son accord.
- Confidentialité des données : Certains acteurs, comme les GAFAM, ont accès à d’importantes quantités de données personnelles et confidentielles. Il est rapporté qu’ils utilisent ces informations pour entraîner leurs modèles. Par exemple, des entreprises comme Meta ou Microsoft modifient leurs conditions d’utilisation pour intégrer les données des utilisateurs, sauf opposition explicite.
Les modèles d’IA génératives (texte, images, et vidéos) sont entrainés sur les données disponibles sur internet. Lors du développement des modèles actuels, quasiment aucun contenu disponible n’était généré par IA. Cependant, avec leur capacité à produire du contenu en masse, internet devient de plus en plus saturé par du contenu produit par IA. Ce phénomène risque de provoquer une homogénéisation et une uniformisation des contenus. Pour contrer ce problème, certains fournisseurs d’IA cherchent activement à accéder à des contenus plus susceptibles d’avoir été créés par des humains. Cela passe parfois par des pratiques contestables, comme l’utilisation de « dark patterns » ou de « design adversarial » visant à collecter des données de manière détournée.