Impact de l’IA : des questions légitimes
Pollution, dépendance à l’IA, impact sur les emplois… Si la majorité des entreprises s’engagent aujourd’hui dans l’usage de l’IA, elles se posent aussi ces questions tout à fait légitimes.
D’ailleurs, lorsqu’on demande aux managers leurs principales craintes sur l’IA, les questions liées à l’éthique et la perte d’autonomie arrivent en deuxième position, juste derrière la sécurité.

Face à ces craintes, certaines entreprises (de plus en plus rares) décident de s’en couper totalement, au risque de laisser les équipes dans le désarroi. D’autres font l’inverse, en éludant les enjeux environnementaux et éthiques, avec à la clé des risques réglementaires et de sécurité.
Bien sûr, aucune de ces deux approches n’est viable à long terme. Alors, qu’en est-il vraiment ? Faisons le point sur les 5 idées reçues les plus fréquentes sur l’impact de l’IA et son usage responsable.
Idée reçue n°1 : « L’IA pollue bien plus que le reste »
❌ Dit comme ça, c’est faux
Une requête à une IA générative consomme effectivement plus qu’une simple recherche Google. En moyenne, interroger ChatGPT équivaut à 4g de CO2, soit 10 à 20 fois plus qu’une requête web classique (0,25g). En revanche, notre usage quotidien de la vidéo, lui, est bien plus polluant.
Par ailleurs, il faut prendre en compte les volumes et la fréquence de nos usages. Par exemple, si vous envoyez 40 mails par jour (même sans pj.), vous générez en moyenne 40g de CO2, soit l’équivalent de 10 prompts à ChatGPT.
📊 Comparatif : impact carbone de l’IA

🤔 Pourquoi utiliser l’IA génère du CO2 ?
Un prompt IA déclenche une opération de calcul intensive sur des serveurs, hébergés dans des data centers. Ces infrastructures consomment à la fois pour l’alimentation des serveurs et leur refroidissement permanent, ce qui double souvent les besoins en électricité. Or, dans de nombreuses régions, cette énergie provient encore en grande partie de sources fossiles.
Ce n’est pas l’IA qui pollue, c’est la manière dont on l’utilise : Générer du texte reste relativement sobre, tandis que la génération d’images ou de vidéos explose les compteurs. Par exemple, une image IA génère 7 à 10 fois plus de CO2 qu’un texte, mais encore bien moins qu’un épisode de série en streaming.
Idée reçue n°2 : « L’IA va détruire les emplois »
❌ Évolution majeure oui, destruction non
Selon McKinsey, d’ici 2030, environ 15% des actifs dans le monde devront changer de métier ou se former à de nouvelles compétences à cause de l’automatisation et de l’IA.
En France, l’Unédic estime que 8,8% des emplois sont réellement menacés de suppression, mais que 15% pourraient au contraire être revalorisés (gain de productivité, montée en compétences, nouvelles missions).
Le sujet est sensible et les mots comptent : L’IA ne supprime pas les métiers, mais elle les rend obsolètes s’ils ne s’adaptent pas. Elle automatise les tâches les plus simple, ce qui modifie les pratiques et remet en question les organisations.
L’idée n’est pas de minimiser pour rassurer, ce serait mentir. La vérité doit être dite : un poste devient inutile uniquement s’il reste figé face aux évolutions. C’est une logique ancienne, qui accompagne chaque avancée technologique, de l’invention de la roue au moteur à vapeur, jusqu’à l’informatique.
📊 Les 10 métiers qui évoluent le plus face à l’IA
| Métier | Impact de l’IA |
|---|---|
| 1 – Rédacteurs web / marketing | L’IA maîtrise la grammaire, la rédaction et le SEO |
| 2 – Assistants juridiques | Analyse documentaire et rédaction d’actes standardisés |
| 3 – Graphistes | Génération d’images par IA et retouche photo |
| 4 – Télévendeurs | Scripts de vente automatisés par des chatbots vocaux |
| 5 – Traducteurs / correcteurs | Traduction et correction automatique des contenus |
| 6 – Assistants RH / administratifs | Saisie, classement, traitements automatisables |
| 7 – Contrôleurs de gestion | Reporting et analyses simples automatisables |
| 8 – Développeurs web | Code généré par IA, humain en validation et maintenance |
| 9 – Administrateurs de bases de données | Surveillance et maintenance automatisées par IA |
| 10 – Agents de support client | Réponses par chatbot sur les demandes simples |
🤔 Pourquoi l’IA transforme plus qu’elle ne supprime ?
Contrairement à ce qu’on entend parfois, l’IA ne fait pas tout toute seule. Elle a besoin d’être briefée, entrainée, guidée. L’usage efficace de l’IA en entreprise requiert toujours validation et adaptation par les humains. L’essor des IA génère aussi de nouveaux métiers (experts IA, développeurs no-code, maintenance d’automatisation, etc.).
L’autre risque, c’est d’exclure l’IA par principe. Car sans accompagnement ni montée en compétences, les salariés les moins qualifiés peuvent être rapidement mis à l’écart, et l’entreprise va perdre un temps impossible à rattraper face à la concurrence qui, elle, exploite l’IA.
L’IA oblige à redéfinir les rôles car elle redonne du temps : Le véritable danger, c’est celui de l’exclusion. Sans accompagnement sur l’IA, sans compétences en prompts, les salariés peu qualifiés risquent d’être mis à l’écart rapidement. Dans cette optique, le rôle des managers est essentiel dans l’organisation du travail et la réaffectation des gains de productivité sur des missions à valeur ajoutée.
Idée reçue n°3 : « L’IA rend moins intelligent »
❌ Pas si vous restez aux commandes
Est-ce que ChatGPT nous rend paresseux intellectuellement ? Ça dépend de vous. Chacun a son avis, alors pour objectiver le débat, une récente (2025) étude du MIT a suivi plus de 50 étudiants pendant plusieurs mois pour observer l’impact réel de l’IA sur leurs capacités mentales.
📊 Impact de l’IA sur l’intelligence : chiffres-clés
Les résultats de l’étude sont clairs : le vrai danger, c’est la délégation totale. Quand on laisse l’IA tout faire, notre cerveau se met en veille : moins de mémoire, moins de réflexion, moins d’analyse critique. À tel point que certains participants n’étaient même plus capables de se souvenir des contenus que l’IA avait rédigés pour eux.

Mais le point clé de l’étude est le suivant : quand on commence par réfléchir seul, puis qu’on utilise l’IA en complément pour se challenger en mode co-création, l’activité cérébrale augmente !
L’IA peut donc renforcer l’analyse à condition de ne pas se déconnecter du processus. Le problème, ce n’est pas l’outil, c’est donc de s’y abandonner totalement.
Le rôle de l’humain est la clé : Les LLM comme ChatGPT ou Gemini sont conçus pour délivrer toute leur puissance en se basant sur l’exigence de leur utilisateur. Ce n’est pas l’IA qui affaiblit l’intelligence, c’est plutôt l’usage systématique et sans profondeur qu’on peut être tenté d’en faire. Si vous l’utilisez pour accélérer un raisonnement déjà structuré, elle devient un levier d’analyse, de créativité et de productivité. Mais pour ça, encore faut-il apprendre à la challenger.
Idée reçue n°4 : « L’IA est biaisée et discriminante »
✅ C’est vrai, mais seulement si on n’y prête pas attention
Les IA peuvent reproduire des discriminations sans en avoir l’intention : leur apprentissage sur des données massives et historiques les amène à refléter et amplifier des stéréotypes.
Par exemple : Amazon a abandonné en 2015 un algorithme de présélection de CV après avoir constaté que celui-ci dévalorisait les candidatures féminines.
Autre illustration concrète que nous testons régulièrement en formation : lorsqu’on demande à Ideogram de générer une image représentant un public assistant à une formation sur l’IA, le résultat montre un public entièrement masculin et blanc.

Il ne faut pas y voir un complot ou une programmation malveillante des créateurs qui, pour la plupart, sont mobilisés sur le sujet. Ces dérives sont surtout liées au fonctionnement probabiliste des IA et illustrent bien la règle : garbage in, garbage out.
Un contenu biaisé en entrée donne des résultats biaisés en sortie. Les IA absorbent les données, mais aussi les représentations sociales implicites qu’elles véhiculent.
🧠 Le rôle de l’utilisateur est clé, à deux niveaux :
- ✅ Vérification systématique : il faut prendre l’habitude de croiser les réponses d’une IA avec d’autres sources fiables. Un outil de deepsearch comme Perplexity, qui cite précisément ses sources, permet un fact-checking rapide et structuré.
- ✅ Transparence : si une IA intervient dans une décision qui concerne une personne (tri de CV, évaluation, échange client), cela doit être clairement signalé. C’est une exigence de l’IA Act européen, applicable dès août 2025.
Une IA neutre n’existe pas : c’est regrettable, souvent involontaire, mais lié au fonctionnement même de l’IA. Votre rôle, en tant qu’utilisateur avisé, c’est d’appliquer systématiquement des garde-fous : vérification et transparence. À ce titre, les chartes IA deviennent incontournables en entreprise pour inciter les collaborateurs à adopter les bonnes pratiques de fact-checking et de prise de recul dans leur usage de l’IA.
Idée reçue n°5 : « On ne doit pas faire confiance à l’IA pour prendre des décisions »
✅ C’est vrai, et c’est une bonne chose !
L’idée que l’IA pourrait un jour décider à notre place est régulièrement au centre des fantasmes. Pourtant, dans les faits, ce n’est pas le sens de l’histoire.
Oui : l’IA est très efficace pour prendre des décisions simples et c’est un excellent usage qui permet de gagner du temps sans prendre de risques (classer un email, calculer un tarif, appliquer le bon format à un contenu, etc.).
En revanche, lui confier des décisions importantes sans supervision est risqué :
- ⚠️ Hallucinations : un modèle comme ChatGPT peut inventer des faits ou des références. Prendre une décision médicale, financière ou juridique sur cette base est risqué.
- ⚠️ Symptôme « Boîte noire » : on obtient un résultat sans savoir comment il est obtenu. Dans un recrutement, si l’IA refuse un candidat sans explication claire, cela va à l’encontre des principes de transparence et d’équité. En cas d’erreur, qui est responsable ?
- ⚠️ Dilution de la responsabilité : confier des décisions sensibles à une IA, c’est prendre le risque de se défausser. Comme dans le cas des voitures autonomes, on ne sait plus qui est responsable d’un accident. En entreprise, un rejet de CV biaisé pourrait déboucher sur une discrimination dont personne ne voudra assumer la responsabilité.
⚖️ La loi fixe les limites à ne pas franchir
L’AI Act européen classe les usages à haut risque (santé, justice, RH, crédit…) : les décisions sensibles doivent toujours appartenir à l’humain.
Depuis février 2025, certains usages sont d’ailleurs tout simplement interdits : scoring social, reconnaissance d’émotions au travail, exploitation de vulnérabilités. Et dès août 2025, toute IA incluse dans un processus décisionnel doit être clairement signalée à l’utilisateur.

👨 « Human in the loop »
Nous le répétons souvent chez Yes We Prompt dans nos formations IA : l’IA est un outil à utiliser comme tel. En matière de pouvoir de décision, celui d’une IA doit être parfaitement cadré :
- ✅ Validation humaine systématique : les décisions importantes doivent être vérifiées par un humain.
- ✅ Comités de relecture : pour les choix sensibles, un second avis humain est obligatoire.
- ✅ Transparence : les modèles doivent expliquer leurs critères, ou on évite leur usage dans des contextes risqués.
- ✅ Culture du questionnement : les employés doivent être formés à challenger l’IA.
L’IA peut prendre les décisions qui comptent peu et c’est déjà très bien : pour les autres, c’est vous. Les décisions à enjeux forts doivent rester humaines, tant sur le plan éthique que juridique. Une IA peut améliorer la qualité des choix, mais jamais remplacer la responsabilité humaine. L’IA l’éthique, c’est celle qui place l’humain au centre.
Une IA éthique, ce n’est pas une IA parfaite : c’est une IA dont les usages sont maîtrisés, expliqués, encadrés. Et cela passe par un point non négociable : placer les utilisateurs au centre. Leur donner les bons réflexes, les bons repères, les bonnes limites.
C’est précisément ce que nous faisons chez Yes We Prompt : aider les équipes à comprendre le fonctionnement réel de l’IA générative, à structurer leur usage, et à adopter des pratiques adaptées. Pour que l’IA reste ce qu’elle doit être : un outil puissant, utile… et responsable.