Votre IA ne sera (espérons-le) jamais dans votre tête. Alors, pour bien vous répondre, elle a besoin de faire deux choses : calculer vite (facile pour elle), et calculer juste (ça, c’est plus difficile).
En maîtrisant le prompt-engineering, vous pourrez enfin libérer toute sa puissance de calcul. Et plus les modèles IA seront puissants à l’avenir, plus vos prompts vous permettront d’en tirer parti. Bienvenue parmi ceux qui savent parler à l’IA !
Sommaire du guide
Télécharger le guide en PDF
Vos bonus exclusifs dans la version PDF
Pour commencer, comment fonctionne un LLM ?
Votre IA ne comprend pas ce que vous dites
C’est la première chose à comprendre pour savoir prompter l’IA. Un LLM (Large Language Model) comme ChatGPT, Claude ou Gemini ne possède ni conscience, ni volonté, ni compréhension de vos questions.
Son rôle est d’estimer la suite de mots la plus probable pour continuer une phrase, en s’appuyant sur des milliards d’exemples vus lors de son entraînement et ses formidables capacités de calcul en temps-réel.


Akinator, l’ancêtre du LLM
Vous avez peut-être joué avec Akinator dans les années 2010 ? Ce petit génie du web posait des questions et finissait par deviner le personnage auquel vous pensiez.
Bien sûr, il était bien moins puissant qu’un LLM, mais le principe était identique : il calculait des probabilités issues de sa base d’entraînement (et d’ailleurs, vous pouvez toujours y jouer).

Les 5 ingrédients de l’IA générative
Qu’est-ce qui fait vraiment tourner une IA générative ? Derrière l’effet magique, tout repose sur 5 ingrédients principaux. Les comprendre, c’est déjà savoir pourquoi le prompt-engineering est indispensable.
Ingrédient N°1 : Les Tokens
Un token est un petit fragment de texte. Cela peut être un mot complet, ou seulement une partie de mot (c’est l’IA qui décide). Un LLM ne lit pas des phrases, il doit toujours les convertir en unités de calculs, que sont les tokens.


Ingrédient N°2 : Les données d’entraînement
Avant et pendant son service actif, un LLM doit être éduqué. Pour cela, il est nourri de milliards de données (livres, articles, pages web).
Plus ce corpus d’entraînement est vaste et diversifié, plus l’IA est capable de donner des réponses pertinentes. Mais si une information n’a pas été vue lors de son apprentissage, elle comblera les trous par des approximations (nous y reviendrons).
Ingrédient N°3 : La fenêtre de contexte
Une IA est un peu comme un poisson rouge, sa mémoire est limitée. La fenêtre de contexte définit combien de tokens elle peut garder en mémoire dans un échange. Heureusement, à chaque nouveau modèle, cette fenêtre s’élargie (par exemple 128k tokens pour GPT-5).
Tel un tableau blanc qu’on efface quand il est plein, l’IA oublie vos premières instructions quand sa mémoire est saturée.


Ingrédient N°4 : Le prompt
Le prompt, parfois appelé invite IA, est le texte que vous fournissez pour déclencher la génération. Techniquement, l’IA commence par tokeniser ce prompt, c’est-à-dire le découper en fragments de texte (tokens) qu’elle peut manipuler.
Le modèle analyse ces vecteurs de calcul et utilise son algorithme probabiliste pour prédire, étape par étape, le mot suivant de la réponse.
Autrement dit, pour une IA, le prompt n’est pas une question : c’est une équation mathématique à laquelle il faut trouver la solution.
Ingrédient N°5 : L’algorithme probabiliste
Au cœur de l’IA se trouve un réseau de neurones qui calcule des probabilités pour prédire le mot le plus probable à chaque étape : c’est l’inférence.
Cet algorithme orchestre les tokens, la mémoire et vos instructions pour produire une réponse cohérente. Autrement dit, c’est la salle des machines.
Comment rédiger un bon prompt IA ?
Comprendre votre IA pour savoir comment lui parler
Pour bien comprendre le comportement d’une IA générative, osons une métaphore : imaginez que vous recrutez un stagiaire. Très vite, vous réalisez qu’il est surdoué… mais quelque chose cloche : il semble stressé.

Votre IA : ce stagiaire surdoué mais trop stressé
Stagiaire : parce qu’il est là pour vous assister, mais il reste totalement dépendant de vos consignes.
Surdoué : car il sait presque tout, travaille à une vitesse folle et ne se fatigue jamais.
Stressé : car il a tellement peur de mal faire qu’il suit vos instructions à la lettre… et préférera vous mentir plutôt que d’avouer s’il ne sait pas.
Les 3C : la règle d’or pour tous vos prompts
Un bon prompt doit donc ressembler à un brief clair donné à un collaborateur : il définit le rôle, le but, les règles et le résultat attendu. Plus il est structuré et complet, plus le calcul de probabilités réalisé par l’IA sera précis, personnalisé et qualitatif.
- Premier C – La clarté : Dites à votre IA un peu stressée exactement ce qu’elle doit faire, sans laisser la moindre place au doute ou à l’interprétation.
- Deuxième C – Le contexte : Expliquez-lui pourquoi elle doit le faire et pour atteindre quel objectif. Bref, donnez du sens à sa mission !
- Troisième C – La contrainte : Fixez-lui un délai à respecter, un format ou un ton… Bref, donnez-lui les règles du jeu dans votre entreprise.
Anatomie du prompt IA idéal
Concrètement, pour appliquer la règle des 3C dans vos prompts, vous pouvez adopter la structure de prompt suivante : la méthode RCORCF.
Ce format est universel, il fonctionne avec toutes les IA, et il est recommandé par les principaux éditeurs comme OpenAI, Anthropic ou Google.

💡 Rédiger un bon prompt, c’est plus long ?
Pas forcément, car plus loin dans ce guide vous découvrirez une technique simple pour créer des super-prompts rapidement. Et surtout, rédiger un prompt IA avec la méthode RCORCF vous permet de gagner beaucoup de temps :
- C’est un investissement : Un prompt bien construit vous évitera d’en rédiger plusieurs pour corriger le résultat.
- C’est plus fiable : Une IA, lorsqu’elle ne sait pas, préfère inventer. Plus votre prompt est qualitatif, moins vous prenez le risque d’erreurs.
Les réglages IA secrets à connaître pour vos prompts
En plus du prompt, les modèles d’IA disposent de paramètres cachés qui influencent directement leur comportement.
Paramètre IA N°1 : Régler la créativité IA avec la température
Le plus interessant est sans doutes le paramètre de température qui contrôle le degré de créativité de votre IA.
À température basse, le modèle privilégie la réponse la plus probable, avec rigueur. À température haute, votre IA sera plus créative… mais moins rigoureuse.
Le réglage de la température vaut aussi bien pour la génération de contenus textes que pour les images et vidéos par IA.



💡 Comment régler la température de l’IA ?
Pas de bouton à cliquer : Précisez la température souhaitée entre 0 et 1 via votre prompt, dans le volet contraintes (Ex : réponds en température 0.2).
- Privilégiez une température basse autour de 0.4 pour les tâches rigoureuses (administratif, juridique, finance)
- Optez pour une température élevée comme 0.8 pour les demandes créatives (marketing, réseaux sociaux, brainstorming, etc.).
Paramètre IA N°2 : Top-P, Top-K et Max tokens… pour les experts
Au-delà de la température, d’autres paramètres permettent d’affiner la façon dont l’IA répond. Ces réglages agissent surtout sur la diversité et la longueur des réponses.
Ici non plus, pas de molette de réglage IA : il faut stipuler la valeur souhaitée vous-même, directement dans votre prompt.
💡 Top-P : vous préférez la certitude ou la diversité ?
Le Top-P permet de limiter l’IA aux mots les plus probables, jusqu’à un certain seuil de confiance compris entre 0 et 1.
- Avec un Top-P bas (Inf. à 0.3) : L’IA ne choisit que dans les options les plus sûres pour générer des réponses fiables mais peu originales.
- Avec un Top-P haut (Sup. à 0.8) : L’IA s’autorise plus d’options et génère plus d’idées, mais aussi plus de risques d’erreurs.
💡 Top-K : pour fixer le champ des possibles
Le Top-k (entre 0 et 100) fixe le nombre maximum d’options parmi lesquelles l’IA peut piocher avant de vous proposer sa réponse.
Imaginons une élection présidentielle : avec un petit K, seuls 10 candidats sont autorisés à se présenter. Avec un grand K, 100 candidats entrent en lice. Résultat : plus de diversité, mais aussi plus de confusion pour les électeurs.
💡 Max tokens : la longueur autorisée
Vous l’utilisez sans doutes déja en demandant un nombre de mots maximum. Le Max tokens détermine la longueur maximale de la réponse de l’IA, mesurée en tokens.
Bon à savoir : Plus la génération est longue (> 1 000 tokens), plus les calculs sont complexes et plus le risque d’hallucinations IA augmente.
Les 10 meilleures techniques de prompt engineering
🎁 Bonus : +400 prompts IA optimisés par métiers
En plus de ces 10 techniques de prompt incontournables. Accédez à la bibliothèque N°1 de prompts dédiée aux pros : choisissez parmi plus de 10 métiers et utilisez nos prompts optimisés par nos experts IA selon ces meilleures techniques.
Few-shot prompt : montrer l’exemple avant de demander
Le few-shot prompting est une technique de prompt-engineering qui consiste à fournir un ou plusieurs exemples avec votre prompt.
L’IA s’appuie sur ces exemples pour comprendre le style, le ton, le format ou le niveau de détail attendu. En pratique, vous montrez d’abord, puis vous demandez.
Cette méthode est idéale pour obtenir des réponses au plus proche de vos attentes, surtout lorsque vous avez besoin de répétabilité (ex : plusieurs résumés, séries d’emails, fiches produits).
⚙️ Comment faire ce prompt ?
Écrivez votre prompt IA mais ne le lancez pas tout de suite. Avant, ajoutez 1 ou 2 exemples (URLs de sites web, images ou fichiers chargés avec l’option + Ajouter des photos/fichiers.
💬 Exemple de few-shot prompt
Tu es un rédacteur spécialisé en communication interne d’entreprise. Je souhaite résumer un article destiné à des salariés non spécialistes, afin de rendre l’information claire et motivante.
Ton rôle est de produire un résumé engageant et compréhensible, adapté à une diffusion interne. Le résumé doit suivre la logique et le style des exemples fournis ci-dessous.
Longueur comprise entre 120 et 150 mots, ton positif et professionnel, vocabulaire simple. Texte en un seul bloc, sans sous-titres.
### Exemple 1 : Voir pj. 1
### Exemple 2 : Voir pj. 2
Chain-of-Thought : demander à l’IA de penser avant de répondre
Le Chain of Thought prompting (ou chaîne de raisonnement) est une technique de prompt-engineering qui consiste à demander à l’IA de détailler le raisonnement qu’elle utilise pour répondre.
Cette technique de prompt IA avancé permet d’obtenir des réponses beaucoup plus logiques, toujours mieux argumentées et souvent plus fiables, en particulier sur des tâches complexes (benchmark, estimation financière, rédaction de rapport, etc.)
⚙️ Comment faire ce prompt ?
Écrivez votre prompt IA avec la méthode RCORCF et indiquez, dans les contraintes, une consigne de type : Procède étape par étape en expliquant ton raisonnement.
💬 Exemple de Chain-of-Thought prompt
Tu es un analyste financier expérimenté. Mon entreprise subit une hausse du prix des matières premières et souhaite anticiper l’impact sur la marge au 1er trimestre 2025.
Ta mission est d’estimer l’effet attendu sur la marge, afin d’éclairer une décision stratégique.
L’analyse doit être argumentée et reposer sur un raisonnement étape par étape que tu vas détailler dans ta réponse.
Présente la réponse finale sous la forme d’un paragraphe de synthèse clair et structuré de 800 mots minimum et 900 maximum, sans anglicisme.
Tree-of-Thought : quand votre IA envisage tous les scénarios
Le Tree-of-Thought (ou ToT) est une évolution du Chain-of-Thought. Ici, au lieu de suivre un raisonnement linéaire étape par étape, l’IA explore plusieurs pistes de réflexion (comme les branches d’un arbre) puis sélectionne la plus pertinente.
Cette technique exploite les capacités des reasoning models comme GPT-5 Thinking ou Gemini 2.5 pour imiter la manière dont un humain envisage différents scénarios.
⚙️ Comment faire ce prompt ?
Demandez à l’IA de générer plusieurs pistes sur un même sujet, de les analyser , puis d’expliquer pourquoi elle retient la meilleure option, selon la méthode Tree-of-Thought.
💬 Exemple de Tree-of-Thought prompt
Tu es un consultant en stratégie d’entreprise spécialisé dans le e-commerce. Mon activité e-commerce cherche à se développer sur les trois prochaines années et je veux identifier les scénarios de croissance possibles selon la méthode Tree-of-Thought.
Pour chaque piste, détaille les avantages, les risques et les conditions de réussite, afin que je puisse mesurer la pertinence de chaque option.
Compare ensuite les scénarios et recommande celui qui te paraît le plus prometteur, en justifiant ton choix et en proposant un plan d’action concret.
Présente ta réponse sous forme structurée : une section par scénario, puis une synthèse finale avec ta recommandation.
Chain-of-Prompts : découper vos prompts IA pour gagner en précision
Le Chain-of-Prompts consiste à découper une tâche complexe en plusieurs prompts successifs. Chaque réponse intermédiaire de l’IA sert alors de base au prompt suivant, jusqu’à obtenir un résultat final complet.
Cette technique de prompt-engineering permet de garder le contrôle sur chaque étape, d’éviter les dérives, de diminuer les risques d’hallucination IA et d’obtenir un livrable final bien plus qualitatif sur des tâches complexes comme par exemple rédiger un article SEO avec l’IA.
⚙️ Comment faire ce prompt ?
Décomposez votre objectif en sous-étapes, puis écrivez une série de prompts courts et clairs. Chaque étape doit produire un livrable intermédiaire qui sera enrichi dans le prompt suivant.
💬 Exemple de Chain-of-prompt
Prompt 1 : Tu es un consultant en expérience client. Je veux améliorer le parcours de mes clients après-vente dans une PME de services. Ta mission est d’identifier 5 grands axes d’amélioration possibles. Fournis la liste sous forme de puces synthétiques.
Prompt 2 : Parmi les 5 axes listés précédemment, concentre-toi sur le 2ᵉ. Développe 3 actions concrètes à mettre en place, avec avantages et inconvénients pour chacune.
Prompt 3 : À partir des 3 actions détaillées, construis une feuille de route sur 12 mois. Ta feuille de route doit inclure les étapes chronologiques, les responsables, les coûts estimés et les indicateurs de suivi.
Self-consistency : quand votre IA fait sa propre auto-critique
Le Self-consistency prompting est une technique de prompt-engineering qui exploite la capacité de l’IA à s’auto-améliorer. Au lieu de générer une seule réponse et de s’arrêter là, vous lui demandez d’évaluer la qualité de son travail, puis de l’améliorer.
Cette méthode permet d’obtenir un contenu bien plus qualitatif, par itération. C’est un excellent moyen d’affiner un texte, une image ou de comparer plusieurs options avant de choisir la meilleure.
⚙️ Comment faire ce prompt ?
Écrivez votre prompt IA avec la méthode RCORCF et générez la réponse. Ensuite, demandez à l’IA de donner une note sur 100 à sa production et de l’expliquer. Enfin, demander à l’IA d’améliorer pour atteindre 100.
💬 Exemple de Self-consistency prompt
Tu es un rédacteur web spécialisé en communication professionnelle. Je souhaite une introduction engageante pour un article de blog sur le télétravail, destinée à des managers et indépendants. Ta mission est de rédiger une première version d’introduction claire et dynamique.
Ensuite, relis ta réponse, attribue-lui une note sur 100 et explique pourquoi tu auras donné cette note. Propose 10 axes d’amélioration pour atteindre 100/100. La réponse finale doit être présentée en un seul paragraphe, fluide et accrocheur.
Roleplay prompt : créer des mises en situation réalistes avec l’IA
Le Roleplay prompting consiste à attribuer un rôle précis à l’IA (client, collaborateur, recruteur…) puis à lui demander de simuler une interaction réelle avec des règles et un objectif bien définis.
Cette technique est très puissante pour s’entraîner, tester ou anticiper des situations professionnelles. Grâce au roleplay, l’IA ne se contente plus de générer un texte : elle endosse un rôle de simulation, et peut même agir comme un véritable coach. Pour décupler le réalisme, activez le mode vocal de votre IA avec ce type de prompt.
⚙️ Comment faire ce prompt ?
Dans votre prompt, expliquez le scénario à simuler. Décrivez bien le comportement et rôle de l’IA. Précisez que vous attendez de l’IA qu’elle génère une simulation d’échange réel.
💬 Exemple de Roleplay prompt
Tu es un recruteur particulièrement difficile à convaincre pour le compte de l’entreprise qui propose l’offre d’emploi en PJ. Je suis candidat cette offre d’emploi (voici mon CV en PJ.).
Ta mission est de conduire avec moi une simulation de l’entretien de recrutement, en posant des questions sur mon parcours et mes compétences.
À la fin de l’entretien, sors de la simulation et fournis-moi un feedback, incluant mes points forts, mes points faibles et trois axes d’amélioration concrets.
L’échange doit se dérouler sous forme d’un dialogue naturel de 30 minutes, avec plusieurs questions successives avant de passer au feedback final. Je vais activer le mode vocal pour plus de réalisme.
Meta-prompt : générer des prompts IA parfaits sans aucun effort
Le Meta-prompting (aussi appelé self-generation ou prompt rewriting) est une technique qui consiste à transformer votre IA en véritable générateur de prompts.
Au lieu de passer du temps à chercher la bonne formulation, vous décrivez simplement la tâche à accomplir et demandez à l’IA de créer pour vous le prompt le plus optimisé.
C’est sans doute l’une des méthodes les plus puissantes, car elle garantit d’exploiter tout le potentiel de l’IA sans effort. En clair, c’est presque comme de la triche : vous laissez l’IA écrire pour vous la consigne parfaite… avant de l’appliquer immédiatement !
⚙️ Comment faire ce prompt ?
Expliquez simplement ce que vous souhaitez faire en quelques mots puis ajoutez : Rédige le meilleur prompt à te donner pour atteindre ce résultat, avec la règle RCORCF.
💬 Exemple de Meta-prompt
Je souhaite un résumé très concis et engageant de l’article en PJ. pour le publier sur LinkedIn. Rédige le meilleur prompt à te donner pour atteindre ce résultat, avec la règle RCORCF. Une fois ce prompt rédigé, applique-le.
Deepsearch prompt : obtenir enfin des réponses fiables avec l’IA
Le Deepsearch prompting est une technique de prompt-engineering qui exploite le maximum des capacités de recherche web approfondie des IA comme Perplexity.
L’idée est simple : ne pas se contenter de lancer une recherche, mais optimiser aussi les sources de recherche, la méthode et la structure du résultat.
c’est le meilleur moyen de transformer une simple recherche web IA en analyse stratégique exploitable et taillée sur mesure pour vos besoins.
⚙️ Comment faire ce prompt ?
Activez le mode Recherche approfondie (ou équivalent) de votre IA, puis formulez un prompt qui précise le périmètre de recherche, les sources attendues, le format, etc.
💬 Exemple de Deepsearch prompt
Tu es un expert en veille stratégique spécialisé dans l’innovation durable.
Je souhaite une revue détaillée des dernières tendances en matière de transport éco-responsable.
Réalise une recherche web approfondie, dans des articles publiés au cours des deux derniers mois et provenant de sites français d’autorité. Sélectionne et analyse au minimum 30 sources.
Identifie trois tendances clés, puis synthétise-les chacune en 500 mots, avec des exemples concrets et des références aux sources.
La réponse doit être structurée en trois sections distinctes avec titres, sous-titres et résumé final.
Visual prompt : la clé pour créer les images IA que vous voulez
Pour créer une image, l’IA fonctionne comme pour le texte : elle calcule des probabilités. Et là encore, si votre prompt n’est pas assez précis, votre IA va inventer des détails.
Le seul moyen d’obtenir une image IA fidèle à ce que vous imaginez, c’est de décrire précisément votre demande grâce à la technique du visual prompting. Plus votre description est détaillée, plus le résultat sera proche de votre vision.
⚙️ Comment faire ce prompt ?
Activez le mode Génération d’image (ou équivalent) de votre IA, puis formulez un prompt qui précise à minima les ces points :
- Le sujet principal et son environnement
- Le style graphique et les couleurs
- L’ambiance générale de l’image
- Le cadrage
- Les potentiels éléments à exclure
💡 Astuce
Combinez votre visual prompt avec une consigne de type meta-prompt pour être certain de créer le prompt visuel idéal encore plus rapidement.
💬 Exemple de Visual prompt
Crée une illustration en flat design représentant une équipe de 4 personnes (2 hommes et 2 femmes, âges variés) en réunion dans un espace de coworking moderne.
C’est le petit matin : la salle doit comporter une grande table de réunion en bois clair, des chaises design et en arrière-plan de grandes baies vitrées.
L’une des femmes se tient debout à côté d’un grand écran mural et présente un graphique coloré, tandis que les trois autres sont assis. Un des hommes boit son café dans un mug. L’autre homme écrit un sms avec son smartphone, il n’écoute pas.
L’ambiance doit être collaborative, professionnelle mais pas stéréotypé. Utilise des tons dominants bleu, blanc et gris clair. Cadrage en vue de face, style épuré en flat design, proportions harmonieuses. Pas de texte, pas de watermark, pas de fond flou ni d’éléments parasites.
Context engineering : nourrir l’IA avec vos données fait toute la différence
Comme nous l’avons vu, votre IA est entraînée sur un large corpus de données… mais, de base, pas sur les vôtres. Le context engineering consiste à enrichir sa base de connaissances.
Comment ? En apportant à votre IA vos propres données, afin qu’elle produise des résultats bien plus précis, contextualisés et personnalisés.
En matière de prompt-engineering, c’est sans aucun doute la méthode la plus puissante. Elle va se développer dans les prochains mois grâce aux connecteurs MCP.
➡️ Méthode N°1 : Dans le prompt
La méthode la plus simple : intégrez directement vos informations dans le prompt (copier-coller d’un texte ou ajout d’un document en pj.)
➡️ Méthode N°2 : L’agent IA
Ici, vous créez un assistant IA sur mesure, paramétré avec une petite partie de votre contexte. La plupart des LLM grands publics proposent ce type de fonctionnalités dans leurs versions payantes : Custom GPT (OpenAI), Gems (Gemini), Agents (Mistral), etc.
➡️ Méthode N°3 : Les connecteurs MCP
Le Model Context Protocol (MCP) permet de connecter votre IA à vos outils (Emails, calendrier, CRM, Google Drive, etc.). L’IA peut aller chercher automatiquement vos données les plus récentes.
➡️ Méthode N°4 : Le RAG
C’est la méthode la plus avancée. Avec le RAG (Retrieval-Augmented Generation) l’IA interroge une base de données vectorisée et génère une réponse sur de vos données.
Les 5 erreurs à ne pas faire dans vos prompts
❌ Erreur N°1 : Les conversations à rallonge
C’est assez classique quand on débute en prompt-engineering : on pense qu’en gardant la même conversation, l’IA va apprendre et devenir de plus en plus personnalisée.
Mais c’est l’inverse qui se produit : la fenêtre de contexte se sature, et l’IA oublie le début. Résultat : des incohérences, des contradictions et de la frustration.

💡 Comment l’éviter ?
Une règle simple : 1 conversation = 1 un objectif. Utilisez les espaces projets (disponible dans ChatGPT, Claude ou Gemini) pour regrouper vos thématiques. Mais si la discussion s’allonge, mieux vaut en recommencer une autre.
❌ Erreur N°2 : Sélectionner le mauvais modèle
C’est un piège IA fréquent : vous avez le bon prompt… mais vous utilisez la mauvaise option ou mode de votre IA. Exemple classique : lancer une simple recherche web au lieu d’activer l’option recherche approfondie, ou demander un texte quand l’option générer une image est cochée. Résultat : votre prompt IA, pourtant bien construit, donne une sortie inutile.
💡 Comment l’éviter ?
Toujours vérifier avant de lancer votre prompt :
- Le modèle choisi (Thinking, Reasoning, Instant, etc.)
- Si la bonne fonctionnalité a été activée (deepsearch, agent, image, etc.)
❌ Erreur N°3 : Croire votre IA sur parole
Hélas, même un prompt bien écrit n’empêche pas l’IA de produire des hallucinations. Le problème, c’est que l’IA peut inventer des faits ou des chiffres, mais elle les présente toujours avec assurance. Croire ses réponses sans les vérifier, c’est risquer de baser une décision sur une erreur.
💡 Comment l’éviter ?
Formulez vos prompts en exigeant toujours que votre IA vous indique l’URL de ses sources. Ensuite, utiliser une IA de deepsearch comme Perplexity pour vérifier la véracité des informations.
❌ Erreur N°4 : Ne pas alimenter l’IA avec votre contexte
Vous posez une question et espérez une réponse adaptée à votre entreprise ? Sauf que l’IA ne connaît pas vos documents, vos chiffres ou vos règles internes.
Elle reste donc une IA généraliste, limitée à des réponses… généralistes. Plus vous l’alimentez avec votre propre contexte, plus ses résultats deviennent précis, utiles et proches de vos besoins.
💡 Comment faire ?
Pratiquez le context engineering : insérez vos documents, utilisez un agent IA personnalisé, connectez vos outils via MCP… Bref, nourrissez votre IA avec vos données, mais en toute sécurité (voir erreur suivante).
❌ Erreur N°5 : Oublier de désactiver l’entraînement sur vos données
Quand vous utilisez une IA, vos échanges peuvent servir à améliorer le corpus d’entraînement du modèle. Concrètement, cela veut dire que vos prompts, vos fichiers et vos données peuvent être stockés et analysés par l’éditeur de l’IA.
Une fois envoyées à l’IA, ces données ne sont plus sous votre contrôle. Vous ne savez pas si elles seront utilisées pour entraîner le modèle, ni comment elles pourraient ressortir plus tard.
💡 Comment sécuriser mes données IA ?
En matière de sécurité IA, les leviers sont nombreux. Mais les 2 bonnes pratiques simples et rapides à mettre en place sont :
- Désactivez toujours l’option d’entraînement sur vos données : dans les paramètres de votre IA, cette option est souvent activée par défaut, à vous de la désactiver manuellement.
- Utilisez les versions payantes : les offres professionnelles (ChatGPT Business, Claude for Work, etc.) garantissent que vos données ne sont pas utilisées pour l’entraînement et qu’elles sont chiffrées.
Exemple pour désactiver l’option sur ChatGPT


Connaître les limites de l’IA pour bien la prompter
Limite N°1 : Les hallucinations IA
Une hallucination IA se produit lorsque le modèle invente une information qui n’existe pas réellement. C’est particulièrement dangereux, car l’IA présente souvent cette réponse avec une grande assurance, laissant croire à sa véracité.
👉 Un exemple typique d’hallucination IA
- Vous demandez à l’IA : Liste et explique 10 chiffres-clés issus d’une étude sur le télétravail publiée en 2025, mais l’étude n’en contient que 8.
- Pour respecter à la lettre votre demande de 10 chiffres : L’IA risque alors d’inventer les 2 manquants. Résultat : vous obtenez une réponse qui semble complète et crédible… mais qui mélange vrai et faux.
Pourquoi l’IA hallucine ?
C’est l’une des limites majeures à connaître quand on travaille avec une IA générative : les LLM comme ChatGPT, Claude ou Gemini ne sont pas conçus pour dire la vérité, mais pour produire la suite de mots la plus probable.
Si l’information demandée n’existe pas dans son corpus d’entraînement, l’IA sélectionne malgré tout la probabilité la plus élevée… même si la réponse est fausse.
💡 Comment réduire les hallucinations IA avec vos prompts
- Sources : Dans vos prompts, demandez explicitement des citations ou références vérifiables. Exigez de votre IA qu’elle indique les URLs via lesquelles elle a trouvé ses informations.
- Vérification : Contrôlez la validité des liens, la qualité des sources et la véracité des informations (chiffres, études, rapports, citations, etc.).
- Deepsearch : Certains outils IA sont reconnus pour leur fiabilité. Perplexity, par exemple, répond toujours en réalisant une recherche en ligne approfondie et en indiquant ses sources.
Limite N°2 : Les biais IA
Un biais IA survient lorsque votre IA génère une réponse influencée par des préjugés ou des déséquilibres présents dans ses données d’entraînement.
Comme les LLM apprennent sur d’immenses volumes de textes, ils reproduisent aussi les travers de ces données : stéréotypes culturels et politiques, biais de genre, visions dominantes, etc.
Exemple : Demandons à Deepseek (IA Chinoise) et Claude (IA Américaine), si Taïwan est un état indépendant. Les réponses soulignent bien les biais entre les deux conceptions de la situation politique sur cette question.

💡 Comment réduire les biais IA avec vos prompts
- Modèle : Chaque LLM reflète ses données d’entraînement. Il faut donc en tenir compte avant d’en choisir un. Une IA chinoise n’aura pas les mêmes biais qu’une IA française ou américaine.
- Diversité : Formulez vos prompts de manière à encourager la diversité. Par exemple : «Propose plusieurs points de vue en tenant compte de différentes cultures».
- Contexte : Pratiquez le context-engineering : en ajoutant vos propres documents et sources, vous limitez l’influence du corpus général et obtenez des réponses plus adaptées à votre contexte.
Limite N°3 : La prompt injection
Imaginez un hacker qui, au lieu de casser un pare-feu, joue simplement avec des mots pour manipuler votre IA.
C’est ça, la prompt injection : dissimuler une instruction malveillante dans un prompt, pour faire sortir l’IA de son cadre initial. Découvrez notre dossier dédié à la lutte contre la prompt-injection pour en savoir plus.
Nos ressources et outils pour bien prompter
Savoir prompter l’IA ne s’improvise pas : comme toute compétence, cela s’entretient avec les bons outils et les bonnes ressources. Voici notre sélection des outils et supports incontournables pour améliorer votre pratique du prompt-engineering au quotidien.
✅ Mégaprompt Premium
La 1ère plateforme française de prompts et ressources IA pour les pros. Accédez à +400 prompts et ressources IA (tutoriels, guides, prompts par métiers, etc.).
✅ Le Blog Yes We Prompt
Le repaire de l’IA pour les pros. Chaque semaine, de nouvelles astuces, bonnes pratiques, et conseils pour booster votre pratique de l’IA en entreprise.
✅ Les formations au prompt-engineering
ChatGPT, prompt-engineering, automatisation, agents IA… boostez vos compétences IA avec nos formations IA et coachings. Nos sessions sont animées par nos experts IA directement dans votre entreprise, en présentiel ou en visio.