Prompt Engineering Claude : techniques avancées (2026)
Le prompt engineering pour Claude ne se résume pas à formuler une question claire. Claude dispose de mécanismes spécifiques - balises XML, format contract-style, adaptive thinking - qui le distinguent de ChatGPT et Gemini. La documentation Anthropic recommande explicitement les balises XML pour structurer les prompts complexes, car elles permettent un parsing non ambigu du contenu. Combiner ces balises avec des techniques de raisonnement comme le chain-of-thought réduit significativement les hallucinations. J’ai testé ces techniques sur une trentaine de projets clients, et ce guide couvre celles qui font une vraie différence en production.
Si vous débutez avec Claude, consultez d’abord notre guide du débutant Claude puis notre bibliothèque de prompts Claude pour des modèles prêts à l’emploi. L’article que vous lisez s’adresse aux utilisateurs qui veulent comprendre pourquoi certaines structures fonctionnent mieux que d’autres et comment les combiner.
Les 6 techniques de prompt engineering pour Claude, combinables dans un prompt avancé complet.
Le XML structuring : la technique de base
Claude a été entraîné pour reconnaître et interpréter les balises XML nativement. Contrairement à d’autres modèles qui traitent le XML comme du texte ordinaire, Claude utilise la structure des balises pour séparer les différentes composantes d’un prompt.
Pourquoi le XML fonctionne mieux pour Claude
La documentation officielle d’Anthropic recommande explicitement les balises XML pour structurer les prompts complexes. Les balises XML permettent un parsing non ambigu du contenu, particulièrement lorsque le prompt mélange instructions, contexte, exemples et données variables.
Les balises les plus utilisées sont <instructions>, <context>, <input>, <example>, et <output>. Vous pouvez les imbriquer pour créer des hiérarchies logiques.
Structure XML recommandée
Voici la structure de base recommandée par Anthropic :
<instructions>
Analysez le document fourni et extrayez les points clés.
Répondez en français, en 5 bullet points maximum.
</instructions>
<context>
Vous êtes un analyste spécialisé en intelligence artificielle.
Le document concerne les tendances IA pour le second semestre 2026.
</context>
<input>
{{DOCUMENT_CONTENT}}
</input>
<output_format>
- Point clé 1 : [résumé en une phrase]
- Point clé 2 : [résumé en une phrase]
...
</output_format>
Balises imbriquées pour les documents multiples
Lorsque vous travaillez avec plusieurs documents (rapports, articles, données), utilisez une structure imbriquée avec des index :
<documents>
<document index="1">
<source>rapport-annuel-2025.pdf</source>
<document_content>
{{RAPPORT_ANNUEL}}
</document_content>
</document>
<document index="2">
<source>analyse-concurrence-q2.xlsx</source>
<document_content>
{{ANALYSE_CONCURRENCE}}
</document_content>
</document>
</documents>
Analysez le rapport annuel et l'analyse concurrentielle.
Identifiez les avantages stratégiques et recommandez les axes prioritaires pour le Q3.
Cette structuration tire parti de la fenêtre de contexte de 1 million de tokens de Claude Opus 4.6 et Sonnet 4.6. Selon la documentation Anthropic, placer les documents longs en haut du prompt et la requête en bas améliore la qualité des réponses jusqu’à 30 % dans les tests, notamment avec des entrées multi-documents complexes.
Le contract-style prompting : transformer le system prompt en contrat
Le contract-style prompting est une approche où le system prompt est rédigé comme un document contractuel explicite. Claude, entraîné pour suivre des instructions précises, se conforme mieux à un « contrat » structuré qu’à des consignes dispersées dans un texte libre.

Les quatre composantes du contrat
Un system prompt contract-style se décompose en quatre blocs :
| Composante | Rôle | Exemple |
|---|---|---|
| Role | Définit l’identité et l’expertise de Claude | « Vous êtes un expert en droit du travail français » |
| Goal / Success criteria | Décrit le résultat attendu et les critères de réussite | « Fournir une analyse juridique actionnable en 500 mots maximum » |
| Constraints | Pose les limites et interdictions | « Ne jamais inventer de jurisprudence, citer uniquement des textes vérifiables » |
| Uncertainty handling | Indique comment gérer l’incertitude | « Si vous n’êtes pas sûr, dites-le explicitement et proposez des pistes de recherche » |
Exemple complet de system prompt contract-style
Role: Vous êtes un consultant senior en stratégie digitale,
spécialisé dans les PME françaises.
Goal: Produire des recommandations concrètes et chiffrées
que le dirigeant peut mettre en œuvre dans les 30 jours.
Constraints:
- Maximum 3 recommandations par réponse
- Chaque recommandation inclut un budget estimatif
- Pas de jargon technique sans explication
- Sources citées lorsque des données sont mentionnées
Uncertainty: Si une estimation est incertaine, indiquez
une fourchette et le niveau de confiance (faible/moyen/élevé).
Ce format fonctionne bien avec Claude Opus 4.6 et Sonnet 4.6, qui sont plus réactifs au system prompt que les modèles précédents. Anthropic note que si vos anciens prompts utilisaient un langage agressif (« CRITIQUE : vous DEVEZ utiliser cet outil »), les modèles 4.6 n’en ont plus besoin. Un ton normal suffit.
Le user prompt en quatre blocs
Le message utilisateur suit la même logique contractuelle avec quatre sections :
INSTRUCTIONS: Analysez la stratégie d'acquisition client de l'entreprise.
CONTEXT: L'entreprise est une SaaS B2B avec 500 clients,
un CAC de 450€ et un churn mensuel de 3,2%.
TASK: Identifiez les 3 principaux leviers de réduction du churn
et estimez l'impact financier de chacun.
OUTPUT FORMAT: Tableau comparatif avec colonnes :
Levier | Action concrète | Impact estimé | Délai de mise en œuvre
Le chain-of-thought : forcer le raisonnement étape par étape
Le chain-of-thought (CoT) consiste à demander à Claude de raisonner explicitement avant de répondre. Cette technique réduit significativement les hallucinations selon la documentation Anthropic, car elle oblige le modèle à vérifier chaque étape logique avant de produire la réponse finale.

CoT manuel avec balises XML
Lorsque le thinking n’est pas activé via l’API, vous pouvez forcer un raisonnement explicite en utilisant des balises structurées :
<instructions>
Avant de répondre, raisonnez étape par étape dans des balises <thinking>.
Placez votre réponse finale dans des balises <answer>.
</instructions>
<task>
Un développeur freelance facture 600€/jour. Il travaille 218 jours par an.
Il a 12 000€ de charges fixes annuelles et 23% de cotisations sociales.
Quel est son revenu net mensuel ?
</task>
Claude produira alors un bloc <thinking> détaillant chaque calcul intermédiaire, puis un bloc <answer> avec le résultat vérifié. Cette séparation vous permet d’inspecter le raisonnement sans polluer la réponse utilisable.
CoT avec few-shot examples
Vous pouvez combiner le chain-of-thought avec des exemples pour montrer à Claude le schéma de raisonnement attendu :
<examples>
<example>
<input>Un site e-commerce a un taux de conversion de 2,3% et 50 000 visiteurs/mois. Combien de ventes ?</input>
<thinking>
Visiteurs mensuels : 50 000
Taux de conversion : 2,3% = 0,023
Ventes = 50 000 × 0,023 = 1 150 ventes par mois
</thinking>
<answer>Le site génère environ 1 150 ventes par mois.</answer>
</example>
</examples>
Anthropic confirme que les exemples multishot fonctionnent avec le thinking : Claude généralise le style de raisonnement montré dans les exemples à ses propres blocs de réflexion.
Auto-vérification intégrée
Une technique complémentaire consiste à demander à Claude de vérifier sa propre réponse avant de la finaliser. Ajoutez simplement une consigne en fin de prompt :
Avant de finaliser votre réponse, vérifiez-la contre ces critères :
1. Tous les calculs sont-ils corrects ?
2. Les affirmations incertaines sont-elles marquées [INCERTAIN] ?
3. Le format de sortie est-il respecté ?
Cette auto-vérification fonctionne de manière fiable pour les tâches de code, de mathématiques et d’analyse de données.
Adaptive thinking : 4 niveaux d’effort pour ajuster le raisonnement de Claude selon la complexité de la tâche.
L’adaptive thinking : le raisonnement dynamique de Claude 4.6
L’adaptive thinking est la fonctionnalité de raisonnement la plus récente de Claude, introduite avec les modèles 4.6. Elle remplace l’ancien extended thinking (budget de tokens fixe) par un système dynamique où Claude décide lui-même quand et combien raisonner.
Comment fonctionne l’adaptive thinking
Avec l’adaptive thinking activé (thinking: {type: "adaptive"}), Claude calibre sa réflexion en fonction de deux facteurs : le paramètre effort (low, medium, high, max) et la complexité de la requête. Sur une question simple, Claude répond directement. Sur un problème complexe multi-étapes, il raisonne en profondeur avant de répondre.
Dans les évaluations internes d’Anthropic, l’adaptive thinking surpasse l’extended thinking en performance. Les niveaux d’effort bas permettent de réduire les coûts de 50 à 80 % sur certaines charges de travail, et le prompt caching reste compatible avec le mode adaptatif. J’ai constaté des gains significatifs de latence et de coût sur mes propres pipelines d’analyse de données.
Quand utiliser chaque niveau d’effort
| Niveau d’effort | Cas d’usage | Comportement |
|---|---|---|
| low | Requêtes simples, classification, reformulation | Claude répond directement, sans thinking |
| medium | Usage quotidien, rédaction, analyse standard | Thinking modéré, bon ratio qualité/coût |
| high (défaut) | Code, analyse complexe, recherche | Thinking approfondi sur chaque requête |
| max | Problèmes très difficiles, migrations de code, recherche longue | Raisonnement maximal, coût élevé |
Le thinking interleaved pour les workflows agentiques
L’adaptive thinking active automatiquement le « thinking interleaved » : Claude peut raisonner entre les appels d’outils. Dans un workflow où Claude lit un fichier, exécute du code puis analyse les résultats, il réfléchit à chaque étape intermédiaire au lieu de raisonner uniquement au début.
Cette capacité prend tout son sens avec Claude Code, où le modèle navigue dans une base de code, modifie des fichiers et lance des tests de manière autonome.
Optimiser le thinking dans vos prompts
Pour guider le comportement du thinking sans le forcer, Anthropic recommande des instructions générales plutôt que des étapes prescriptives :
Après avoir reçu les résultats d'un outil, réfléchissez attentivement
à leur qualité et déterminez les prochaines étapes optimales avant
de poursuivre. Utilisez votre réflexion pour planifier et itérer
en fonction de ces nouvelles informations.
Si le thinking est trop fréquent et ralentit vos réponses, ajoutez cette consigne :
Le thinking étendu ajoute de la latence et ne doit être utilisé
que lorsqu'il améliore significativement la qualité de la réponse,
typiquement pour les problèmes nécessitant un raisonnement multi-étapes.
En cas de doute, répondez directement.
Le few-shot prompting : calibrer Claude par l’exemple
Les exemples (few-shot prompting) sont, selon Anthropic, « l’un des moyens les plus fiables pour orienter le format, le ton et la structure des réponses de Claude ». Un bon exemple vaut mieux que cinq adjectifs.

Les règles des bons exemples
Pour que vos exemples soient efficaces, suivez trois principes :
Pertinence : chaque exemple doit refléter un cas d’usage réel, pas un cas artificiel simplifié. Si vous construisez un classifieur de tickets support, utilisez de vrais tickets, pas des exemples inventés.
Diversité : couvrez les cas limites et variez suffisamment pour que Claude ne détecte pas de patterns involontaires. Si tous vos exemples sont positifs, Claude aura tendance à classifier positivement.
Structure : encadrez chaque exemple dans des balises <example> (et l’ensemble dans <examples>) pour que Claude les distingue clairement des instructions.
Combien d’exemples inclure
| Situation | Nombre recommandé |
|---|---|
| Format de sortie simple (email, JSON) | 1-2 exemples |
| Calibration du ton | 1 exemple |
| Classification complexe | 2-3 exemples |
| Question-réponse simple | 0 exemple |
| Cas général (recommandation Anthropic) | 3-5 exemples |
Au-delà de 5 exemples, les gains sont marginaux et vous consommez de la fenêtre de contexte inutilement. Vous pouvez demander à Claude d’évaluer la pertinence et la diversité de vos exemples, ou de générer des exemples supplémentaires à partir de votre set initial.
Le prompt chaining : découper les tâches complexes
Le prompt chaining consiste à diviser une tâche complexe en plusieurs appels API séquentiels, où la sortie d’une étape alimente l’entrée de la suivante. Avec l’adaptive thinking et l’orchestration de sous-agents, Claude gère la plupart des raisonnements multi-étapes en interne. Le chaining explicite reste utile lorsque vous devez inspecter les sorties intermédiaires ou imposer une structure de pipeline spécifique.
Le cycle de self-correction : 3 appels API séquentiels pour un résultat vérifié.
Le pattern de self-correction
Le pattern de chaining le plus courant est la self-correction en trois étapes :
- Génération : Claude produit un premier brouillon
- Évaluation : Claude évalue le brouillon contre des critères définis
- Raffinement : Claude améliore le brouillon en fonction de l’évaluation
Chaque étape est un appel API distinct, ce qui vous permet de journaliser, évaluer ou bifurquer à n’importe quel point.
Exemple concret de chaining
Pour rédiger un rapport d’analyse concurrentielle :
Étape 1 - Extraction : « Listez les fonctionnalités clés de chaque concurrent mentionné dans les documents. »
Étape 2 - Comparaison : « À partir de cette liste, créez un tableau comparatif avec les forces et faiblesses de chaque acteur. »
Étape 3 - Recommandation : « En vous basant sur ce tableau, identifiez les trois opportunités de différenciation les plus prometteuses. »
Chaque étape reçoit la sortie de l’étape précédente comme contexte. Ce découpage réduit les risques d’hallucination car Claude travaille sur un périmètre restreint à chaque itération.
Les erreurs fréquentes à éviter
Même avec les bonnes techniques, certaines erreurs récurrentes diminuent la qualité des réponses de Claude.
Dire ce qu’il ne faut pas faire au lieu de ce qu’il faut faire
Claude répond mieux aux instructions positives. Au lieu de « N’utilisez pas de markdown », préférez « Rédigez votre réponse en prose fluide avec des paragraphes ». La formulation positive guide le modèle vers le comportement souhaité plutôt que de restreindre un comportement.
Sur-prompter les modèles 4.6
Les modèles Claude 4.6 sont nettement plus réactifs au system prompt que les versions précédentes. Les instructions qui étaient nécessaires pour corriger un sous-déclenchement sur les anciens modèles peuvent provoquer un sur-déclenchement sur les modèles actuels. Si votre prompt contenait « CRITIQUE : vous DEVEZ ABSOLUMENT utiliser cet outil », simplifiez en « Utilisez cet outil lorsque… ».
Négliger le placement des données longues
Pour les prompts avec des contextes longs (20 000+ tokens), le placement des données compte. Anthropic recommande de placer les documents longs en haut du prompt, avant les instructions et la requête. Les tests internes montrent une amélioration jusqu’à 30 % de la qualité des réponses avec cette disposition.
Ignorer l’auto-vérification
Ne pas demander à Claude de vérifier sa propre réponse est une occasion manquée. Un simple « Avant de finaliser, vérifiez votre réponse contre [critères] » améliore la fiabilité, surtout pour le code et les calculs.
Combiner les techniques : un prompt avancé complet
Voici comment assembler toutes les techniques dans un prompt de production. Ce modèle combine le contract-style, le XML structuring, le few-shot et l’auto-vérification :
[System prompt — contract-style]
Role: Vous êtes un analyste données senior spécialisé en e-commerce.
Goal: Produire une analyse actionnable avec des recommandations
chiffrées basées sur les données fournies.
Constraints:
- Citez les données source pour chaque affirmation
- Marquez les estimations avec [ESTIMATION : confiance X%]
- Maximum 800 mots pour l'analyse finale
- Format : prose structurée, pas de bullet points excessifs
Uncertainty: Si les données sont insuffisantes pour conclure,
identifiez les données manquantes et proposez comment les obtenir.
[User prompt — XML structuring + few-shot]
<context>
Vous analysez les performances Q1 2026 d'une boutique en ligne
spécialisée dans les accessoires de bureau.
</context>
<examples>
<example>
<input>Taux de conversion en baisse de 15% sur mobile</input>
<analysis>
La baisse de conversion mobile (de 3,1% à 2,6%) représente
un manque à gagner estimé à 23 000€/mois [ESTIMATION : confiance 75%].
Les trois hypothèses les plus probables sont : temps de chargement
dégradé, friction au checkout, ou concurrence accrue sur les
campagnes mobiles. Recommandation : audit Core Web Vitals en priorité.
</analysis>
</example>
</examples>
<data>
{{DONNÉES_Q1_2026}}
</data>
<task>
Analysez les tendances principales et identifiez les 3 leviers
de croissance prioritaires pour le Q2.
</task>
Avant de finaliser, vérifiez que chaque recommandation est étayée
par une donnée du dataset fourni.
Ce type de prompt exploite les points forts de Claude : la compréhension structurelle du XML, le suivi rigoureux des contraintes contractuelles, la calibration par l’exemple et l’auto-vérification. C’est la structure que j’utilise au quotidien pour mes projets clients. Pour aller plus loin dans la pratique, consultez notre comparatif Claude vs ChatGPT pour comprendre comment ces techniques positionnent Claude face à la concurrence.