Le prompt engineering pour Claude ne se résume pas à formuler une question claire. Claude dispose de mécanismes spécifiques - balises XML, format contract-style, adaptive thinking - qui le distinguent de ChatGPT et Gemini. La documentation Anthropic recommande explicitement les balises XML pour structurer les prompts complexes, car elles permettent un parsing non ambigu du contenu. Combiner ces balises avec des techniques de raisonnement comme le chain-of-thought réduit significativement les hallucinations. J’ai testé ces techniques sur une trentaine de projets clients, et ce guide couvre celles qui font une vraie différence en production.

Si vous débutez avec Claude, consultez d’abord notre guide du débutant Claude puis notre bibliothèque de prompts Claude pour des modèles prêts à l’emploi. L’article que vous lisez s’adresse aux utilisateurs qui veulent comprendre pourquoi certaines structures fonctionnent mieux que d’autres et comment les combiner.

Pipeline des 6 techniques de prompt engineering pour Claude AI - du XML structuring au prompt chaining en passant par le contract-style et l'adaptive thinking Les 6 techniques de prompt engineering pour Claude, combinables dans un prompt avancé complet.

Le XML structuring : la technique de base

Claude a été entraîné pour reconnaître et interpréter les balises XML nativement. Contrairement à d’autres modèles qui traitent le XML comme du texte ordinaire, Claude utilise la structure des balises pour séparer les différentes composantes d’un prompt.

Pourquoi le XML fonctionne mieux pour Claude

La documentation officielle d’Anthropic recommande explicitement les balises XML pour structurer les prompts complexes. Les balises XML permettent un parsing non ambigu du contenu, particulièrement lorsque le prompt mélange instructions, contexte, exemples et données variables.

Les balises les plus utilisées sont <instructions>, <context>, <input>, <example>, et <output>. Vous pouvez les imbriquer pour créer des hiérarchies logiques.

Structure XML recommandée

Voici la structure de base recommandée par Anthropic :

<instructions>
Analysez le document fourni et extrayez les points clés.
Répondez en français, en 5 bullet points maximum.
</instructions>

<context>
Vous êtes un analyste spécialisé en intelligence artificielle.
Le document concerne les tendances IA pour le second semestre 2026.
</context>

<input>
{{DOCUMENT_CONTENT}}
</input>

<output_format>
- Point clé 1 : [résumé en une phrase]
- Point clé 2 : [résumé en une phrase]
...
</output_format>

Balises imbriquées pour les documents multiples

Lorsque vous travaillez avec plusieurs documents (rapports, articles, données), utilisez une structure imbriquée avec des index :

<documents>
  <document index="1">
    <source>rapport-annuel-2025.pdf</source>
    <document_content>
      {{RAPPORT_ANNUEL}}
    </document_content>
  </document>
  <document index="2">
    <source>analyse-concurrence-q2.xlsx</source>
    <document_content>
      {{ANALYSE_CONCURRENCE}}
    </document_content>
  </document>
</documents>

Analysez le rapport annuel et l'analyse concurrentielle.
Identifiez les avantages stratégiques et recommandez les axes prioritaires pour le Q3.

Cette structuration tire parti de la fenêtre de contexte de 1 million de tokens de Claude Opus 4.6 et Sonnet 4.6. Selon la documentation Anthropic, placer les documents longs en haut du prompt et la requête en bas améliore la qualité des réponses jusqu’à 30 % dans les tests, notamment avec des entrées multi-documents complexes.

Le contract-style prompting : transformer le system prompt en contrat

Le contract-style prompting est une approche où le system prompt est rédigé comme un document contractuel explicite. Claude, entraîné pour suivre des instructions précises, se conforme mieux à un « contrat » structuré qu’à des consignes dispersées dans un texte libre.

Presse-papiers avec quatre blocs structurés représentant les composantes d'un system prompt contract-style pour Claude

Les quatre composantes du contrat

Un system prompt contract-style se décompose en quatre blocs :

ComposanteRôleExemple
RoleDéfinit l’identité et l’expertise de Claude« Vous êtes un expert en droit du travail français »
Goal / Success criteriaDécrit le résultat attendu et les critères de réussite« Fournir une analyse juridique actionnable en 500 mots maximum »
ConstraintsPose les limites et interdictions« Ne jamais inventer de jurisprudence, citer uniquement des textes vérifiables »
Uncertainty handlingIndique comment gérer l’incertitude« Si vous n’êtes pas sûr, dites-le explicitement et proposez des pistes de recherche »

Exemple complet de system prompt contract-style

Role: Vous êtes un consultant senior en stratégie digitale,
spécialisé dans les PME françaises.

Goal: Produire des recommandations concrètes et chiffrées
que le dirigeant peut mettre en œuvre dans les 30 jours.

Constraints:
- Maximum 3 recommandations par réponse
- Chaque recommandation inclut un budget estimatif
- Pas de jargon technique sans explication
- Sources citées lorsque des données sont mentionnées

Uncertainty: Si une estimation est incertaine, indiquez
une fourchette et le niveau de confiance (faible/moyen/élevé).

Ce format fonctionne bien avec Claude Opus 4.6 et Sonnet 4.6, qui sont plus réactifs au system prompt que les modèles précédents. Anthropic note que si vos anciens prompts utilisaient un langage agressif (« CRITIQUE : vous DEVEZ utiliser cet outil »), les modèles 4.6 n’en ont plus besoin. Un ton normal suffit.

Le user prompt en quatre blocs

Le message utilisateur suit la même logique contractuelle avec quatre sections :

INSTRUCTIONS: Analysez la stratégie d'acquisition client de l'entreprise.

CONTEXT: L'entreprise est une SaaS B2B avec 500 clients,
un CAC de 450€ et un churn mensuel de 3,2%.

TASK: Identifiez les 3 principaux leviers de réduction du churn
et estimez l'impact financier de chacun.

OUTPUT FORMAT: Tableau comparatif avec colonnes :
Levier | Action concrète | Impact estimé | Délai de mise en œuvre

Le chain-of-thought : forcer le raisonnement étape par étape

Le chain-of-thought (CoT) consiste à demander à Claude de raisonner explicitement avant de répondre. Cette technique réduit significativement les hallucinations selon la documentation Anthropic, car elle oblige le modèle à vérifier chaque étape logique avant de produire la réponse finale.

Trois engrenages interconnectés avec loupes intégrées illustrant le raisonnement séquentiel du chain-of-thought

CoT manuel avec balises XML

Lorsque le thinking n’est pas activé via l’API, vous pouvez forcer un raisonnement explicite en utilisant des balises structurées :

<instructions>
Avant de répondre, raisonnez étape par étape dans des balises <thinking>.
Placez votre réponse finale dans des balises <answer>.
</instructions>

<task>
Un développeur freelance facture 600€/jour. Il travaille 218 jours par an.
Il a 12 000€ de charges fixes annuelles et 23% de cotisations sociales.
Quel est son revenu net mensuel ?
</task>

Claude produira alors un bloc <thinking> détaillant chaque calcul intermédiaire, puis un bloc <answer> avec le résultat vérifié. Cette séparation vous permet d’inspecter le raisonnement sans polluer la réponse utilisable.

CoT avec few-shot examples

Vous pouvez combiner le chain-of-thought avec des exemples pour montrer à Claude le schéma de raisonnement attendu :

<examples>
  <example>
    <input>Un site e-commerce a un taux de conversion de 2,3% et 50 000 visiteurs/mois. Combien de ventes ?</input>
    <thinking>
    Visiteurs mensuels : 50 000
    Taux de conversion : 2,3% = 0,023
    Ventes = 50 000 × 0,023 = 1 150 ventes par mois
    </thinking>
    <answer>Le site génère environ 1 150 ventes par mois.</answer>
  </example>
</examples>

Anthropic confirme que les exemples multishot fonctionnent avec le thinking : Claude généralise le style de raisonnement montré dans les exemples à ses propres blocs de réflexion.

Auto-vérification intégrée

Une technique complémentaire consiste à demander à Claude de vérifier sa propre réponse avant de la finaliser. Ajoutez simplement une consigne en fin de prompt :

Avant de finaliser votre réponse, vérifiez-la contre ces critères :
1. Tous les calculs sont-ils corrects ?
2. Les affirmations incertaines sont-elles marquées [INCERTAIN] ?
3. Le format de sortie est-il respecté ?

Cette auto-vérification fonctionne de manière fiable pour les tâches de code, de mathématiques et d’analyse de données.

Comparaison des 4 niveaux d'effort de l'adaptive thinking Claude AI - low, medium, high et max avec cas d'usage et cout Adaptive thinking : 4 niveaux d’effort pour ajuster le raisonnement de Claude selon la complexité de la tâche.

L’adaptive thinking : le raisonnement dynamique de Claude 4.6

L’adaptive thinking est la fonctionnalité de raisonnement la plus récente de Claude, introduite avec les modèles 4.6. Elle remplace l’ancien extended thinking (budget de tokens fixe) par un système dynamique où Claude décide lui-même quand et combien raisonner.

Comment fonctionne l’adaptive thinking

Avec l’adaptive thinking activé (thinking: {type: "adaptive"}), Claude calibre sa réflexion en fonction de deux facteurs : le paramètre effort (low, medium, high, max) et la complexité de la requête. Sur une question simple, Claude répond directement. Sur un problème complexe multi-étapes, il raisonne en profondeur avant de répondre.

Dans les évaluations internes d’Anthropic, l’adaptive thinking surpasse l’extended thinking en performance. Les niveaux d’effort bas permettent de réduire les coûts de 50 à 80 % sur certaines charges de travail, et le prompt caching reste compatible avec le mode adaptatif. J’ai constaté des gains significatifs de latence et de coût sur mes propres pipelines d’analyse de données.

Quand utiliser chaque niveau d’effort

Niveau d’effortCas d’usageComportement
lowRequêtes simples, classification, reformulationClaude répond directement, sans thinking
mediumUsage quotidien, rédaction, analyse standardThinking modéré, bon ratio qualité/coût
high (défaut)Code, analyse complexe, rechercheThinking approfondi sur chaque requête
maxProblèmes très difficiles, migrations de code, recherche longueRaisonnement maximal, coût élevé

Le thinking interleaved pour les workflows agentiques

L’adaptive thinking active automatiquement le « thinking interleaved » : Claude peut raisonner entre les appels d’outils. Dans un workflow où Claude lit un fichier, exécute du code puis analyse les résultats, il réfléchit à chaque étape intermédiaire au lieu de raisonner uniquement au début.

Cette capacité prend tout son sens avec Claude Code, où le modèle navigue dans une base de code, modifie des fichiers et lance des tests de manière autonome.

Optimiser le thinking dans vos prompts

Pour guider le comportement du thinking sans le forcer, Anthropic recommande des instructions générales plutôt que des étapes prescriptives :

Après avoir reçu les résultats d'un outil, réfléchissez attentivement
à leur qualité et déterminez les prochaines étapes optimales avant
de poursuivre. Utilisez votre réflexion pour planifier et itérer
en fonction de ces nouvelles informations.

Si le thinking est trop fréquent et ralentit vos réponses, ajoutez cette consigne :

Le thinking étendu ajoute de la latence et ne doit être utilisé
que lorsqu'il améliore significativement la qualité de la réponse,
typiquement pour les problèmes nécessitant un raisonnement multi-étapes.
En cas de doute, répondez directement.

Le few-shot prompting : calibrer Claude par l’exemple

Les exemples (few-shot prompting) sont, selon Anthropic, « l’un des moyens les plus fiables pour orienter le format, le ton et la structure des réponses de Claude ». Un bon exemple vaut mieux que cinq adjectifs.

Trois fiches d'exemples avec motifs géométriques convergeant vers une fiche synthétique raffinée illustrant le few-shot prompting

Les règles des bons exemples

Pour que vos exemples soient efficaces, suivez trois principes :

Pertinence : chaque exemple doit refléter un cas d’usage réel, pas un cas artificiel simplifié. Si vous construisez un classifieur de tickets support, utilisez de vrais tickets, pas des exemples inventés.

Diversité : couvrez les cas limites et variez suffisamment pour que Claude ne détecte pas de patterns involontaires. Si tous vos exemples sont positifs, Claude aura tendance à classifier positivement.

Structure : encadrez chaque exemple dans des balises <example> (et l’ensemble dans <examples>) pour que Claude les distingue clairement des instructions.

Combien d’exemples inclure

SituationNombre recommandé
Format de sortie simple (email, JSON)1-2 exemples
Calibration du ton1 exemple
Classification complexe2-3 exemples
Question-réponse simple0 exemple
Cas général (recommandation Anthropic)3-5 exemples

Au-delà de 5 exemples, les gains sont marginaux et vous consommez de la fenêtre de contexte inutilement. Vous pouvez demander à Claude d’évaluer la pertinence et la diversité de vos exemples, ou de générer des exemples supplémentaires à partir de votre set initial.

Le prompt chaining : découper les tâches complexes

Le prompt chaining consiste à diviser une tâche complexe en plusieurs appels API séquentiels, où la sortie d’une étape alimente l’entrée de la suivante. Avec l’adaptive thinking et l’orchestration de sous-agents, Claude gère la plupart des raisonnements multi-étapes en interne. Le chaining explicite reste utile lorsque vous devez inspecter les sorties intermédiaires ou imposer une structure de pipeline spécifique.

Cycle de self-correction du prompt chaining Claude AI - 3 etapes generation evaluation raffinement avec iteration optionnelle Le cycle de self-correction : 3 appels API séquentiels pour un résultat vérifié.

Le pattern de self-correction

Le pattern de chaining le plus courant est la self-correction en trois étapes :

  1. Génération : Claude produit un premier brouillon
  2. Évaluation : Claude évalue le brouillon contre des critères définis
  3. Raffinement : Claude améliore le brouillon en fonction de l’évaluation

Chaque étape est un appel API distinct, ce qui vous permet de journaliser, évaluer ou bifurquer à n’importe quel point.

Exemple concret de chaining

Pour rédiger un rapport d’analyse concurrentielle :

Étape 1 - Extraction : « Listez les fonctionnalités clés de chaque concurrent mentionné dans les documents. »

Étape 2 - Comparaison : « À partir de cette liste, créez un tableau comparatif avec les forces et faiblesses de chaque acteur. »

Étape 3 - Recommandation : « En vous basant sur ce tableau, identifiez les trois opportunités de différenciation les plus prometteuses. »

Chaque étape reçoit la sortie de l’étape précédente comme contexte. Ce découpage réduit les risques d’hallucination car Claude travaille sur un périmètre restreint à chaque itération.

Les erreurs fréquentes à éviter

Même avec les bonnes techniques, certaines erreurs récurrentes diminuent la qualité des réponses de Claude.

Dire ce qu’il ne faut pas faire au lieu de ce qu’il faut faire

Claude répond mieux aux instructions positives. Au lieu de « N’utilisez pas de markdown », préférez « Rédigez votre réponse en prose fluide avec des paragraphes ». La formulation positive guide le modèle vers le comportement souhaité plutôt que de restreindre un comportement.

Sur-prompter les modèles 4.6

Les modèles Claude 4.6 sont nettement plus réactifs au system prompt que les versions précédentes. Les instructions qui étaient nécessaires pour corriger un sous-déclenchement sur les anciens modèles peuvent provoquer un sur-déclenchement sur les modèles actuels. Si votre prompt contenait « CRITIQUE : vous DEVEZ ABSOLUMENT utiliser cet outil », simplifiez en « Utilisez cet outil lorsque… ».

Négliger le placement des données longues

Pour les prompts avec des contextes longs (20 000+ tokens), le placement des données compte. Anthropic recommande de placer les documents longs en haut du prompt, avant les instructions et la requête. Les tests internes montrent une amélioration jusqu’à 30 % de la qualité des réponses avec cette disposition.

Ignorer l’auto-vérification

Ne pas demander à Claude de vérifier sa propre réponse est une occasion manquée. Un simple « Avant de finaliser, vérifiez votre réponse contre [critères] » améliore la fiabilité, surtout pour le code et les calculs.

Combiner les techniques : un prompt avancé complet

Voici comment assembler toutes les techniques dans un prompt de production. Ce modèle combine le contract-style, le XML structuring, le few-shot et l’auto-vérification :

[System prompt — contract-style]
Role: Vous êtes un analyste données senior spécialisé en e-commerce.

Goal: Produire une analyse actionnable avec des recommandations
chiffrées basées sur les données fournies.

Constraints:
- Citez les données source pour chaque affirmation
- Marquez les estimations avec [ESTIMATION : confiance X%]
- Maximum 800 mots pour l'analyse finale
- Format : prose structurée, pas de bullet points excessifs

Uncertainty: Si les données sont insuffisantes pour conclure,
identifiez les données manquantes et proposez comment les obtenir.
[User prompt — XML structuring + few-shot]
<context>
Vous analysez les performances Q1 2026 d'une boutique en ligne
spécialisée dans les accessoires de bureau.
</context>

<examples>
  <example>
    <input>Taux de conversion en baisse de 15% sur mobile</input>
    <analysis>
    La baisse de conversion mobile (de 3,1% à 2,6%) représente
    un manque à gagner estimé à 23 000€/mois [ESTIMATION : confiance 75%].
    Les trois hypothèses les plus probables sont : temps de chargement
    dégradé, friction au checkout, ou concurrence accrue sur les
    campagnes mobiles. Recommandation : audit Core Web Vitals en priorité.
    </analysis>
  </example>
</examples>

<data>
{{DONNÉES_Q1_2026}}
</data>

<task>
Analysez les tendances principales et identifiez les 3 leviers
de croissance prioritaires pour le Q2.
</task>

Avant de finaliser, vérifiez que chaque recommandation est étayée
par une donnée du dataset fourni.

Ce type de prompt exploite les points forts de Claude : la compréhension structurelle du XML, le suivi rigoureux des contraintes contractuelles, la calibration par l’exemple et l’auto-vérification. C’est la structure que j’utilise au quotidien pour mes projets clients. Pour aller plus loin dans la pratique, consultez notre comparatif Claude vs ChatGPT pour comprendre comment ces techniques positionnent Claude face à la concurrence.