6 avril 2026

En bref : - Un repo GitHub public (asgeirtj/system_prompts_leaks) compile les system prompts complets de Claude Opus 4.6, Sonnet 4.6 et Claude Code, plus ceux d'autres modèles majeurs. - Tu y trouves ce qu'Anthropic ne publie pas officiellement : la structure interne de Claude Code, ses outils, son mode plan, sa gestion de mémoire. - Le vrai intérêt n'est pas de lire. C'est de donner ces prompts à Claude et de lui demander de t'expliquer chaque choix, puis de générer ta propre version pour ton cas d'usage. - Gratuit, en un clic. Tu repars avec 3 prompts à copier-coller pour exploiter le repo aujourd'hui.
Quelqu'un a compilé les system prompts complets de Claude dans un repo GitHub public. Opus 4.6, Sonnet 4.6, Claude Code, les modules mémoire, le mode plan, le chercheur — tout y est. Gratuit, en un clic. Aucun paywall, aucun formulaire.
Ça fait 48 heures que je fouille dedans. Et le plus intéressant n'est pas le côté "leak". Anthropic publie déjà ses system prompts officiels depuis août 2024. Ce que le repo ajoute, c'est ce qui est resté caché jusqu'ici : Claude Code, les tools internes, le think tool, la structure exacte du mode plan. En clair, ce qui explique vraiment comment Claude fonctionne.
Je passe mes journées chez Cypher IA à construire des prompts qui font tourner des workflows réels. Quand je tombe sur un document qui montre comment l'une des boîtes les plus avancées du monde structure son IA, je lis. Et je te montre comment tu peux l'exploiter sans perdre trois heures à scroller du markdown.
Dans cet article, tu repars avec le lien du repo, les trois prompts exacts à donner à Claude pour en tirer quelque chose de concret, et une comparaison honnête entre ce qui est déjà officiel et ce qui ne l'est pas.

Commençons par le plus important. Si tu es passé par un de mes posts et que tu viens chercher le lien, le voici, sans détour :
github.com/asgeirtj/system_prompts_leaks
C'est un repo GitHub public, gratuit, accessible en un clic. Pas de formulaire, pas de paywall, pas de compte à créer. Tu cliques, tu lis, tu peux cloner en local si tu veux une copie figée.
Pour aller droit au but, le fichier le plus intéressant s'appelle `Anthropic/claude-code.md`. C'est le system prompt complet de Claude Code, et c'est lui qui justifie à lui seul toute la démarche — parce que celui-là, contrairement aux autres, Anthropic ne le publie pas officiellement.
Le repo peut être mis hors ligne à tout moment. Anthropic a déjà déposé des DMCA sur d'autres compilations similaires par le passé. Pour figer ta version, une seule commande :
git clone https://github.com/asgeirtj/system_prompts_leaks.git
Tu as la totalité en local, offline, pour toujours. C'est ce que j'ai fait dès que j'ai vu passer le repo, et je te conseille de faire pareil maintenant, pas dans deux semaines.
Tout n'a pas la même valeur dans le repo. Si tu as une heure devant toi, concentre-toi sur ce qui est vraiment inédit plutôt que de scroller au hasard.
Maintenant que tu as le lien et que tu sais où chercher, la suite de l'article t'explique comment en tirer quelque chose de concret en quinze minutes, sans te taper deux heures de lecture.
Le repo s'appelle `asgeirtj/system_prompts_leaks`. Il décrit sa mission comme "a museum of how these companies tell their models to behave when nobody's looking". Traduction : un musée de comment les boîtes parlent à leurs modèles quand personne ne regarde.
Côté Claude, tu y trouves trois blocs majeurs.
Claude Opus 4.6 et Claude Sonnet 4.6 — les system prompts des modèles user-facing sur claude.ai. Rien d'ultra-secret ici : Anthropic en publie déjà une version officielle dans sa release notes. Mais le repo ajoute les versions extraites en conditions réelles, avec les variations dynamiques selon l'interface (web, API, mobile).
Claude Code — c'est là que ça devient intéressant. Le system prompt de Claude Code n'est pas dans la politique de transparence d'Anthropic. Il est assemblé dynamiquement au runtime à partir de plusieurs modules : base system, tool definitions, mode plan, sub-agents, instructions de sécurité, CLAUDE.md du projet. Le repo compile tout ça dans un fichier unique lisible d'un coup.
Les modules fonctionnels — mémoire persistante, mode plan, outil think, sub-agent "Explore", instructions de commit. Chacun de ces modules est un mini-system-prompt avec sa propre logique. Les lire dans l'ordre, c'est littéralement comprendre l'architecture interne d'un agent IA qui marche.
Compilé, l'ensemble représente plusieurs milliers de lignes de markdown dense. Une lecture intégrale prend deux à trois heures. Tu n'as pas besoin de tout lire — la bonne stratégie est de sélectionner le module qui te sert (Plan Mode, Memory, Commit Instructions) et de l'étudier seul.
Lire un system prompt d'Anthropic, c'est comme ouvrir le capot d'une Formule 1. Tu vois la mécanique exacte que la boîte utilise pour faire tenir un modèle sur 200+ tâches complexes sans qu'il dérive. Trois leçons concrètes que tu peux appliquer dès demain.
Claude est spécifiquement entraîné à parser les balises XML. Dans le repo, tu vois Anthropic structurer tout avec des tags : <instructions>, <context>, <task>, <output_format>, <example>, <thinking>. Pas un paragraphe en texte brut. Pas une liste à puces.
La doc officielle d'Anthropic le confirme — "XML tags effectively isolate key elements, reducing misinterpretation". Concrètement, sur tes propres prompts : au lieu d'écrire "Voici le contexte, voici la tâche, voici le format attendu", tu entoures chaque bloc d'un tag. Gain de précision mesurable.
Dans le system prompt de Claude Code, il y a un bloc explicite pour le Plan Mode : un mode read-only où Claude analyse tout le codebase, pose des questions, génère un plan détaillé — sans toucher aux fichiers. Tu valides le plan, puis il exécute.
L'idée sous-jacente : la plupart des erreurs d'agent IA viennent du fait qu'il commence à écrire du code avant d'avoir compris le problème. Séparer explicitement la phase "think" de la phase "do" est une des techniques les plus puissantes pour fiabiliser un workflow IA.
Tu peux la copier dans tes propres agents. Un premier appel : "Produis un plan détaillé, ne touche à rien". Un deuxième appel : "Exécute le plan, une étape à la fois, demande validation entre chaque".
think toolDistinct du "extended thinking" (qui se passe avant la réponse), le think tool permet à Claude de faire une pause pendant une chaîne d'appels d'outils pour réfléchir avant de continuer. C'est documenté officiellement par Anthropic dans un article dédié, et le repo montre son invocation réelle dans Claude Code.
Utilité : quand tu enchaînes 5-10 appels d'outils et que tu veux éviter que le modèle parte en vrille au milieu, tu lui donnes un outil "pause and think". Il l'utilise au moment où il détecte qu'il doit reconsidérer sa stratégie.
Tu as le lien. La vraie question, maintenant, c'est qu'est-ce que tu en fais.
Le piège classique est de lire le markdown comme un article de blog. Tu ouvres, tu parcours, tu trouves ça fascinant, tu fermes l'onglet. Quarante-huit heures plus tard, tu as tout oublié.
La bonne approche : tu donnes le fichier à Claude lui-même et tu lui demandes de faire le travail d'analyse et de transposition pour toi. Voici les trois prompts que j'utilise.
Tu es un expert en prompt engineering. Je viens de te coller le system prompt
complet de [NOM DU MODULE, ex: Claude Code Plan Mode].
<system_prompt>
[colle ici le contenu du fichier markdown du repo]
</system_prompt>
Analyse-moi ce prompt section par section. Pour chaque instruction significative :
1. Explique pourquoi elle est là (quel problème elle résout)
2. Identifie la technique de prompt engineering utilisée (role, constraint,
XML tag, few-shot, chain-of-thought, etc.)
3. Donne-moi une note sur 10 de son intérêt pour un non-Anthropic qui voudrait
s'en inspirer
Termine par les 5 instructions les plus transposables pour un usage business.
Tu obtiens une analyse structurée en cinq minutes. Tu comprends le quoi et le pourquoi.
Tu as analysé le system prompt de [NOM DU MODULE] dans notre échange précédent.
Maintenant, génère-moi un system prompt sur-mesure pour mon cas d'usage suivant :
<cas_usage>
[décris ton cas : "un agent qui m'aide à traiter les emails entrants",
"un assistant qui écrit des scripts vidéo", "un coach produit", etc.]
</cas_usage>
Contraintes :
- Utilise les mêmes techniques que celles du prompt Anthropic analysé
- Structure le tout en XML tags
- Inclus une section <instructions>, <output_format>, et <examples>
- Max 800 mots
- Tutoiement dans les instructions au modèle
Donne-moi le prompt final, prêt à copier dans un Custom GPT ou un Claude
Project.
Tu passes de "j'ai lu quelque chose d'intéressant" à "j'ai un prompt de niveau pro calibré pour mon activité". En dix minutes.
Prends le system prompt que tu viens de générer et transforme-le en un skill
ClaudeProject réutilisable :
1. Donne-lui un nom court et un slogan
2. Écris un fichier SKILL.md avec : description, quand l'utiliser, structure
de l'output attendu, et 2-3 exemples d'input/output
3. Liste les 3 variables contextuelles que je devrais injecter à chaque appel
(données dynamiques que le prompt ne contient pas)
Format de sortie : un seul bloc markdown avec le SKILL.md complet.
Résultat : tu as un skill versionable, réutilisable, documenté. Plus besoin de retaper ton prompt à chaque conversation.
Important à comprendre pour relativiser : Anthropic publie déjà une grosse partie de ses system prompts. Depuis août 2024, la boîte a lancé une politique de transparence qui met à disposition les prompts des modèles Claude user-facing, avec une mise à jour à chaque release. C'est Simon Willison qui a documenté le lancement en premier.
Mais cette transparence a des trous. Voilà ce que le repo comble.
| Module | Publié officiellement par Anthropic | Dans le repo |
|---|---|---|
| Claude Opus (web/app) | Oui | Oui |
| Claude Sonnet (web/app) | Oui | Oui |
| Claude Haiku (web/app) | Oui | Oui |
| Claude via API | Non | Partiellement |
| Claude Code (CLI agent) | Non | **Oui** |
| Tool definitions (bash, read, edit, grep) | Non | **Oui** |
| Plan Mode | Non | **Oui** |
| Memory system (mémoire persistante) | Non | **Oui** |
| Sub-agent Explore | Non | **Oui** |
| Commit instructions + Undercover Mode | Non | **Oui** |
La colonne de droite, c'est exactement ce qui t'intéresse si tu construis des agents. Les parties officielles ont surtout une valeur pédagogique. Les parties non-officielles ont une valeur technique — elles te montrent comment une vraie boîte structure un agent de production.
Restons lucides sur ce que ce repo n'est pas.
Ce n'est pas un hack. Personne n'a brute-forcé Anthropic. Ces prompts ont été extraits via des méthodes publiques (questions au modèle, analyse du JavaScript côté client, inspection du trafic réseau). Certains sont partiellement incomplets ou légèrement différents de la version servie en production à l'instant T.
Ce n'est pas "le cerveau" de Claude. Le system prompt est une couche d'instruction. Il guide le modèle, il ne le crée pas. Claude reste Claude — son vrai "QI" vient de son entraînement, pas du texte qui précède ta question. Copier le prompt d'Opus n'en fait pas un Opus-à-la-maison.
Les mises à jour sautent. Ce qui est dans le repo aujourd'hui peut être obsolète dans 15 jours. Anthropic itère sur ses prompts en permanence. Utilise le repo comme un snapshot pédagogique, pas comme une bible.
La dimension légale. Ces prompts sont la propriété intellectuelle d'Anthropic. Les lire et s'en inspirer pour apprendre est une zone grise largement tolérée. Les republier commercialement sans attribution, en revanche, est problématique. En cas de doute, garde le repo comme une ressource d'apprentissage personnelle.
Le repo principal est à l'adresse github.com/asgeirtj/system_prompts_leaks. Il compile les system prompts de Claude (Opus 4.6, Sonnet 4.6, Claude Code) ainsi que d'autres modèles majeurs comme GPT, Gemini et Grok. Tout est en markdown, navigable depuis l'arborescence GitHub.
Les utiliser pour apprendre ou s'en inspirer dans tes propres prompts est largement toléré et fait partie du folklore du prompt engineering. Les republier commercialement sans attribution, en revanche, touche à la propriété intellectuelle d'Anthropic. En cas de doute, garde ça comme une ressource d'apprentissage personnelle.
Non. Copier le system prompt dans un autre modèle (GPT, Gemini, un modèle open source) ne transforme pas ce modèle en Claude Code. Le comportement de Claude Code vient à 80% de son fine-tuning et seulement 20% de son system prompt. Copie les techniques (Plan Mode, think tool, XML tags), pas le texte brut.
Si, en partie. Depuis août 2024, Anthropic publie officiellement les system prompts des modèles Claude user-facing (Opus, Sonnet, Haiku sur claude.ai). Mais pas ceux de Claude Code, ni des tools internes, ni du mode plan, ni du système de mémoire. C'est exactement ce que le repo comble.
Trois étapes : (1) va sur github.com/asgeirtj/system_prompts_leaks, (2) ouvre le dossier Anthropic/claude-code.md, (3) copie-colle le contenu dans une conversation Claude avec le Prompt 1 de cet article. En 15 minutes tu as une analyse complète de comment Anthropic structure un agent de production.
Le repo asgeirtj est la meilleure ressource gratuite de 2026 pour comprendre comment un agent IA de production est réellement structuré. Pas parce que c'est "secret" (la moitié est déjà publiée par Anthropic), mais parce que tout est compilé au même endroit, lisible en une session, avec Claude Code en bonus — qui, lui, n'est documenté nulle part ailleurs.
Le vrai levier n'est pas de lire. C'est de donner ces prompts directement à Claude et de lui demander de faire le travail de traduction pour ton cas d'usage. Les trois prompts de la section dédiée te donnent exactement ça.
Chaque semaine, je partage les prompts, patterns et workflows IA que j'utilise vraiment dans Cypher IA. Si tu veux ce genre de retours directement dans ta boîte mail, rejoins La Dépêche Cypher ci-dessous.
Envie d'aller plus loin ?
15 minutes pour identifier le premier cas d'usage IA rentable dans votre entreprise.
Prendre rendez-vous