Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

Introduction

Qu’est-ce que PRECC ?

PRECC (Correction prédictive des erreurs pour Claude Code) est un outil Rust qui intercepte les commandes bash de Claude Code via le mécanisme officiel PreToolUse hook. Il corrige les erreurs avant qu’elles ne se produisent, économisant des tokens et éliminant les boucles de réessai.

Gratuit pour les utilisateurs communautaires.

Le problème

Claude Code gaspille des tokens importants sur des erreurs évitables :

  • Erreurs de mauvais répertoire – Exécuter cargo build dans un répertoire parent sans Cargo.toml, puis réessayer après avoir lu l’erreur.
  • Boucles de réessai – Une commande échouée produit une sortie verbeuse, Claude la lit, l’analyse et réessaie. Chaque cycle consomme des centaines de tokens.
  • Sortie verbeuse – Des commandes comme find ou ls -R produisent des milliers de lignes que Claude doit traiter.

Les quatre piliers

Correction de contexte (cd-prepend)

Détecte quand des commandes comme cargo build ou npm test sont exécutées dans le mauvais répertoire et ajoute cd /bon/chemin && avant l’exécution.

Débogage GDB

Détecte les opportunités d’attacher GDB pour un débogage plus approfondi des segfaults et plantages, fournissant des informations de débogage structurées au lieu de core dumps bruts.

Exploration de sessions

Explore les journaux de session Claude Code à la recherche de paires échec-correction. Quand la même erreur réapparaît, PRECC connaît déjà la correction et l’applique automatiquement.

Compétences d’automatisation

Une bibliothèque de compétences intégrées et explorées qui correspondent aux modèles de commandes et les réécrivent. Les compétences sont définies comme fichiers TOML ou lignes SQLite, ce qui les rend faciles à inspecter, modifier et partager.

Comment ça marche (version 30 secondes)

  1. Claude Code s’apprête à exécuter une commande bash.
  2. Le hook PreToolUse envoie la commande à precc-hook au format JSON via stdin.
  3. precc-hook traite la commande via le pipeline (compétences, correction de répertoire, compression) en moins de 3 millisecondes.
  4. La commande corrigée est renvoyée au format JSON via stdout.
  5. Claude Code exécute la commande corrigée à la place.

Les erreurs triviales sont fusionnées ; la raison de la réécriture est incluse dans la réponse du hook, de sorte que chaque correction est auditable, pas silencieuse.

Limite de sécurité

PRECC ne réécrit que lorsque l’équivalence sémantique est prouvablement préservée ou vérifiable par l’utilisateur. Les commandes destructrices (rm, git push --force, git reset --hard) ne sont jamais réécrites, même si une compétence correspond. Chaque mutation doit être bornée — la commande réécrite doit toujours contenir les tokens essentiels de la commande originale. Les réécritures non bornées sont automatiquement annulées. Chaque réécriture appliquée est journalisée et affichée pour que vous puissiez l’auditer, la désactiver ou l’annuler.

Compression adaptative

Si une commande échoue après compression, PRECC ignore automatiquement la compression lors de la prochaine tentative pour que Claude obtienne la sortie complète non compressée pour le débogage.

Statistiques d’utilisation en direct

Version actuelle :

MétriqueValeur
Appels du hook
Tokens économisés
Taux d’économie%
Réécritures RTK
Corrections CD
Latence du hook ms (p50)
Utilisateurs

Économies mesurées (données réelles)

Économies par version

Ces chiffres se mettent à jour automatiquement à partir de la télémétrie anonymisée.

Liens

Installation

Installation rapide (Linux / macOS)

curl -fsSL https://peria.ai/install.sh | bash

Cela télécharge le dernier binaire pour votre plateforme, vérifie la somme de contrôle SHA256 et le place dans ~/.local/bin/.

Après l’installation, initialisez PRECC :

precc init

precc init enregistre le hook PreToolUse avec Claude Code, crée les répertoires de données et initialise la base de données des compétences.

Options d’installation

Vérification SHA256

Par défaut, l’installateur vérifie la somme de contrôle du binaire par rapport à la somme SHA256 publiée. Pour ignorer la vérification (non recommandé) :

curl -fsSL https://peria.ai/install.sh | bash -s -- --no-verify

Préfixe d’installation personnalisé

Installer dans un emplacement personnalisé :

curl -fsSL https://peria.ai/install.sh | bash -s -- --prefix /opt/precc

Outils compagnons (–extras)

PRECC est livré avec des outils compagnons optionnels. Installez-les avec --extras :

curl -fsSL https://peria.ai/install.sh | bash -s -- --extras

Cela installe :

OutilFonction
RTKKit de réécriture de commandes
lean-ctxCompression de contexte pour CLAUDE.md et les fichiers de prompt
nushellShell structuré pour les pipelines avancés
cocoindex-codeIndexation du code pour une résolution de contexte plus rapide

Windows (PowerShell)

irm https://peria.ai/install.ps1 | iex

Puis initialisez :

precc init

Installation manuelle

  1. Téléchargez le binaire pour votre plateforme depuis GitHub Releases.
  2. Vérifiez la somme de contrôle SHA256 par rapport au fichier .sha256 de la version.
  3. Placez le binaire dans un répertoire de votre PATH (par ex., ~/.local/bin/).
  4. Exécutez precc init.

Mise à jour

precc update

Forcer la mise à jour vers une version spécifique :

precc update --force --version 0.3.0

Activer les mises à jour automatiques :

precc update --auto

Vérification de l’installation

$ precc --version
precc 0.3.0

$ precc savings
Session savings: 0 tokens (no commands intercepted yet)

Si precc n’est pas trouvé, assurez-vous que ~/.local/bin est dans votre PATH.

Démarrage rapide

Lancez PRECC en 5 minutes.

Étape 1 : Installation

curl -fsSL https://peria.ai/install.sh | bash

Étape 2 : Initialisation

$ precc init
[precc] Hook registered with Claude Code
[precc] Created ~/.local/share/precc/
[precc] Initialized heuristics.db with 8 built-in skills
[precc] Ready.

Étape 3 : Vérifier que le hook est actif

$ precc skills list
  # Name               Type      Triggers
  1 cargo-wrong-dir    built-in  cargo build/test/clippy outside Rust project
  2 git-wrong-dir      built-in  git * outside a repo
  3 go-wrong-dir       built-in  go build/test outside Go module
  4 make-wrong-dir     built-in  make without Makefile in cwd
  5 npm-wrong-dir      built-in  npm/npx/pnpm/yarn outside Node project
  6 python-wrong-dir   built-in  python/pytest/pip outside Python project
  7 jj-translate       built-in  git * in jj-colocated repo
  8 asciinema-gif      built-in  asciinema rec

Étape 4 : Utiliser Claude Code normalement

Ouvrez Claude Code et travaillez normalement. PRECC s’exécute silencieusement en arrière-plan. Quand Claude émet une commande qui échouerait, PRECC la corrige avant l’exécution.

Exemple : Cargo Build dans le mauvais répertoire

Supposons que votre projet est dans ~/projects/myapp/ et Claude exécute :

cargo build

depuis ~/projects/ (un niveau trop haut, pas de Cargo.toml là).

Sans PRECC : Claude reçoit l’erreur could not find Cargo.toml in /home/user/projects or any parent directory, la lit, raisonne, puis réessaie avec cd myapp && cargo build. Coût : ~2 000 tokens gaspillés.

Avec PRECC : Le hook détecte le Cargo.toml manquant, le trouve dans myapp/ et réécrit la commande en :

cd /home/user/projects/myapp && cargo build

Claude ne voit jamais d’erreur. Zéro token gaspillé.

Étape 5 : Vérifier vos économies

Après une session, voyez combien de tokens PRECC a économisé :

$ precc savings
Session Token Savings
=====================
Total estimated savings: 4,312 tokens

Breakdown:
  Pillar 1 (cd prepends):       2,104 tokens  (3 corrections)
  Pillar 4 (skill activations):   980 tokens  (2 activations)
  RTK rewrites:                 1,228 tokens  (5 rewrites)

Étapes suivantes

  • Compétences – Voir toutes les compétences disponibles et comment créer les vôtres.
  • Pipeline du hook – Comprenez ce qui se passe sous le capot.
  • Économies – Analyse détaillée des économies de tokens.

Licence

PRECC propose deux niveaux : Community (gratuit) et Pro.

Niveau Community (gratuit)

Le niveau Community comprend :

  • Toutes les compétences intégrées (correction de répertoire, traduction jj, etc.)
  • Pipeline de hooks avec support complet Pillar 1 et Pillar 4
  • Résumé de base de precc savings
  • Exploration de sessions avec precc ingest
  • Utilisation locale illimitée

Niveau Pro

Pro débloque des fonctionnalités supplémentaires :

  • Ventilation détaillée des économiesprecc savings --all avec analyse par commande
  • Enregistrement GIFprecc gif pour créer des GIFs animés de terminal
  • Conformité géobarrière IP – Pour les environnements réglementés
  • Rapports par e-mailprecc mail report pour envoyer des analyses
  • Analyse GitHub Actionsprecc gha pour le débogage des workflows échoués
  • Compression de contexteprecc compress pour l’optimisation de CLAUDE.md
  • Support prioritaire

Activer une licence

$ precc license activate XXXX-XXXX-XXXX-XXXX --email you@example.com
[precc] License activated for you@example.com
[precc] Plan: Pro
[precc] Expires: 2027-04-03

Vérifier le statut de la licence

$ precc license status
License: Pro
Email:   you@example.com
Expires: 2027-04-03
Status:  Active

Activation GitHub Sponsors

Si vous parrainez PRECC via GitHub Sponsors, votre licence est activée automatiquement via votre e-mail GitHub. Pas de clé requise – assurez-vous simplement que votre e-mail de parrainage correspond :

$ precc license status
License: Pro (GitHub Sponsors)
Email:   you@example.com
Status:  Active (auto-renewed)

Empreinte de l’appareil

Chaque licence est liée à une empreinte d’appareil. Consultez la vôtre avec :

$ precc license fingerprint
Fingerprint: a1b2c3d4e5f6...

Si vous devez transférer votre licence sur une nouvelle machine, désactivez d’abord :

precc license deactivate

Puis activez sur la nouvelle machine.

Licence expirée ?

Lorsqu’une licence Pro expire, PRECC revient au niveau Community. Toutes les compétences intégrées et les fonctionnalités de base continuent de fonctionner. Seules les fonctionnalités Pro deviennent indisponibles. Voir la FAQ pour plus de détails.

Pipeline du Hook

Le binaire precc-hook est le cœur de PRECC. Il se place entre Claude Code et le shell, traitant chaque commande bash en moins de 5 millisecondes.

Comment Claude Code invoque le Hook

Claude Code prend en charge les hooks PreToolUse – des programmes externes qui peuvent inspecter et modifier les entrées d’outils avant l’exécution. Quand Claude est sur le point d’exécuter une commande bash, il envoie du JSON à precc-hook sur stdin et lit la réponse depuis stdout.

Étapes du Pipeline

Claude Code
    |
    v
+---------------------------+
| 1. Parse JSON stdin       |  Read the command from Claude Code
+---------------------------+
    |
    v
+---------------------------+
| 2. Skill matching         |  Query heuristics.db for matching skills (Pillar 4)
+---------------------------+
    |
    v
+---------------------------+
| 3. Directory correction   |  Resolve correct working directory (Pillar 1)
+---------------------------+
    |
    v
+---------------------------+
| 4. GDB check              |  Detect debug opportunities (Pillar 2)
+---------------------------+
    |
    v
+---------------------------+
| 5. RTK rewriting          |  Apply command rewrites for token savings
+---------------------------+
    |
    v
+---------------------------+
| 6. Emit JSON stdout       |  Return modified command to Claude Code
+---------------------------+
    |
    v
  Shell executes corrected command

Exemple : Entrée et sortie JSON

Entrée (depuis Claude Code)

{
  "tool_input": {
    "command": "cargo build"
  }
}

PRECC détecte que le répertoire actuel n’a pas de Cargo.toml, mais ./myapp/Cargo.toml existe.

Sortie (vers Claude Code)

{
  "hookSpecificOutput": {
    "updatedInput": {
      "command": "cd /home/user/projects/myapp && cargo build"
    }
  }
}

Si aucune modification n’est nécessaire, updatedInput.command est vide et Claude Code utilise la commande originale.

Détails des étapes

Étape 1 : Analyser le JSON

Lit l’objet JSON complet depuis stdin. Extrait tool_input.command. Si l’analyse échoue, le hook se termine immédiatement et Claude Code utilise la commande originale (conception fail-open).

Étape 2 : Correspondance des compétences

Interroge la base de données heuristique SQLite pour les compétences dont le modèle de déclenchement correspond à la commande. Les compétences sont vérifiées par ordre de priorité. Les compétences TOML intégrées et les compétences extraites sont évaluées.

Étape 3 : Correction de répertoire

Pour les commandes de build (cargo, go, make, npm, python, etc.), vérifie si le fichier projet attendu existe dans le répertoire actuel. Sinon, analyse les répertoires voisins pour trouver la correspondance la plus proche et ajoute cd <dir> && en préfixe.

L’analyse de répertoire utilise un index de système de fichiers en cache avec un TTL de 5 secondes pour rester rapide.

Étape 4 : Vérification GDB

Si la commande est susceptible de produire un crash (ex. exécution d’un binaire de débogage), PRECC peut suggérer ou injecter des wrappers GDB pour capturer une sortie de débogage structurée au lieu de logs de crash bruts.

Étape 5 : Réécriture RTK

Applique les règles RTK (Rewrite Toolkit) qui raccourcissent les commandes verbeuses, suppriment les sorties bruyantes ou restructurent les commandes pour l’efficacité des tokens.

Étape 6 : Émettre le JSON

Sérialise la commande modifiée en JSON et l’écrit sur stdout. Si aucun changement n’a été effectué, la sortie signale à Claude Code d’utiliser la commande originale.

Performance

L’ensemble du pipeline s’exécute en moins de 5 millisecondes (p99). Optimisations clés :

  • SQLite en mode WAL pour des lectures concurrentes sans verrou
  • Modèles regex précompilés pour la correspondance des compétences
  • Scans du système de fichiers en cache (TTL de 5 secondes)
  • Aucun appel réseau dans le chemin critique
  • Fail-open : toute erreur retombe sur la commande originale

Tester le Hook manuellement

Vous pouvez invoquer le hook directement :

$ echo '{"tool_input":{"command":"cargo build"}}' | precc-hook
{"hookSpecificOutput":{"updatedInput":{"command":"cd /home/user/myapp && cargo build"}}}

Compétences

Les compétences sont les règles de correspondance de motifs que PRECC utilise pour détecter et corriger les commandes. Elles peuvent être intégrées (livrées en fichiers TOML) ou extraites des journaux de session.

Compétences intégrées

CompétenceDéclencheurAction
cargo-wrong-dircargo build/test/clippy en dehors d’un projet RustAjouter cd vers le répertoire Cargo.toml le plus proche
git-wrong-dirgit * en dehors d’un dépôt gitAjouter cd vers le répertoire .git le plus proche
go-wrong-dirgo build/test en dehors d’un module GoAjouter cd vers le répertoire go.mod le plus proche
make-wrong-dirmake sans Makefile dans le répertoire courantAjouter cd vers le répertoire Makefile le plus proche
npm-wrong-dirnpm/npx/pnpm/yarn en dehors d’un projet NodeAjouter cd vers le répertoire package.json le plus proche
python-wrong-dirpython/pytest/pip en dehors d’un projet PythonAjouter cd vers le projet Python le plus proche
jj-translategit * dans un dépôt jj colocaliséRéécrire en commande jj équivalente
asciinema-gifasciinema recRéécrire en precc gif

Lister les compétences

$ precc skills list
  # Name               Type      Triggers
  1 cargo-wrong-dir    built-in  cargo build/test/clippy outside Rust project
  2 git-wrong-dir      built-in  git * outside a repo
  3 go-wrong-dir       built-in  go build/test outside Go module
  4 make-wrong-dir     built-in  make without Makefile in cwd
  5 npm-wrong-dir      built-in  npm/npx/pnpm/yarn outside Node project
  6 python-wrong-dir   built-in  python/pytest/pip outside Python project
  7 jj-translate       built-in  git * in jj-colocated repo
  8 asciinema-gif      built-in  asciinema rec
  9 fix-pytest-path    mined     pytest with wrong test path

Afficher les détails d’une compétence

$ precc skills show cargo-wrong-dir
Name:        cargo-wrong-dir
Type:        built-in
Source:      skills/builtin/cargo-wrong-dir.toml
Description: Detects cargo commands run outside a Rust project and prepends
             cd to the directory containing the nearest Cargo.toml.
Trigger:     ^cargo\s+(build|test|clippy|run|check|bench|doc)
Action:      prepend_cd
Marker:      Cargo.toml
Activations: 12

Exporter une compétence en TOML

$ precc skills export cargo-wrong-dir
[skill]
name = "cargo-wrong-dir"
description = "Prepend cd for cargo commands outside a Rust project"
trigger = "^cargo\\s+(build|test|clippy|run|check|bench|doc)"
action = "prepend_cd"
marker = "Cargo.toml"
priority = 10

Modifier une compétence

$ precc skills edit cargo-wrong-dir

Cela ouvre la définition de la compétence dans votre $EDITOR. Après sauvegarde, la compétence est rechargée automatiquement.

La commande Advise

precc skills advise analyse votre session récente et suggère de nouvelles compétences basées sur des motifs répétés :

$ precc skills advise
Analyzed 47 commands from the last session.

Suggested skills:
  1. docker-wrong-dir: You ran `docker compose up` outside the project root 3 times.
     Suggested trigger: ^docker\s+compose
     Suggested marker: docker-compose.yml

  2. terraform-wrong-dir: You ran `terraform plan` outside the infra directory 2 times.
     Suggested trigger: ^terraform\s+(plan|apply|init)
     Suggested marker: main.tf

Accept suggestion [1/2/skip]?

Regrouper les compétences

$ precc skills cluster

Regroupe les compétences extraites similaires pour aider à identifier les motifs redondants ou chevauchants.

Compétences extraites vs. intégrées

Les compétences intégrées sont livrées avec PRECC et définies dans skills/builtin/*.toml. Elles couvrent les erreurs de mauvais répertoire les plus courantes.

Les compétences extraites sont créées par precc ingest ou le démon precc-learner à partir de vos journaux de session. Elles sont stockées dans ~/.local/share/precc/heuristics.db et sont spécifiques à votre flux de travail. Voir Extraction pour les détails.

Économies

PRECC suit les économies de tokens estimées à chaque interception. Utilisez precc savings pour voir combien de gaspillage PRECC a évité.

Résumé rapide

$ precc savings
Session Token Savings
=====================
Total estimated savings: <span data-stat="session_tokens_saved">8,741</span> tokens

Breakdown:
  Pillar 1 (cd prepends):         <span data-stat="session_p1_tokens">3,204</span> tokens  (<span data-stat="session_p1_count">6</span> corrections)
  Pillar 4 (skill activations):   <span data-stat="session_p4_tokens">1,560</span> tokens  (<span data-stat="session_p4_count">4</span> activations)
  RTK rewrites:                   <span data-stat="session_rtk_tokens">2,749</span> tokens  (<span data-stat="session_rtk_count">11</span> rewrites)
  Lean-ctx wraps:                 <span data-stat="session_lean_tokens">1,228</span> tokens  (<span data-stat="session_lean_count">2</span> wraps)

Ventilation détaillée (Pro)

$ precc savings --all
Session Token Savings (Detailed)
================================
Total estimated savings: <span data-stat="session_tokens_saved">8,741</span> tokens

Command-by-command:
  #  Time   Command                          Saving   Source
  1  09:12  cargo build                      534 tk   cd prepend (cargo-wrong-dir)
  2  09:14  cargo test                       534 tk   cd prepend (cargo-wrong-dir)
  3  09:15  git status                       412 tk   cd prepend (git-wrong-dir)
  4  09:18  npm install                      824 tk   cd prepend (npm-wrong-dir)
  5  09:22  find . -name "*.rs"              387 tk   RTK rewrite (output truncation)
  6  09:25  cat src/main.rs                  249 tk   RTK rewrite (lean-ctx wrap)
  7  09:31  cargo clippy                     534 tk   cd prepend (cargo-wrong-dir)
  ...

Pillar Breakdown:
  Pillar 1 (context resolution):   <span data-stat="session_p1_tokens">3,204</span> tokens  <span data-stat="session_p1_pct">36.6</span>%
  Pillar 2 (GDB debugging):            0 tokens   0.0%
  Pillar 3 (mined preventions):        0 tokens   0.0%
  Pillar 4 (automation skills):    <span data-stat="session_p4_tokens">1,560</span> tokens  <span data-stat="session_p4_pct">17.8</span>%
  RTK rewrites:                    <span data-stat="session_rtk_tokens">2,749</span> tokens  <span data-stat="session_rtk_pct">31.5</span>%
  Lean-ctx wraps:                  <span data-stat="session_lean_tokens">1,228</span> tokens  <span data-stat="session_lean_pct">14.1</span>%

Comment les économies sont estimées

Chaque type de correction a un coût estimé en tokens basé sur ce qui se serait passé sans PRECC :

Type de correctionÉconomie estiméeRaisonnement
cd prepend~500 tokensSortie d’erreur + raisonnement de Claude + nouvelle tentative
Activation de compétence~400 tokensSortie d’erreur + raisonnement de Claude + nouvelle tentative
RTK rewrite~250 tokensSortie verbose que Claude devrait lire
Lean-ctx wrap~600 tokensContenu de fichier volumineux compressé
Prévention apprise~500 tokensModèle d’échec connu évité

Ce sont des estimations conservatrices. Les économies réelles sont souvent plus élevées car le raisonnement de Claude sur les erreurs peut être verbose.

Économies cumulées

Les économies persistent entre les sessions dans la base de données PRECC. Au fil du temps, vous pouvez suivre l’impact total :

$ precc savings
Session Token Savings
=====================
Total estimated savings: <span data-stat="session_tokens_saved">8,741</span> tokens

Lifetime savings: <span data-stat="total_tokens_saved">142,389</span> tokens across <span data-stat="total_sessions">47</span> sessions

Status Bar

After installation, PRECC wires a statusLine entry into ~/.claude/settings.json so the Claude Code status bar shows live session metrics:

$0.42 spent | 1.2M in/out | 📊 last cmd: −1.2K | PRECC: 7 fixes | 5.8ms avg | this session: 320 saved over 7 cmds (~$0.05) | lifetime: 8.9K saved over 217 cmds (~$2.85)

Each segment:

SegmentSourceMeaningResets on session restart?
$0.42 spentClaude Code’s cost.total_cost_usdCumulative session cost reported by Claude CodeYes
1.2M in/outClaude Code’s total_input_tokens + total_output_tokensNon-cached input + output tokens across the sessionYes
📊 last cmd: −1.2KPRECC measurement of the most recent Bash commandReal ground-truth saving from re-running the originalNo (persists across sessions)
PRECC: 7 fixesPRECC session aggregate from metrics.logNumber of corrections this session — fix count only, no fake token estimateYes
5.8ms avgPRECC hook latency p50Time PRECC spent processing each tool callYes
bash 18% of totalPRECC post_observations.log filtered by session windowShare of session tokens that came from Bash output — clarifies why PRECC’s savings are naturally a fraction of total cost (PRECC only optimizes Bash output)Yes
this session: 320 saved over 7 cmds (~$0.05)~/.local/share/precc/.lifetime_summary.json minus the per-session baseline at ~/.local/share/precc/sessions/<session_id>.savings_baselineReal per-session delta. Baseline is captured the first time PRECC sees this session_id; subsequent refreshes compute current_lifetime − baseline so the value reflects savings accrued in this session only. Hidden when delta is zero (start of session)Yes (baseline re-snapshots)
lifetime: 8.9K saved over 217 cmds (~$2.85)~/.local/share/precc/.lifetime_summary.json + current session’s cost.total_cost_usd / total_used_tokens rateCumulative tokens saved and re-measured commands since PRECC was first installed, plus an estimated USD value computed from the current session’s per-token rate. Cost estimate is conservative — it uses (input+output) as the denominator while the cost includes cache tokens, so the per-token rate is overstated and the resulting savings figure is lower than actualNo

The lifetime: segment is placed last so it’s the first to be truncated if Claude Code’s UI clips the bar at the right edge.

Why cost and token count don’t divide

The displayed 1.2M in/out is not the denominator that produced $0.42 spent. Claude Code’s cost.total_cost_usd is computed from the API’s full token breakdown — base input, output, plus cache reads and cache creations. The session-wide cumulative cache token counts are not exposed in the statusline schema, so PRECC can only show the visible (non-cache) portion.

On long sessions with heavy file rereads, cache reads can be 10× the visible token count. That’s why pairing the two as a ratio would mislead — PRECC shows them as independent segments instead.

Why PRECC doesn’t compute the cost

The cost number is authoritative. PRECC reads cost.total_cost_usd verbatim from the JSON Claude Code pipes into the status command on stdin. That’s the same number Claude Code charges against your subscription/usage budget. You can verify it any time with the built-in /cost slash command — both should agree.

What drives the cost

For Claude Opus 4.6:

Token typeStandard (≤200k context)1M context tier
Input$15 / MTok$30 / MTok
Output$75 / MTok$150 / MTok
Cache write$18.75 / MTok$37.50 / MTok
Cache read$1.50 / MTok$3 / MTok

The biggest drivers on long sessions are usually:

  1. Output tokens — most expensive per-token type, especially on the 1M context tier
  2. Repeated cache reads — cheap individually but accumulate fast across many turns
  3. Cache creations — written once per file read, ~1.25× the base input rate

PRECC reduces the visible-token cost by compressing Bash output (the 📊 last cmd: segment shows the per-command saving), but it cannot reduce cache reads of files Claude has already loaded.

Stable session counts

The “PRECC: N fixes” segment counts events since the persisted session start, written to ~/.local/share/precc/sessions/<session_id>.start on the first statusline refresh of each session. This makes the count monotonic — it cannot drop mid-session even if cost.total_duration_ms is missing on a particular refresh (which would otherwise collapse the window to “since now” and silently drop nearly all events).

Auto-refreshed lifetime snapshot

The lifetime: segment reads ~/.local/share/precc/.lifetime_summary.json, which is rewritten:

  • On every PostToolUse measurement (so it stays current as commands accumulate)
  • On every precc savings invocation

The this session: segment reads the same lifetime file but subtracts a per-session baseline persisted to ~/.local/share/precc/sessions/<session_id>.savings_baseline on the first refresh of each session.

No need to manually refresh anything — the files update themselves.

Suppressing the status bar

If you’d rather keep your existing status bar, set your own statusLine command in ~/.claude/settings.json. PRECC’s installer will detect the custom value and leave it alone on subsequent updates.

To suppress only the per-interaction 📊 PRECC line (in additionalContext), set PRECC_QUIET=1 in your shell environment.

Compression

precc compress réduit CLAUDE.md et d’autres fichiers de contexte pour diminuer l’utilisation de tokens lorsque Claude Code les charge. C’est une fonctionnalité Pro.

Utilisation de base

$ precc compress .
[precc] Scanning directory: .
[precc] Found 3 context files:
         CLAUDE.md (2,847 tokens -> 1,203 tokens, -57.7%)
         ARCHITECTURE.md (4,112 tokens -> 2,044 tokens, -50.3%)
         ALTERNATIVES.md (3,891 tokens -> 1,967 tokens, -49.5%)
[precc] Total: 10,850 tokens -> 5,214 tokens (-51.9%)
[precc] Files compressed. Use --revert to restore originals.

Exécution à blanc

Aperçu des modifications sans modifier les fichiers :

$ precc compress . --dry-run
[precc] Dry run -- no files will be modified.
[precc] CLAUDE.md: 2,847 tokens -> 1,203 tokens (-57.7%)
[precc] ARCHITECTURE.md: 4,112 tokens -> 2,044 tokens (-50.3%)
[precc] ALTERNATIVES.md: 3,891 tokens -> 1,967 tokens (-49.5%)
[precc] Total: 10,850 tokens -> 5,214 tokens (-51.9%)

Restauration

Les originaux sont sauvegardés automatiquement. Pour les restaurer :

$ precc compress --revert
[precc] Restored 3 files from backups.

Ce qui est compressé

Le compresseur applique plusieurs transformations :

  • Supprime les espaces et lignes vides redondants
  • Raccourcit les formulations verbales tout en préservant le sens
  • Condense les tableaux et listes
  • Supprime les commentaires et le formatage décoratif
  • Préserve tous les blocs de code, chemins et identifiants techniques

La sortie compressée est toujours lisible par un humain – elle n’est ni minifiée ni obfusquée.

Cibler des fichiers spécifiques

$ precc compress CLAUDE.md
[precc] CLAUDE.md: 2,847 tokens -> 1,203 tokens (-57.7%)

Rapports

precc report génère un tableau de bord analytique résumant l’activité PRECC et les économies de tokens.

Générer un rapport

$ precc report
PRECC Report -- 2026-04-03
==========================

Sessions analyzed: 12
Commands intercepted: 87
Total token savings: 42,389

Top skills by activation:
  1. cargo-wrong-dir     34 activations   17,204 tokens saved
  2. npm-wrong-dir       18 activations    9,360 tokens saved
  3. git-wrong-dir       12 activations    4,944 tokens saved
  4. RTK rewrite         15 activations    3,750 tokens saved
  5. python-wrong-dir     8 activations    4,131 tokens saved

Savings by pillar:
  Pillar 1 (context resolution):  28,639 tokens  67.6%
  Pillar 4 (automation skills):    7,000 tokens  16.5%
  RTK rewrites:                    3,750 tokens   8.8%
  Lean-ctx wraps:                  3,000 tokens   7.1%

Recent corrections:
  2026-04-03 09:12  cargo build -> cd myapp && cargo build
  2026-04-03 09:18  npm test -> cd frontend && npm test
  2026-04-03 10:05  git status -> cd repo && git status
  ...

Envoyer un rapport par e-mail

Envoyez le rapport à une adresse e-mail (nécessite la configuration du courrier, voir Email) :

$ precc report --email
[precc] Report sent to you@example.com

L’adresse du destinataire est lue depuis ~/.config/precc/mail.toml. Vous pouvez aussi utiliser precc mail report EMAIL pour envoyer à une adresse spécifique.

Données du rapport

Les rapports sont générés à partir de la base de données PRECC locale dans ~/.local/share/precc/history.db. Aucune donnée ne quitte votre machine sauf si vous envoyez explicitement le rapport par e-mail.

Exploration

PRECC explore les journaux de session Claude Code pour apprendre les schémas échec-correction. Quand il revoit la même erreur, il applique la correction automatiquement.

Ingestion des journaux de session

Ingérer un seul fichier

$ precc ingest ~/.claude/logs/session-2026-04-03.jsonl
[precc] Parsing session-2026-04-03.jsonl...
[precc] Found 142 commands, 8 failure-fix pairs
[precc] Stored 8 patterns in history.db
[precc] 2 new skill candidates identified

Ingérer tous les journaux

$ precc ingest --all
[precc] Scanning ~/.claude/logs/...
[precc] Found 23 session files (14 new, 9 already ingested)
[precc] Parsing 14 new files...
[precc] Found 47 failure-fix pairs across 14 sessions
[precc] Stored 47 patterns in history.db
[precc] 5 new skill candidates identified

Forcer la réingestion

Pour retraiter les fichiers déjà ingérés :

$ precc ingest --all --force
[precc] Re-ingesting all 23 session files...

Comment fonctionne l’exploration

  1. PRECC lit le fichier journal JSONL de la session.
  2. Il identifie les paires de commandes où la première a échoué et la seconde était une correction.
  3. Il extrait le schéma (ce qui a mal tourné) et la correction (ce que Claude a fait différemment).
  4. Les schémas sont stockés dans ~/.local/share/precc/history.db.
  5. Quand un schéma atteint un seuil de confiance (vu plusieurs fois), il devient une compétence minée dans heuristics.db.

Exemple de schéma

Failure: pytest tests/test_auth.py
Error:   ModuleNotFoundError: No module named 'myapp'
Fix:     cd /home/user/myapp && pytest tests/test_auth.py
Pattern: pytest outside project root -> prepend cd

Le démon precc-learner

Le démon precc-learner s’exécute en arrière-plan et surveille automatiquement les nouveaux journaux de session :

$ precc-learner &
[precc-learner] Watching ~/.claude/logs/ for new sessions...
[precc-learner] Processing session-2026-04-03-1412.jsonl... 3 new patterns

Le démon utilise les notifications du système de fichiers (inotify sous Linux, FSEvents sous macOS) et réagit donc immédiatement à la fin d’une session.

Des schémas aux compétences

Les schémas minés deviennent des compétences lorsqu’ils répondent à ces critères :

  • Vus au moins 3 fois sur plusieurs sessions
  • Schéma de correction cohérent (même type de correction à chaque fois)
  • Aucun faux positif détecté

Vous pouvez examiner les candidats compétences avec :

$ precc skills advise

Voir Skills pour les détails sur la gestion des compétences.

Stockage des données

  • Paires échec-correction: ~/.local/share/precc/history.db
  • Compétences promues: ~/.local/share/precc/heuristics.db

Les deux sont des bases de données SQLite en mode WAL pour un accès concurrent sûr.

E-mail

PRECC peut envoyer des rapports et des fichiers par e-mail. Cela nécessite une configuration SMTP unique.

Configuration

$ precc mail setup
SMTP host: smtp.gmail.com
SMTP port [587]: 587
Username: you@gmail.com
Password: ********
From address [you@gmail.com]: you@gmail.com
[precc] Mail configuration saved to ~/.config/precc/mail.toml
[precc] Sending test email to you@gmail.com...
[precc] Test email sent successfully.

Fichier de configuration

La configuration est stockée dans ~/.config/precc/mail.toml :

[smtp]
host = "smtp.gmail.com"
port = 587
username = "you@gmail.com"
password = "app-password-here"
from = "you@gmail.com"
tls = true

Vous pouvez modifier ce fichier directement :

$EDITOR ~/.config/precc/mail.toml

Pour Gmail, utilisez un mot de passe d’application plutôt que votre mot de passe de compte.

Envoi de rapports

$ precc mail report team@example.com
[precc] Generating report...
[precc] Sending to team@example.com...
[precc] Report sent.

Envoi de fichiers

$ precc mail send colleague@example.com output.log
[precc] Sending output.log to colleague@example.com...
[precc] Sent (14.2 KB).

Support de relais SSH

Si votre machine ne peut pas atteindre un serveur SMTP directement (par exemple, derrière un pare-feu d’entreprise), PRECC prend en charge le relais via un tunnel SSH :

[smtp]
host = "localhost"
port = 2525

[ssh_relay]
host = "relay.example.com"
user = "you"
remote_port = 587
local_port = 2525

PRECC établira le tunnel SSH automatiquement avant l’envoi.

Enregistrement GIF

precc gif crée des enregistrements GIF animés de sessions de terminal à partir de scripts bash. C’est une fonctionnalité Pro.

Utilisation de base

$ precc gif script.sh 30s
[precc] Recording script.sh (max 30s)...
[precc] Running: echo "Hello, world!"
[precc] Running: cargo build --release
[precc] Running: cargo test
[precc] Recording complete.
[precc] Output: script.gif (1.2 MB, 24s)

Le premier argument est un script bash contenant les commandes à exécuter. Le second argument est la durée maximale d’enregistrement.

Format du script

Le script est un fichier bash standard :

#!/bin/bash
echo "Building project..."
cargo build --release
echo "Running tests..."
cargo test
echo "Done!"

Simulation d’entrée

Pour les commandes interactives, fournissez les valeurs d’entrée comme arguments supplémentaires :

$ precc gif interactive-demo.sh 60s "yes" "my-project" "3"

Chaque argument supplémentaire est fourni comme une ligne stdin lorsque le script demande une entrée.

Options de sortie

Le fichier de sortie est nommé d’après le script par défaut (script.gif). Le GIF utilise un thème de terminal sombre avec des dimensions standard 80x24.

Pourquoi GIF au lieu d’asciinema ?

La compétence intégrée asciinema-gif réécrit automatiquement asciinema rec en precc gif. Les fichiers GIF sont plus portables – ils s’affichent en ligne dans les README GitHub, Slack et les e-mails sans nécessiter de lecteur.

Analyse GitHub Actions

precc gha analyse les exécutions GitHub Actions échouées et suggère des corrections. C’est une fonctionnalité Pro.

Utilisation

Passez l’URL d’une exécution GitHub Actions échouée :

$ precc gha https://github.com/myorg/myrepo/actions/runs/12345678
[precc] Fetching run 12345678...
[precc] Run: CI / build (ubuntu-latest)
[precc] Status: failure
[precc] Failed step: Run cargo test

[precc] Log analysis:
  Error: test result: FAILED. 2 passed; 1 failed
  Failed test: tests::integration::test_database_connection
  Cause: thread 'tests::integration::test_database_connection' panicked at
         'called Result::unwrap() on an Err value: Connection refused'

[precc] Suggested fix:
  The test requires a database connection but the CI environment does not
  start a database service. Add a services block to your workflow:

    services:
      postgres:
        image: postgres:15
        ports:
          - 5432:5432
        env:
          POSTGRES_PASSWORD: test

Ce qu’il fait

  1. Analyse l’URL d’exécution GitHub Actions pour extraire le propriétaire, le dépôt et l’ID d’exécution.
  2. Récupère les journaux d’exécution via l’API GitHub (utilise GITHUB_TOKEN si défini, sinon accès public).
  3. Identifie l’étape échouée et extrait les lignes d’erreur pertinentes.
  4. Analyse l’erreur et suggère une correction basée sur les modèles courants d’échec CI.

Modèles d’échec pris en charge

  • Conteneurs de services manquants (bases de données, Redis, etc.)
  • Système d’exploitation ou architecture du runner incorrects
  • Variables d’environnement ou secrets manquants
  • Échecs d’installation de dépendances
  • Délais d’attente des tests
  • Erreurs de permissions
  • Manques de cache causant des builds lents

Géorepérage

PRECC inclut la vérification de conformité de géorepérage IP pour les environnements réglementés. C’est une fonctionnalité Pro.

Vue d’ensemble

Certaines organisations exigent que les outils de développement ne fonctionnent que dans des régions géographiques approuvées. La fonctionnalité de géorepérage de PRECC vérifie que l’adresse IP de la machine actuelle se trouve dans une liste de régions autorisées.

Vérification de la conformité

$ precc geofence check
[precc] Current IP: 203.0.113.42
[precc] Region: US-East (Virginia)
[precc] Status: COMPLIANT
[precc] Policy: us-east-1, us-west-2, eu-west-1

Si la machine est en dehors des régions autorisées :

$ precc geofence check
[precc] Current IP: 198.51.100.7
[precc] Region: AP-Southeast (Singapore)
[precc] Status: NON-COMPLIANT
[precc] Policy: us-east-1, us-west-2, eu-west-1
[precc] Warning: Current region is not in the allowed list.

Actualisation des données de géorepérage

$ precc geofence refresh
[precc] Fetching updated IP geolocation data...
[precc] Updated. Cache expires in 24h.

Affichage des informations de géorepérage

$ precc geofence info
Geofence Configuration
======================
Policy file:    ~/.config/precc/geofence.toml
Allowed regions: us-east-1, us-west-2, eu-west-1
Cache age:      2h 14m
Last check:     2026-04-03 09:12:00 UTC
Status:         COMPLIANT

Vider le cache

$ precc geofence clear
[precc] Geofence cache cleared.

Configuration

La politique de géorepérage est définie dans ~/.config/precc/geofence.toml :

[geofence]
allowed_regions = ["us-east-1", "us-west-2", "eu-west-1"]
check_on_init = true
block_on_violation = false

Définissez block_on_violation = true pour empêcher PRECC de fonctionner en dehors des régions autorisées.

Télémétrie

PRECC prend en charge la télémétrie anonyme optionnelle pour aider à améliorer l’outil. Aucune donnée n’est collectée sans votre consentement explicite.

Activer

$ precc telemetry consent
[precc] Telemetry enabled. Thank you for helping improve PRECC.
[precc] You can revoke consent at any time with: precc telemetry revoke

Désactiver

$ precc telemetry revoke
[precc] Telemetry disabled. No further data will be sent.

Vérifier le statut

$ precc telemetry status
Telemetry: disabled
Last sent: never

Aperçu des données qui seraient envoyées

Avant d’activer, vous pouvez voir exactement quelles données seraient collectées :

$ precc telemetry preview
Telemetry payload (this session):
{
  "version": "0.3.0",
  "os": "linux",
  "arch": "x86_64",
  "skills_activated": 12,
  "commands_intercepted": 87,
  "pillars_used": [1, 4],
  "avg_hook_latency_ms": 2.3,
  "session_count": 1
}

Ce qui est collecté

  • Version de PRECC, système d’exploitation et architecture
  • Compteurs agrégés : commandes interceptées, compétences activées, piliers utilisés
  • Latence moyenne du hook
  • Nombre de sessions

Ce qui N’est PAS collecté

  • Pas de texte de commande ni d’arguments
  • Pas de chemins de fichiers ni de noms de répertoires
  • Pas de noms de projets ni d’URLs de dépôts
  • Aucune information personnellement identifiable (PII)
  • Pas d’adresses IP (le serveur ne les enregistre pas)

Remplacement par variable d’environnement

Pour désactiver la télémétrie sans exécuter de commande (utile en CI ou environnements partagés) :

export PRECC_NO_TELEMETRY=1

Ceci a priorité sur le paramètre de consentement.

Destination des données

Les données de télémétrie sont envoyées à https://telemetry.peria.ai/v1/precc via HTTPS. Les données sont utilisées uniquement pour comprendre les schémas d’utilisation et prioriser le développement.

Carte mentale

Cette page est générée automatiquement à partir de mindmap.db — un instantané SQLite de toutes les sessions de développement PRECC et des commits git enregistrés. Chaque ligne peut être retracée jusqu’à sa source (commit:<sha>, session:<id> ou doc:<path>).

Aperçu

  • Sessions analysées: 22
  • Messages: 14023
  • Appels d’outils: 5072
  • Commits: 205
  • Plage de temps: 2026-03-20T07:04:14.787Z → 2026-04-19T11:50:10.153Z
  • Effort (tokens):
    • entrée: 27928
    • sortie: 2750669
    • écritures du cache: 43349705
    • lectures du cache: 1936351239

Fonctionnalités

PortéeTitreStatutCommitsTokensPremierDernierSource
benchfeat(bench): SWE-bench Verified/Lite driver scaffoldingstabilizing443442992026-04-172026-04-17commit:5bdd027d
benchmark_gate.shfeat: benchmark_gate.sh + pin tb dataset to 0.1.1shipped143442992026-04-172026-04-17commit:99fa9a74
realfeat: real lean-ctx (not stub), wider campaign, doc updatesshipped2298211522026-04-072026-04-17commit:6095720a
precc_mode=benchmarkfeat: PRECC_MODE=benchmark toggle + pairwise benchmark harnessshipped143442992026-04-172026-04-17commit:50c5a30f
addfeat: add precc update self-update commandshipped14425571072026-03-092026-04-17commit:e5542fba
negotiablefeat: negotiable rewrites, skill decay, explain/undo — response to criticshipped143442992026-04-172026-04-17commit:6fda67e4
statuslinefeat: statusline shows actual session token consumption + coststabilizing3254249152026-04-082026-04-13commit:4f65556d
publicfeat: public repo commits attributed to Ce-cyber-artshipped1253821192026-04-102026-04-10commit:0e4840e4
shortfeat: short install URL https://peria.ai/install.shshipped1253821192026-04-092026-04-09commit:615d3d06
rewritefeat: rewrite Pillar 2b (ccc) and Pillar 3 (compress) in Rust for single-binary deploymentshipped2381180742026-03-202026-04-08commit:78621579
shortenfeat: shorten statusline segments to fit narrower terminalsshipped1253821192026-04-082026-04-08commit:ef2c88b4
dropfeat: drop fake token estimate, append cost estimate to lifetime segmentstabilizing2253821192026-04-082026-04-08commit:2702f3f9
updatefeat: update pricing to $5/6mo + $10/yr, add webhook serverstabilizing9381180742026-02-252026-04-08commit:2d366031
clearerfeat: clearer statusline labels — meas:, drop confusing %, add bash shareshipped1253821192026-04-082026-04-08commit:4cd837b7
stablefeat: stable machine_hash for telemetry dedupstabilizing2253821192026-04-082026-04-08commit:3073f428
lifetimefeat: lifetime savings segment in statuslineshipped1253821192026-04-082026-04-08commit:9af422e8
preccfeat: precc analyze frequencies — data-driven rule gap discoveryshipped3253821192026-04-072026-04-08commit:d6f24c50
per-interactionfeat: per-interaction PRECC savings line in PostToolUseshipped1253821192026-04-082026-04-08commit:e3bc282e
webhookfeat: webhook auto-regenerates stats.json on telemetry POSTstabilizing2291341862026-03-312026-04-08commit:912b75f3
per-emailfeat: per-email aggregation for telemetryshipped1253821192026-04-082026-04-08commit:14c95e7d
v0.3.3feat: v0.3.3 — companion tools default-on, install-script clarityshipped1253821192026-04-072026-04-07commit:48fca046
measurementfeat: measurement campaign script — real per-mode measurementsshipped1253821192026-04-072026-04-07commit:36760587
quote-awarefeat: quote-aware chain split + sysadmin tool whitelist (54.2% → 55.5%)shipped1253821192026-04-072026-04-07commit:f6580598
;feat: ; chain support + ssh inner-command parsing for measurementshipped1253821192026-04-072026-04-07commit:10093218
expandfeat: expand is_safe_to_rerun coverage + measurement timeout/cacheshipped1253821192026-04-072026-04-07commit:c5a7ea79
multi-modefeat: multi-mode adaptive compression with failure learningshipped1253821192026-04-072026-04-07commit:81475afc
measuredfeat: measured savings in telemetry, detailed live stats, update nudgeshipped1253821192026-04-062026-04-06commit:06907091
scientificfeat: scientific token savings measurement, telemetry dedup, 28-language docsshipped1253821192026-04-062026-04-06commit:78a20ef2
v0.3.2feat: v0.3.2 — hook safety, adaptive compression, on-demand metrics importshipped1253821192026-04-052026-04-05commit:a0c0c882
self-hostedfeat: self-hosted telemetry endpoint at peria.ai, install UX improvementsshipped125657032026-04-042026-04-04commit:8212a18e
auto-updatefeat: auto-update consent prompt on init and manual updateshipped119243022026-04-022026-04-02commit:818be6dd
useperf: use pre-built binaries for lean-ctx and nushell installationstabilizing4101702522026-03-092026-03-31commit:8c612e55
authorizefeat: authorize peria.ai server for license key generationshipped211863642026-03-312026-03-31commit:53dfe832
licensefeat: license keys, SMTP mail-agent, updated business plan and demosstabilizing2101702522026-03-092026-03-31commit:b07c9dfb
lean-ctxfeat: lean-ctx integration for deep output compressionshipped111863642026-03-312026-03-31commit:07361e62
integratefeat: integrate three-pillar savings from precc-cc (cocoindex-code, token-saver, ClawHub)shipped2101702522026-03-202026-03-31commit:af4205f1
windowsfeat: Windows build via CI, deploy triggers workflowstabilizing225336922026-03-292026-03-29commit:7404761b
monthlyfeat: monthly usage report via email for Pro usersshipped125336922026-03-282026-03-28commit:77ad78bc
nushellfeat: nushell what-if analysis, skill clustering, comment blocker, bash unwrap (v0.2.6)shipped123379412026-03-272026-03-27commit:803df684
geofencefeat: geofence compliance guard, 3rd-party skill Claude interaction tracking (v0.2.5)shipped123379412026-03-262026-03-26commit:0c9fc765
stripefeat: Stripe payment integration, context pressure, GHA analysisshipped224570882026-03-212026-03-22commit:8eb16f78
contextfeat: context pressure warning, GHA analysis, statusline context %shipped121661412026-03-202026-03-20commit:894621ba
statusline,feat: statusline, squash deploy, ClaWHub metadata, SHA256 checksumsshipped121661412026-03-202026-03-20commit:7ab15883
gumroadfeat: Gumroad license verification via API (v0.2.2)shipped102026-03-132026-03-13commit:75c5e480
per-userfeat: per-user email-based license keys with Gumroad webhook (v0.2.2)shipped102026-03-132026-03-13commit:6d056958
posttoolusefeat: PostToolUse observability + comprehensive test coverage (v0.2.1)shipped102026-03-122026-03-12commit:6e33b7e4
multi-toolfeat: multi-tool hook dispatch, subagent propagation & Read/Grep filters (v0.2.0)shipped102026-03-122026-03-12commit:1bf5a108
skillfeat: skill advisor, sharing credits, telemetry & Rust actionbook (v0.1.9)shipped102026-03-122026-03-12commit:d41d310e
firefeat: fire anonymous update-check ping on precc update (opt-out via PRECC_NO_TELEMETRY=1)shipped102026-03-102026-03-10commit:7acce69d
enforcefeat: enforce license tier gates (Free/Pro) on ingest, mined skills, gif, mail, savingsshipped102026-03-102026-03-10commit:a7bd23e3
translatefeat: translate git commands to jj (Jujutsu) in colocated reposshipped102026-03-092026-03-09commit:d8a29e48
rtkfeat(rtk): sync rewrite rules with upstream RTK v0.27.2shipped102026-03-092026-03-09commit:ad7dca0e
applyfeat: apply skill portfolio per command for maximum token savingsshipped102026-03-092026-03-09commit:b2490073
pitchfeat(pitch): add bilingual EN/ZH PowerPoint pitch deckshipped202026-02-272026-02-28commit:8876c4b7
hookperf(hook): skip heuristics.db open via plain-text prefix cacheshipped102026-02-272026-02-27commit:89537483
initfeat(init): embed builtin skills in binary via include_str!shipped102026-02-262026-02-26commit:3a837b13
clifeat(cli): add precc skills export commandshipped202026-02-262026-02-26commit:59beea8d
gdbfeat(gdb): re-enable Pillar 2 GDB hook suggestionshipped102026-02-262026-02-26commit:a8428025
skillsfeat(skills): add git wrong-dir skill and context mappingstabilizing202026-02-252026-02-25commit:352474e1
metricsfeat(metrics): record hook latency, rtk_rewrite, cd_prepend via append-logshipped102026-02-252026-02-25commit:9bf31d12
demofeat(demo): add investor demo suiteshipped102026-02-252026-02-25commit:c818a0ac
securityfeat(security): SQLCipher encryption, binary hardening, multi-platform CIshipped102026-02-252026-02-25commit:efd3dfc8
ingestfeat(ingest): add –force flag to re-mine already-recorded sessionsshipped102026-02-222026-02-22commit:85cc8f6f

Dépendances (modules precc-core)

  • advisordb, promote, skills
  • dietlean_ctx
  • metricsdb
  • miningskills
  • mode_selectordb, mode
  • multi_probediet, lean_ctx, mode, nushell, post_observe, rtk
  • nushelllean_ctx, mining, rtk
  • promotedb, skills
  • rtklean_ctx
  • sharingdb, license, skills
  • skill_advisormining, nushell
  • skillsdb
  • telemetrydb, license, mining

Plans et tâches

Plans (invites de conception/architecture)

  • [proposed] indeed the measurement needs to be based on precc-cc’s established KPI’s. If the two ideas are so close, perhaps you can draft a plan to integrate them (algorithmatically) step-by-step, then start to use Rust (consistent with Precc) to impl… — session:905ff169 (2026-04-18)
  • [proposed] 西班牙语网站上有人评价:中文翻譯(繁體): — session:781fe484 (2026-04-16)
  • [proposed] That’s a really solid framing — using pre-tool-call hooks as quality gates instead of just optimization is a big shift in mindset. You’re essentially moving from “make the model cheaper” to “make the system more correct,” whic… — session:ebd81938 (2026-04-05)
  • [proposed] Plan the integration of both tools, make sure we don’t take their credit and maintain a clear interface so that once it evolves, we can get smaller changes to integrate with their future changes — session:43541885 (2026-03-31)
  • [proposed] for the benchmark, we need to prepare a table to record the comparison for existing historical scenarios, as a “what-if” analysis because there is no way to measure the results for future usages. For this requirement, plan out a step-by-ste… — session:5761d7ca (2026-03-27)
  • [proposed] while bash could be improved using RTK, would its replacement with nushell a better choice for Claude Code? If so, plan an option for replacing bash with nushell to gain better accuracy and hence potentially more token savings by some small… — session:5761d7ca (2026-03-27)

Tâches (entrées TaskCreate / TodoWrite)

  • completed: 89
  • in_progress: 3
  • deleted: 2

30 tâches les plus récentes :

  • [completed] Re-ingest and review residual pending — Run precc mindmap build after the fix, then classify the actually-pending tasks (done-but-unclosed vs genuinely-unfinished). — session:0925455d (2026-04-19)
  • [completed] Fold TaskCreate/TaskUpdate + dedupe TodoWrite — Replay TaskCreate/TaskUpdate events per (session_id, taskId) to derive final status. For TodoWrite, keep only the last call per session. — session:0925455d (2026-04-19)
  • [completed] Run ingest and produce MINDMAP.md — Execute ingest on local sessions + git, then render output to docs/MINDMAP.md. — session:0925455d (2026-04-19)
  • [completed] Wire precc mindmap CLI subcommand — Add ingest/render subcommands to precc-cli. — session:0925455d (2026-04-19)
  • [completed] Write mindmap render module — Query DB and render nested markdown mindmap with KPIs, features, plans, blockers. — session:0925455d (2026-04-19)
  • [completed] Write mindmap ingest module — Parse JSONL sessions + git log, extract messages/tokens/commands/decisions into SQLite. — session:0925455d (2026-04-19)
  • [completed] Design SQLite mindmap schema — Tables: sessions, messages, commands, features, plans, tasks, kpis, decisions, dependencies. Every row traces to source (session_id+uuid or commit sha). — session:0925455d (2026-04-19)
  • [in_progress] Step 4: HeaderSlicePass + kernel corpus — Shallow-clone Linux kernel, adapt filter for kernel conventions (Fixes: tag, selftests/ and kunit test-surface detection, .c/.h classification). Measure how many recent fix commits ship with a test an… — session:905ff169 (2026-04-19)
  • [completed] Step 6: concurrency extraction — Add Pipeline::run_parallel_applies that parallelizes applies() via std::thread::scope when pass count ≥ threshold. Falls back to serial below threshold (thread-spawn overhead > savings). Benchmark s… — session:905ff169 (2026-04-19)
  • [completed] [parallel] AST-aware #[test] extractor — Use syn (Rust) or tree-sitter-rust (Python) to detect added #[test] fns in a commit diff and emit a test-only patch. Gates fail→pass verification on this repo. Not blocking; parallel work for the Ru… — session:905ff169 (2026-04-19)
  • [completed] Step 7: precc skvm report tooling — Wire had_solid_hit into metrics log. Add precc skvm report that surfaces pass activation counts, cache hit rate, hook-latency percentiles. Read from metrics.db + skvm_solid_cache. Closes the observa… — session:905ff169 (2026-04-19)
  • [completed] Wire SolidificationPass into live hook — Add stage_solidification_lookup (front, short-circuits on hit) and stage_solidification_record (end) to Pipeline. Gate behind PRECC_SOLIDIFY. Add had_solid_hit flag. Open cache via db::open_metrics fo… — session:905ff169 (2026-04-19)
  • [completed] Step 3: solidification cache — skvm::solid module: Cache (SQLite-backed) with lookup/record, Key with normalization, SolidificationPass at pipeline front. Gated by PRECC_SOLIDIFY=1. Tests with in-memory DB. No wiring into live hook… — session:905ff169 (2026-04-19)
  • [completed] Wire CdPrependPass into hook’s stage_context — Replace the direct context::resolve/apply calls in precc-hook::Pipeline::stage_context with CdPrependPass via HookIR. Verify no hook tests regress; full cargo test green. — session:905ff169 (2026-04-19)
  • [completed] Step 2: migrate cd_prepend through Pass trait — Re-express the existing cd-prepend stage as a Pass impl that reuses the current context resolution. Diff-test: on a fixture corpus, the new pass must produce byte-identical output to the legacy path. … — session:905ff169 (2026-04-19)
  • [completed] Step 5 preview: CrateSlicePass sketch — Implement CrateSlicePass in precc-core::skvm::passes::crate_slice. Detects cargo &lt;build\|test\|check\|clippy&gt; without -p, reads cached cargo metadata, narrows to -p when unambiguous. Wire a minimal K… — session:905ff169 (2026-04-19)
  • [completed] Step 1: Pass trait + HookIR — precc-core::skvm::{pass, ir}. Pass trait with name/capability/applies/run. HookIR holds command, cwd, and mutable output. Capability enum: Detect|Rewrite|Slice|Verify. No behavior change; no passes re… — session:905ff169 (2026-04-19)
  • [completed] Step 0: baseline harness — Add precc-core::skvm::baseline module + precc report --skvm-baseline subcommand. Snapshots K1 (hook latency p50/p99), K3 (token savings total), activation counts from metrics.db into a named baselin… — session:905ff169 (2026-04-19)
  • [completed] Build K3-only replay corpus — For each of the 82 fix-surface commits, derive ground-truth set of changed crates and emit realistic cargo commands. CrateSlicePass evaluation will read this corpus and measure narrowing precision/rec… — session:905ff169 (2026-04-18)
  • [deleted] Run verifier over 33 candidates — Execute verifier, collect verdicts. Apply size gate to verified set. Emit precc_self_corpus.jsonl. — session:905ff169 (2026-04-18)
  • [deleted] Write fail-at-parent verifier — Per candidate: git worktree at parent, apply only test-file diff, cargo test (expect added tests FAIL), reset + apply full commit, cargo test (expect PASS). Per-worktree CARGO_TARGET_DIR to avoid tras… — session:905ff169 (2026-04-18)
  • [completed] Classify test surface of 33 candidates — Split candidates into pure_test_path (tests/ only) vs mixed_file_test (production + #[test] in same file). Reports count by class. Cheap, no cargo. — session:905ff169 (2026-04-18)
  • [completed] Run first Terminal-bench batch (5 tasks) — Execute scripts/benchmark.sh –tasks 5 using OAuth token from subscription as ANTHROPIC_API_KEY. Verify arm A (vanilla) works, then arm B (PRECC), then compare.json. — session:781fe484 (2026-04-17)
  • [completed] Add precc explain and precc undo — explain –since 1h: lists recent rewrites with diff + skill + confidence (reads stash + rewrite_log). undo <id>: re-disables the skill that produced rewrite id. — session:781fe484 (2026-04-16)
  • [completed] Confidence decay on retry-after-rewrite — post_observe: if same command class is retried within 60s after a PRECC rewrite, decrement skill confidence by 0.05 (or count as false-correction event). Below SUGGEST_THRESHOLD (0.3) skill auto-disab… — session:781fe484 (2026-04-16)
  • [completed] Add precc skills disable/enable per-project — CLI commands to disable a skill in the current project (writes to .precc/disabled-skills file at project root). Hook reads this list and skips matching skills. — session:781fe484 (2026-04-16)
  • [completed] Make every rewrite visible via additionalContext — In precc-hook, whenever the pipeline produces a non-trivial rewrite (cd-prepend, skill, RTK, lean-ctx, nushell, diet), append a one-line summary “PRECC rewrote: <orig> -> <new> [reason]” to additional… — session:781fe484 (2026-04-16)
  • [completed] Soften overstated claims in intro — Replace “Claude never sees the error. No tokens wasted.” with measured language matching README. Update strings_intro.sql and re-translate the new key for all 28 langs. — session:781fe484 (2026-04-16)
  • [completed] Fix per-language html lang and dir — build-book.sh must rewrite book.toml language= and text-direction= per language so generated pages have correct lang/dir attributes. RTL for ar, fa. — session:781fe484 (2026-04-16)
  • [completed] Rebuild book and verify — Run scripts/build-book.sh to regenerate introduction.md per language, verify first lines now show translations — session:781fe484 (2026-04-16)

Bloqueurs (échecs/blocages signalés par l’utilisateur)

  • look at all the historical session logs and executed commands to summarize a mark down document like Mindmap showing (1) the features, status, decisions, dependencies, and effort (tokens releated to its development); (2) the plans, tasks, s… — session:0925455d (2026-04-19)
  • check if it is working? why precc savings –all doesn’t work? — session:ebd81938 (2026-04-13)
  • i tried that url it doesn’t work? — session:ebd81938 (2026-04-08)
  • why I can’t see the “last: “ messages? — session:ebd81938 (2026-04-08)
  • not yet. I would wait to get more data from telemetry to update the website. But now you need to investigate on those “unmeasured” cases, why we cannot measure them? — session:ebd81938 (2026-04-07)
  • regarding the live usage statistics https://precc.cc/en/#live-usage-statistics, we need to report the percentages based on the duration of releases, i.e., how much saving was made by which release (otherwise it is easy to mislead readers to… — session:ebd81938 (2026-04-06)
  • https://precc.cc cannot find the server — session:ebd81938 (2026-04-05)
  • can see key_id mk_1TDiUmFxhHEidPnDw5esdOMa, but cannot reveal or see the sk_live_… — session:d65ad15f (2026-04-01)
  • PS C:\Users\y00577373> iwr -useb https://raw.githubusercontent.com/peria-ai/precc-cc/main/scripts/install.ps1 | iex — session:10175339 (2026-03-30)
  • why can’t you create peria-ai or peri-a-i organizations — session:10175339 (2026-03-28)
  • the hello_world_do example has the following errors: NPU run failed. — session:3b5e2947 (2026-03-22)

Décisions et justifications

  • feat(bench): clean-subset metrics (exclude timeouts & infra failures) — When one arm times out or the agent fails to install, the resulting tokens/pass numbers aren’t measuring PRECC — they’re measuring tb’s source: commit:5bdd027d (commit 2026-04-17)
  • fix(bench): drop –include-hook-events (causes 401 Invalid API key) — Adding --include-hook-events to the tb agent command caused Claude Code to return api_error_status=401 on first turn, even though the source: commit:025995d9 (commit 2026-04-17)
  • feat: PRECC_MODE=benchmark toggle + pairwise benchmark harness — Problem (from reviewer): the “trivial vs semantic” error-shaping claim is rhetoric without a measurable boundary. A rewriter that saves tokens source: commit:50c5a30f (commit 2026-04-17)
  • docs: update savings.md.tpl + README to match new statusline labels — - Σ → meas: throughout - New ‘bash X% of total’ segment row in segment table source: commit:2d366031 (commit 2026-04-08)
  • feat: clearer statusline labels — meas:, drop confusing %, add bash share — Three statusline UX changes from user feedback: 1. Lifetime segment renamed from ‘Σ 8.9K (22% over 217)’ to source: commit:4cd837b7 (commit 2026-04-08)
  • docs: explain statusline cost vs token semantics in book + README — Adds a ‘Status Bar’ section to docs/book/templates/savings.md.tpl and README.md explaining: source: commit:6028b64c (commit 2026-04-08)
  • feat: v0.3.3 — companion tools default-on, install-script clarity — The single biggest change: install.sh now installs companion tools (lean-ctx, RTK, nushell, cocoindex-code) BY DEFAULT instead of source: commit:48fca046 (commit 2026-04-07)
  • feat: quote-aware chain split + sysadmin tool whitelist (54.2% → 55.5%) — Three improvements that increase measurable Bash invocation coverage: 1. Quote-aware top-level chain split source: commit:f6580598 (commit 2026-04-07)
  • fix: command_class env stripping, skill validation, ssh/journalctl/kubectl diet rules — 1. command_class strips env prefixes and noise: - RUST_BACKTRACE=1 cargo test → “cargo test” source: commit:f4220343 (commit 2026-04-07)
  • feat: multi-mode adaptive compression with failure learning — New modules: - mode.rs: CompressionMode enum (basic/diet/nushell/lean-ctx/rtk/adaptive-expand) source: commit:81475afc (commit 2026-04-07)
  • test: comprehensive tests for ccc and compress modules (319 → 386 tests) — ccc.rs: +20 tests covering edge cases for is_eligible (flags, whitespace, empty input), extract_pattern (no path, multiple flags, boundary length), source: commit:448430e2 (commit 2026-03-20)
  • feat(gdb): re-enable Pillar 2 GDB hook suggestion — - Add open_history_readonly() to db.rs (same pattern as heuristics) - Add count_recent_failures() to gdb.rs: queries failure_fix_pairs for source: commit:a8428025 (commit 2026-02-26)
  • fix(mining): correct summary counters and orphaned events on –force re-mine — Three bugs fixed: 1. mine_session returned Skipped for sessions with no Bash events even source: commit:3ef089d8 (commit 2026-02-22)
  • 1. Compiled Rust Binary vs Shell ScriptDecision: Replace the rtk-rewrite.sh shell script hook with a compiled Rust binary (precc-hook). Alternatives considered: source: doc:ALTERNATIVES.md
  • 2. SQLite vs Key-Value StoreDecision: Use SQLite for both history.db and heuristics.db. Alternatives considered: source: doc:ALTERNATIVES.md
  • 3. Workspace of 4 Crates vs MonolithDecision: Structure the project as a Cargo workspace with 4 crates: precc-core, precc-hook, precc-cli, precc-learner. Alternatives considered: source: doc:ALTERNATIVES.md
  • 4. GDB Hook Integration vs Standalone CLIDecision: Implement GDB debugging as a CLI command (precc debug) rather than as an automatic hook rewrite. Alternatives considered: source: doc:ALTERNATIVES.md
  • 5. Background Daemon vs On-Demand MiningDecision: Support both modes — precc-learner daemon for continuous mining, precc ingest for on-demand. Alternatives considered: source: doc:ALTERNATIVES.md
  • 6. Confidence ThresholdsDecision: Three-tier confidence system: auto-apply (≥ 0.7), suggest (0.3-0.7), hidden (< 0.3). Alternatives considered: source: doc:ALTERNATIVES.md
  • 7. RTK Subsumption StrategyDecision: Port RTK’s rewriting logic into precc-core as the final pipeline stage, rather than running both hooks in sequence. Alternatives considered: source: doc:ALTERNATIVES.md
  • 8. Skill Storage FormatDecision: TOML files for built-in skills, SQLite rows for mined/user skills. Alternatives considered: source: doc:ALTERNATIVES.md
  • 9. Session Log FormatDecision: Read Claude Code’s native JSONL format directly rather than converting to a custom format. Rationale: Claude Code already writes detailed session logs in JSONL format at ~/.claude/projects/*/. Creating a custom format would mean: source: doc:ALTERNATIVES.md

KPI dans le temps

MétriqueUnitéPremierDernierΔÉchantillonsDernière source
atx0.11.25+1.152commit:4f65556d
buildms3480+4772commit:f84bab49
hookms53-22commit:f81e4543
precctokens42387-3362commit:e3bc282e
savedms4.86.3+1.52commit:ec17f16c

Effort par session (top 10 par tokens)

SessionPremier → DernierMsgsentréesortieÉcriture cacheLecture cache
ebd819382026-04-04 → 2026-04-1345174547686622246909501020430414
781fe4842026-04-16 → 2026-04-17143413416035963739362259708120
101753392026-03-28 → 2026-03-30131811761024692430047110606429
5761d7ca2026-03-26 → 2026-03-28118043631370562196522116605673
550c7bab2026-03-20 → 2026-03-2210641466104943205973292991217
905ff1692026-04-18 → 2026-04-196501698496929157266863432376
d65ad15f2026-03-31 → 2026-04-0475255878099184564558334554
3b5e29472026-03-22 → 2026-03-2311628961280681526203102403205
0925455d2026-04-19 → 2026-04-19440830262128122605432943523
435418852026-03-31 → 2026-03-31566735382683109632841667559

Référence des commandes

Référence complète de toutes les commandes PRECC.


precc init

Initialiser PRECC et enregistrer le hook avec Claude Code.

precc init

Options:
  (none)

Effects:
  - Registers PreToolUse:Bash hook with Claude Code
  - Creates ~/.local/share/precc/ data directory
  - Initializes heuristics.db with built-in skills
  - Prompts for telemetry consent

precc ingest

Explorer les journaux de session pour des modèles échec-correction.

precc ingest [FILE] [--all] [--force]

Arguments:
  FILE            Path to a session log file (.jsonl)

Options:
  --all           Ingest all session logs from ~/.claude/logs/
  --force         Re-process files that were already ingested

Examples:
  precc ingest session.jsonl
  precc ingest --all
  precc ingest --all --force

precc skills

Gérer les compétences d’automatisation.

precc skills list

precc skills list

List all active skills (built-in and mined).

precc skills show

precc skills show NAME

Show detailed information about a specific skill.

Arguments:
  NAME            Skill name (e.g., cargo-wrong-dir)

precc skills export

precc skills export NAME

Export a skill definition as TOML.

Arguments:
  NAME            Skill name

precc skills edit

precc skills edit NAME

Open a skill definition in $EDITOR.

Arguments:
  NAME            Skill name

precc skills advise

precc skills advise

Analyze recent sessions and suggest new skills based on repeated patterns.

precc skills cluster

precc skills cluster

Group similar mined skills to identify redundant or overlapping patterns.

precc report

Générer un rapport d’analyse.

precc report [--email]

Options:
  --email         Send the report via email (requires mail setup)

precc savings

Afficher les économies de tokens.

precc savings [--all]

Options:
  --all           Show detailed per-command breakdown (Pro)

precc compress

Compresser les fichiers de contexte pour réduire l’utilisation de tokens.

precc compress [DIR] [--dry-run] [--revert]

Arguments:
  DIR             Directory or file to compress (default: current directory)

Options:
  --dry-run       Preview changes without modifying files
  --revert        Restore files from backup

precc license

Gérer votre licence PRECC.

precc license activate

precc license activate KEY --email EMAIL

Arguments:
  KEY             License key (XXXX-XXXX-XXXX-XXXX)

Options:
  --email EMAIL   Email address associated with the license

precc license status

precc license status

Display current license status, plan, and expiration.

precc license deactivate

precc license deactivate

Deactivate the license on this machine.

precc license fingerprint

precc license fingerprint

Display the device fingerprint for this machine.

precc mail

Fonctionnalité email.

precc mail setup

precc mail setup

Interactive SMTP configuration. Saves to ~/.config/precc/mail.toml.

precc mail report

precc mail report EMAIL

Send a PRECC analytics report to the specified email address.

Arguments:
  EMAIL           Recipient email address

precc mail send

precc mail send EMAIL FILE

Send a file as an email attachment.

Arguments:
  EMAIL           Recipient email address
  FILE            Path to the file to send

precc update

Mettre à jour PRECC vers la dernière version.

precc update [--force] [--version VERSION] [--auto]

Options:
  --force             Force update even if already on latest
  --version VERSION   Update to a specific version
  --auto              Enable automatic updates

precc telemetry

Gérer la télémétrie anonyme.

precc telemetry consent

Opt in to anonymous telemetry.

precc telemetry revoke

precc telemetry revoke

Opt out of telemetry. No further data will be sent.

precc telemetry status

precc telemetry status

Show current telemetry consent status.

precc telemetry preview

precc telemetry preview

Display the telemetry payload that would be sent (without sending it).

precc geofence

Conformité géorepérage IP (Pro).

precc geofence check

precc geofence check

Check if the current machine is in an allowed region.

precc geofence refresh

precc geofence refresh

Refresh the IP geolocation cache.

precc geofence clear

precc geofence clear

Clear the geofence cache.

precc geofence info

precc geofence info

Display geofence configuration and current status.

precc gif

Enregistrer des GIFs animés à partir de scripts bash (Pro).

precc gif SCRIPT LENGTH [INPUTS...]

Arguments:
  SCRIPT          Path to a bash script
  LENGTH          Maximum recording duration (e.g., 30s, 2m)
  INPUTS...       Optional input lines for interactive prompts

Examples:
  precc gif demo.sh 30s
  precc gif interactive.sh 60s "yes" "my-project"

precc gha

Analyser les exécutions échouées de GitHub Actions (Pro).

precc gha URL

Arguments:
  URL             GitHub Actions run URL

Example:
  precc gha https://github.com/org/repo/actions/runs/12345678

precc cache-hint

Afficher les informations d’indice de cache pour le projet en cours.

precc cache-hint

precc trial

Démarrer un essai Pro.

precc trial EMAIL

Arguments:
  EMAIL           Email address for the trial

precc nushell

Lancer une session Nushell avec intégration PRECC.

precc nushell

FAQ

PRECC est-il sûr à utiliser ?

Oui. PRECC utilise le mécanisme officiel de hooks PreToolUse de Claude Code – le même point d’extension qu’Anthropic a conçu exactement à cet effet. Le hook :

  • Fonctionne entièrement hors ligne (pas d’appels réseau dans le chemin critique)
  • Se termine en moins de 5 millisecondes
  • Est fail-open : en cas de problème, la commande originale s’exécute sans modification
  • Ne fait que modifier les commandes, ne les exécute jamais lui-même
  • Stocke les données localement dans des bases SQLite

PRECC fonctionne-t-il avec d’autres outils de codage IA ?

PRECC est conçu spécifiquement pour Claude Code. Il s’appuie sur le protocole de hooks PreToolUse fourni par Claude Code. Il ne fonctionne pas avec Cursor, Copilot, Windsurf ou d’autres outils de codage IA.

Quelles données la télémétrie envoie-t-elle ?

La télémétrie est uniquement sur abonnement. Lorsqu’elle est activée, elle envoie :

  • Version de PRECC, système d’exploitation et architecture
  • Compteurs agrégés (commandes interceptées, compétences activées)
  • Latence moyenne du hook

Elle n’envoie pas de texte de commande, de chemins de fichiers, de noms de projets ou d’informations personnellement identifiables. Vous pouvez prévisualiser la charge exacte avec precc telemetry preview avant de vous abonner. Voir Télémétrie pour les détails.

Comment désinstaller PRECC ?

??faq_uninstall_a_intro??

  1. Supprimer l’enregistrement du hook :

    # Delete the hook entry from Claude Code's settings
    # (precc init added it; removing it disables PRECC)
    
  2. Supprimer le binaire :

    rm ~/.local/bin/precc ~/.local/bin/precc-hook ~/.local/bin/precc-learner
    
  3. Supprimer les données (optionnel) :

    rm -rf ~/.local/share/precc/
    rm -rf ~/.config/precc/
    

Ma licence a expiré. Que se passe-t-il ?

PRECC revient au niveau Community. Toutes les fonctionnalités de base continuent de fonctionner :

  • Les compétences intégrées restent actives
  • Le pipeline du hook fonctionne normalement
  • precc savings affiche la vue résumée
  • precc ingest et l’exploration de sessions fonctionnent

Les fonctionnalités Pro deviennent indisponibles jusqu’au renouvellement :

  • precc savings --all (ventilation détaillée)
  • precc compress
  • precc gif
  • precc gha
  • precc geofence
  • Rapports par email

Le hook ne semble pas fonctionner. Comment déboguer ?

??faq_debug_a_intro??

  1. Vérifiez que le hook est enregistré :

    precc init
    
  2. Testez le hook manuellement :

    echo '{"tool_input":{"command":"cargo build"}}' | precc-hook
    
  3. Vérifiez que le binaire est dans votre PATH :

    which precc-hook
    
  4. Vérifiez la configuration du hook de Claude Code dans ~/.claude/settings.json.

PRECC ralentit-il Claude Code ?

Non. Le hook se termine en moins de 5 millisecondes (p99). C’est imperceptible par rapport au temps que Claude passe à raisonner et générer des réponses.

Puis-je utiliser PRECC en CI/CD ?

PRECC est conçu pour les sessions interactives de Claude Code. En CI/CD, il n’y a pas d’instance Claude Code à laquelle se connecter. Cependant, precc gha peut analyser les exécutions échouées de GitHub Actions depuis n’importe quel environnement.

En quoi les compétences découvertes diffèrent-elles des compétences intégrées ?

Les compétences intégrées sont livrées avec PRECC et couvrent les erreurs de répertoire courantes. Les compétences découvertes sont apprises de vos journaux de session spécifiques – elles capturent des modèles uniques à votre flux de travail. Les deux sont stockées dans SQLite et évaluées de manière identique par le pipeline du hook.

Puis-je partager des compétences avec mon équipe ?

Oui. Exportez n’importe quelle compétence en TOML avec precc skills export NAME et partagez le fichier. Les membres de l’équipe peuvent le placer dans leur répertoire skills/ ou l’importer dans leur base de données heuristique.

Autres langues