Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

Einführung

Was ist PRECC?

PRECC (Prädiktive Fehlerkorrektur für Claude Code) ist ein Rust-Tool, das Claude Code Bash-Befehle über den offiziellen PreToolUse-Hook-Mechanismus abfängt. Es behebt Fehler bevor sie auftreten, spart Token und eliminiert Wiederholungsschleifen.

Kostenlos für Community-Nutzer.

Das Problem

Claude Code verschwendet erhebliche Token durch vermeidbare Fehler:

  • Falsche Verzeichnissecargo build in einem übergeordneten Verzeichnis ohne Cargo.toml ausführen und nach dem Lesen des Fehlers erneut versuchen.
  • Wiederholungsschleifen – Ein fehlgeschlagener Befehl erzeugt ausführliche Ausgabe, Claude liest sie, denkt darüber nach und versucht es erneut.
  • Ausführliche Ausgabe – Befehle wie find oder ls -R erzeugen tausende Zeilen, die Claude verarbeiten muss.

Die vier Säulen

Kontextkorrektur (cd-prepend)

Erkennt, wenn Befehle wie cargo build oder npm test im falschen Verzeichnis ausgeführt werden, und stellt cd /korrekter/pfad && voran.

GDB-Debugging

Erkennt Möglichkeiten, GDB für tieferes Debugging von Segfaults und Abstürzen anzuhängen und liefert strukturierte Debug-Informationen.

Session-Mining

Analysiert Claude Code-Sitzungsprotokolle nach Fehler-Fix-Paaren. Bei wiederkehrenden Fehlern kennt PRECC die Lösung bereits und wendet sie automatisch an.

Automatisierungsskills

Eine Bibliothek eingebauter und geminter Skills, die Befehlsmuster erkennen und umschreiben. Skills werden als TOML-Dateien oder SQLite-Zeilen definiert.

So funktioniert es (30-Sekunden-Version)

  1. Claude Code ist im Begriff, einen Bash-Befehl auszuführen.
  2. Der PreToolUse-Hook sendet den Befehl als JSON an precc-hook über stdin.
  3. precc-hook verarbeitet den Befehl durch die Pipeline (Skills, Verzeichniskorrektur, Komprimierung) in unter 3 Millisekunden.
  4. Der korrigierte Befehl wird als JSON auf stdout zurückgegeben.
  5. Claude Code führt den korrigierten Befehl aus.

Triviale Fehler werden zusammengefasst; der Grund der Umschreibung fährt in der Hook-Antwort mit, sodass jede Korrektur überprüfbar ist und nicht stillschweigend erfolgt.

Sicherheitsgrenze

PRECC schreibt nur um, wenn die semantische Äquivalenz nachweisbar erhalten bleibt oder vom Benutzer überprüfbar ist. Destruktive Befehle (rm, git push --force, git reset --hard) werden nie umgeschrieben, selbst wenn ein Skill passt. Jede Mutation muss beschränkt sein — der umgeschriebene Befehl muss die Kern-Tokens des Originals noch enthalten. Unbeschränkte Umschreibungen werden automatisch rückgängig gemacht. Jede angewandte Umschreibung wird protokolliert und angezeigt, sodass Sie sie prüfen, deaktivieren oder rückgängig machen können.

Adaptive Komprimierung

Wenn ein Befehl nach der Komprimierung fehlschlägt, überspringt PRECC automatisch die Komprimierung beim erneuten Versuch, damit Claude die vollständige unkomprimierte Ausgabe zum Debuggen erhält.

Live-Nutzungsstatistiken

Aktuelle Version :

MetrikWert
Hook-Aufrufe
Gesparte Token
Sparquote%
RTK-Umschreibungen
CD-Korrekturen
Hook-Latenz ms (p50)
Nutzer

Gemessene Einsparungen (Realdaten)

Einsparungen pro Version

Diese Zahlen werden automatisch aus anonymisierter Telemetrie aktualisiert.

Installation

Schnellinstallation (Linux / macOS)

curl -fsSL https://peria.ai/install.sh | bash

Dies lädt die neueste Release-Binary für Ihre Plattform herunter, verifiziert die SHA256-Prüfsumme und platziert sie in ~/.local/bin/.

Nach der Installation initialisieren Sie PRECC:

precc init

precc init registriert den PreToolUse-Hook bei Claude Code, erstellt die Datenverzeichnisse und initialisiert die Skills-Datenbank.

Installationsoptionen

SHA256-Verifizierung

Standardmäßig verifiziert der Installer die Binär-Prüfsumme gegen die veröffentlichte SHA256-Summe. Um die Verifizierung zu überspringen (nicht empfohlen):

curl -fsSL https://peria.ai/install.sh | bash -s -- --no-verify

Benutzerdefiniertes Installationspräfix

In ein benutzerdefiniertes Verzeichnis installieren:

curl -fsSL https://peria.ai/install.sh | bash -s -- --prefix /opt/precc

Begleit-Tools (–extras)

PRECC wird mit optionalen Begleit-Tools ausgeliefert. Installieren Sie diese mit --extras:

curl -fsSL https://peria.ai/install.sh | bash -s -- --extras

Dies installiert:

ToolZweck
RTKBefehlsumschreibungs-Toolkit
lean-ctxKontextkomprimierung für CLAUDE.md und Prompt-Dateien
nushellStrukturierte Shell für erweiterte Pipelines
cocoindex-codeCode-Indexierung für schnellere Kontextauflösung

Windows (PowerShell)

irm https://peria.ai/install.ps1 | iex

Dann initialisieren:

precc init

Manuelle Installation

  1. Laden Sie die Release-Binary für Ihre Plattform von GitHub Releases herunter.
  2. Verifizieren Sie die SHA256-Prüfsumme anhand der .sha256-Datei im Release.
  3. Platzieren Sie die Binary in einem Verzeichnis in Ihrem PATH (z.B. ~/.local/bin/).
  4. Führen Sie precc init aus.

Aktualisierung

precc update

Erzwinge ein Update auf eine bestimmte Version:

precc update --force --version 0.3.0

Automatische Updates aktivieren:

precc update --auto

Installation überprüfen

$ precc --version
precc 0.3.0

$ precc savings
Session savings: 0 tokens (no commands intercepted yet)

Wenn precc nicht gefunden wird, stellen Sie sicher, dass ~/.local/bin in Ihrem PATH ist.

Schnellstart

PRECC in 5 Minuten zum Laufen bringen.

Schritt 1: Installation

curl -fsSL https://peria.ai/install.sh | bash

Schritt 2: Initialisierung

$ precc init
[precc] Hook registered with Claude Code
[precc] Created ~/.local/share/precc/
[precc] Initialized heuristics.db with 8 built-in skills
[precc] Ready.

Schritt 3: Überprüfen, ob der Hook aktiv ist

$ precc skills list
  # Name               Type      Triggers
  1 cargo-wrong-dir    built-in  cargo build/test/clippy outside Rust project
  2 git-wrong-dir      built-in  git * outside a repo
  3 go-wrong-dir       built-in  go build/test outside Go module
  4 make-wrong-dir     built-in  make without Makefile in cwd
  5 npm-wrong-dir      built-in  npm/npx/pnpm/yarn outside Node project
  6 python-wrong-dir   built-in  python/pytest/pip outside Python project
  7 jj-translate       built-in  git * in jj-colocated repo
  8 asciinema-gif      built-in  asciinema rec

Schritt 4: Claude Code normal verwenden

Öffne Claude Code und arbeite wie gewohnt. PRECC läuft still im Hintergrund. Wenn Claude einen Befehl ausgibt, der fehlschlagen würde, korrigiert PRECC ihn vor der Ausführung.

Beispiel: Cargo Build im falschen Verzeichnis

Angenommen, dein Projekt ist unter ~/projects/myapp/ und Claude gibt aus:

cargo build

von ~/projects/ aus (eine Ebene zu hoch, kein Cargo.toml dort).

Ohne PRECC: Claude erhält den Fehler could not find Cargo.toml in /home/user/projects or any parent directory, liest ihn, denkt darüber nach und versucht es mit cd myapp && cargo build erneut. Kosten: ~2.000 Token verschwendet.

Mit PRECC: Der Hook erkennt das fehlende Cargo.toml, findet es in myapp/ und schreibt den Befehl um zu:

cd /home/user/projects/myapp && cargo build

Claude sieht nie einen Fehler. Null Token verschwendet.

Schritt 5: Ersparnisse überprüfen

Überprüfe nach einer Sitzung, wie viele Token PRECC gespart hat:

$ precc savings
Session Token Savings
=====================
Total estimated savings: 4,312 tokens

Breakdown:
  Pillar 1 (cd prepends):       2,104 tokens  (3 corrections)
  Pillar 4 (skill activations):   980 tokens  (2 activations)
  RTK rewrites:                 1,228 tokens  (5 rewrites)

Nächste Schritte

  • Skills – Alle verfügbaren Skills und wie du eigene erstellen kannst.
  • Hook-Pipeline – Verstehe, was unter der Haube passiert.
  • Ersparnisse – Detaillierte Analyse der Token-Einsparungen.

Lizenz

PRECC bietet zwei Stufen: Community (kostenlos) und Pro.

Community-Stufe (kostenlos)

Die Community-Stufe umfasst:

  • Alle integrierten Skills (Verzeichniskorrektur, jj-Übersetzung usw.)
  • Hook-Pipeline mit voller Pillar-1- und Pillar-4-Unterstützung
  • Grundlegende precc savings-Zusammenfassung
  • Session-Mining mit precc ingest
  • Unbegrenzte lokale Nutzung

Pro-Stufe

Pro schaltet zusätzliche Funktionen frei:

  • Detaillierte Einsparungsaufschlüsselungprecc savings --all mit Analyse pro Befehl
  • GIF-Aufnahmeprecc gif zum Erstellen animierter Terminal-GIFs
  • IP-Geofence-Compliance – Für regulierte Umgebungen
  • E-Mail-Berichteprecc mail report zum Senden von Analysen
  • GitHub-Actions-Analyseprecc gha zum Debuggen fehlgeschlagener Workflows
  • Kontextkomprimierungprecc compress zur CLAUDE.md-Optimierung
  • Prioritäts-Support

Eine Lizenz aktivieren

$ precc license activate XXXX-XXXX-XXXX-XXXX --email you@example.com
[precc] License activated for you@example.com
[precc] Plan: Pro
[precc] Expires: 2027-04-03

Lizenzstatus prüfen

$ precc license status
License: Pro
Email:   you@example.com
Expires: 2027-04-03
Status:  Active

GitHub-Sponsors-Aktivierung

Wenn Sie PRECC über GitHub Sponsors sponsern, wird Ihre Lizenz automatisch über Ihre GitHub-E-Mail aktiviert. Kein Schlüssel erforderlich – stellen Sie nur sicher, dass Ihre Sponsor-E-Mail übereinstimmt:

$ precc license status
License: Pro (GitHub Sponsors)
Email:   you@example.com
Status:  Active (auto-renewed)

Geräte-Fingerprint

Jede Lizenz ist an einen Geräte-Fingerprint gebunden. Zeigen Sie Ihren an mit:

$ precc license fingerprint
Fingerprint: a1b2c3d4e5f6...

Wenn Sie Ihre Lizenz auf einen neuen Computer übertragen müssen, deaktivieren Sie sie zuerst:

precc license deactivate

Dann aktivieren Sie auf dem neuen Computer.

Lizenz abgelaufen?

Wenn eine Pro-Lizenz abläuft, kehrt PRECC zur Community-Stufe zurück. Alle integrierten Skills und Kernfunktionen funktionieren weiterhin. Nur Pro-spezifische Funktionen werden nicht verfügbar. Weitere Details finden Sie in den FAQ.

Hook-Pipeline

Die precc-hook-Binary ist der Kern von PRECC. Sie sitzt zwischen Claude Code und der Shell und verarbeitet jeden Bash-Befehl in unter 5 Millisekunden.

Wie Claude Code den Hook aufruft

Claude Code unterstützt PreToolUse-Hooks – externe Programme, die Werkzeugeingaben vor der Ausführung inspizieren und ändern können. Wenn Claude einen Bash-Befehl ausführen will, sendet es JSON an precc-hook über stdin und liest die Antwort von stdout.

Pipeline-Stufen

Claude Code
    |
    v
+---------------------------+
| 1. Parse JSON stdin       |  Read the command from Claude Code
+---------------------------+
    |
    v
+---------------------------+
| 2. Skill matching         |  Query heuristics.db for matching skills (Pillar 4)
+---------------------------+
    |
    v
+---------------------------+
| 3. Directory correction   |  Resolve correct working directory (Pillar 1)
+---------------------------+
    |
    v
+---------------------------+
| 4. GDB check              |  Detect debug opportunities (Pillar 2)
+---------------------------+
    |
    v
+---------------------------+
| 5. RTK rewriting          |  Apply command rewrites for token savings
+---------------------------+
    |
    v
+---------------------------+
| 6. Emit JSON stdout       |  Return modified command to Claude Code
+---------------------------+
    |
    v
  Shell executes corrected command

Beispiel: JSON Ein- und Ausgabe

Eingabe (von Claude Code)

{
  "tool_input": {
    "command": "cargo build"
  }
}

PRECC erkennt, dass das aktuelle Verzeichnis kein Cargo.toml hat, aber ./myapp/Cargo.toml existiert.

Ausgabe (an Claude Code)

{
  "hookSpecificOutput": {
    "updatedInput": {
      "command": "cd /home/user/projects/myapp && cargo build"
    }
  }
}

Wenn keine Änderung nötig ist, ist updatedInput.command leer und Claude Code verwendet den ursprünglichen Befehl.

Stufendetails

Stufe 1: JSON parsen

Liest das vollständige JSON-Objekt von stdin. Extrahiert tool_input.command. Bei einem Parsing-Fehler beendet sich der Hook sofort und Claude Code verwendet den ursprünglichen Befehl (Fail-Open-Design).

Stufe 2: Skill-Matching

Fragt die SQLite-Heuristik-Datenbank nach Skills ab, deren Trigger-Muster zum Befehl passt. Skills werden in Prioritätsreihenfolge geprüft. Sowohl eingebaute TOML-Skills als auch geminte Skills werden ausgewertet.

Stufe 3: Verzeichniskorrektur

Prüft bei Build-Befehlen (cargo, go, make, npm, python usw.), ob die erwartete Projektdatei im aktuellen Verzeichnis existiert. Falls nicht, durchsucht es benachbarte Verzeichnisse nach der nächstgelegenen Übereinstimmung und stellt cd <dir> && voran.

Der Verzeichnisscan verwendet einen zwischengespeicherten Dateisystemindex mit 5 Sekunden TTL für hohe Geschwindigkeit.

Stufe 4: GDB-Prüfung

Wenn der Befehl wahrscheinlich einen Absturz verursacht (z.B. Ausführen einer Debug-Binary), kann PRECC GDB-Wrapper vorschlagen oder injizieren, um strukturierte Debug-Ausgaben statt roher Absturz-Logs zu erfassen.

Stufe 5: RTK-Umschreibung

Wendet RTK-Regeln (Rewrite Toolkit) an, die ausführliche Befehle kürzen, verrauschte Ausgaben unterdrücken oder Befehle für Token-Effizienz umstrukturieren.

Stufe 6: JSON ausgeben

Serialisiert den geänderten Befehl zurück zu JSON und schreibt ihn auf stdout. Wenn keine Änderungen vorgenommen wurden, signalisiert die Ausgabe Claude Code, den ursprünglichen Befehl zu verwenden.

Leistung

Die gesamte Pipeline wird in unter 5 Millisekunden (p99) abgeschlossen. Wichtige Optimierungen:

  • SQLite im WAL-Modus für sperrfreie parallele Lesezugriffe
  • Vorkompilierte Regex-Muster für Skill-Matching
  • Zwischengespeicherte Dateisystem-Scans (5 Sekunden TTL)
  • Keine Netzwerkaufrufe im Hot Path
  • Fail-Open: Jeder Fehler fällt auf den ursprünglichen Befehl zurück

Den Hook manuell testen

Sie können den Hook direkt aufrufen:

$ echo '{"tool_input":{"command":"cargo build"}}' | precc-hook
{"hookSpecificOutput":{"updatedInput":{"command":"cd /home/user/myapp && cargo build"}}}

Skills

Skills sind die Mustererkennungsregeln, die PRECC verwendet, um Befehle zu erkennen und zu korrigieren. Sie können eingebaut (als TOML-Dateien mitgeliefert) oder aus Sitzungsprotokollen gewonnen werden.

Eingebaute Skills

SkillAuslöserAktion
cargo-wrong-dircargo build/test/clippy außerhalb eines Rust-Projektscd zum nächsten Cargo.toml-Verzeichnis voranstellen
git-wrong-dirgit * außerhalb eines Git-Reposcd zum nächsten .git-Verzeichnis voranstellen
go-wrong-dirgo build/test außerhalb eines Go-Modulscd zum nächsten go.mod-Verzeichnis voranstellen
make-wrong-dirmake ohne Makefile im aktuellen Verzeichniscd zum nächsten Makefile-Verzeichnis voranstellen
npm-wrong-dirnpm/npx/pnpm/yarn außerhalb eines Node-Projektscd zum nächsten package.json-Verzeichnis voranstellen
python-wrong-dirpython/pytest/pip außerhalb eines Python-Projektscd zum nächsten Python-Projekt voranstellen
jj-translategit * in einem jj-kolokierten RepoUmschreiben zum äquivalenten jj-Befehl
asciinema-gifasciinema recUmschreiben zu precc gif

Skills auflisten

$ precc skills list
  # Name               Type      Triggers
  1 cargo-wrong-dir    built-in  cargo build/test/clippy outside Rust project
  2 git-wrong-dir      built-in  git * outside a repo
  3 go-wrong-dir       built-in  go build/test outside Go module
  4 make-wrong-dir     built-in  make without Makefile in cwd
  5 npm-wrong-dir      built-in  npm/npx/pnpm/yarn outside Node project
  6 python-wrong-dir   built-in  python/pytest/pip outside Python project
  7 jj-translate       built-in  git * in jj-colocated repo
  8 asciinema-gif      built-in  asciinema rec
  9 fix-pytest-path    mined     pytest with wrong test path

Skill-Details anzeigen

$ precc skills show cargo-wrong-dir
Name:        cargo-wrong-dir
Type:        built-in
Source:      skills/builtin/cargo-wrong-dir.toml
Description: Detects cargo commands run outside a Rust project and prepends
             cd to the directory containing the nearest Cargo.toml.
Trigger:     ^cargo\s+(build|test|clippy|run|check|bench|doc)
Action:      prepend_cd
Marker:      Cargo.toml
Activations: 12

Einen Skill nach TOML exportieren

$ precc skills export cargo-wrong-dir
[skill]
name = "cargo-wrong-dir"
description = "Prepend cd for cargo commands outside a Rust project"
trigger = "^cargo\\s+(build|test|clippy|run|check|bench|doc)"
action = "prepend_cd"
marker = "Cargo.toml"
priority = 10

Einen Skill bearbeiten

$ precc skills edit cargo-wrong-dir

Dies öffnet die Skill-Definition in Ihrem $EDITOR. Nach dem Speichern wird der Skill automatisch neu geladen.

Der Advise-Befehl

precc skills advise analysiert Ihre letzte Sitzung und schlägt neue Skills basierend auf wiederkehrenden Mustern vor:

$ precc skills advise
Analyzed 47 commands from the last session.

Suggested skills:
  1. docker-wrong-dir: You ran `docker compose up` outside the project root 3 times.
     Suggested trigger: ^docker\s+compose
     Suggested marker: docker-compose.yml

  2. terraform-wrong-dir: You ran `terraform plan` outside the infra directory 2 times.
     Suggested trigger: ^terraform\s+(plan|apply|init)
     Suggested marker: main.tf

Accept suggestion [1/2/skip]?

Skills gruppieren

$ precc skills cluster

Gruppiert ähnliche geminte Skills, um redundante oder überlappende Muster zu identifizieren.

Geminte vs. eingebaute Skills

Eingebaute Skills werden mit PRECC geliefert und sind in skills/builtin/*.toml definiert. Sie decken die häufigsten Fehler bei falschen Verzeichnissen ab.

Geminte Skills werden von precc ingest oder dem precc-learner-Daemon aus Ihren Sitzungsprotokollen erstellt. Sie werden in ~/.local/share/precc/heuristics.db gespeichert und sind spezifisch für Ihren Workflow. Siehe Mining für Details.

Einsparungen

PRECC verfolgt die geschätzten Token-Einsparungen bei jeder Interception. Verwenden Sie precc savings, um zu sehen, wie viel Verschwendung PRECC verhindert hat.

Kurzübersicht

$ precc savings
Session Token Savings
=====================
Total estimated savings: <span data-stat="session_tokens_saved">8,741</span> tokens

Breakdown:
  Pillar 1 (cd prepends):         <span data-stat="session_p1_tokens">3,204</span> tokens  (<span data-stat="session_p1_count">6</span> corrections)
  Pillar 4 (skill activations):   <span data-stat="session_p4_tokens">1,560</span> tokens  (<span data-stat="session_p4_count">4</span> activations)
  RTK rewrites:                   <span data-stat="session_rtk_tokens">2,749</span> tokens  (<span data-stat="session_rtk_count">11</span> rewrites)
  Lean-ctx wraps:                 <span data-stat="session_lean_tokens">1,228</span> tokens  (<span data-stat="session_lean_count">2</span> wraps)

Detaillierte Aufschlüsselung (Pro)

$ precc savings --all
Session Token Savings (Detailed)
================================
Total estimated savings: <span data-stat="session_tokens_saved">8,741</span> tokens

Command-by-command:
  #  Time   Command                          Saving   Source
  1  09:12  cargo build                      534 tk   cd prepend (cargo-wrong-dir)
  2  09:14  cargo test                       534 tk   cd prepend (cargo-wrong-dir)
  3  09:15  git status                       412 tk   cd prepend (git-wrong-dir)
  4  09:18  npm install                      824 tk   cd prepend (npm-wrong-dir)
  5  09:22  find . -name "*.rs"              387 tk   RTK rewrite (output truncation)
  6  09:25  cat src/main.rs                  249 tk   RTK rewrite (lean-ctx wrap)
  7  09:31  cargo clippy                     534 tk   cd prepend (cargo-wrong-dir)
  ...

Pillar Breakdown:
  Pillar 1 (context resolution):   <span data-stat="session_p1_tokens">3,204</span> tokens  <span data-stat="session_p1_pct">36.6</span>%
  Pillar 2 (GDB debugging):            0 tokens   0.0%
  Pillar 3 (mined preventions):        0 tokens   0.0%
  Pillar 4 (automation skills):    <span data-stat="session_p4_tokens">1,560</span> tokens  <span data-stat="session_p4_pct">17.8</span>%
  RTK rewrites:                    <span data-stat="session_rtk_tokens">2,749</span> tokens  <span data-stat="session_rtk_pct">31.5</span>%
  Lean-ctx wraps:                  <span data-stat="session_lean_tokens">1,228</span> tokens  <span data-stat="session_lean_pct">14.1</span>%

Wie Einsparungen geschätzt werden

Jeder Korrekturtyp hat geschätzte Token-Kosten basierend darauf, was ohne PRECC passiert wäre:

KorrekturtypGeschätzte EinsparungBegründung
cd prepend~500 tokensFehlerausgabe + Claude-Reasoning + Wiederholung
Skill-Aktivierung~400 tokensFehlerausgabe + Claude-Reasoning + Wiederholung
RTK rewrite~250 tokensAusführliche Ausgabe, die Claude lesen müsste
Lean-ctx wrap~600 tokensGroße Dateiinhalte komprimiert
Gelernte Prävention~500 tokensBekanntes Fehlermuster vermieden

Dies sind konservative Schätzungen. Die tatsächlichen Einsparungen sind oft höher, da Claudes Reasoning über Fehler ausführlich sein kann.

Kumulative Einsparungen

Einsparungen bleiben sitzungsübergreifend in der PRECC-Datenbank erhalten. Im Laufe der Zeit können Sie die Gesamtwirkung verfolgen:

$ precc savings
Session Token Savings
=====================
Total estimated savings: <span data-stat="session_tokens_saved">8,741</span> tokens

Lifetime savings: <span data-stat="total_tokens_saved">142,389</span> tokens across <span data-stat="total_sessions">47</span> sessions

Status Bar

After installation, PRECC wires a statusLine entry into ~/.claude/settings.json so the Claude Code status bar shows live session metrics:

$0.42 spent | 1.2M in/out | 📊 last cmd: −1.2K | PRECC: 7 fixes | 5.8ms avg | this session: 320 saved over 7 cmds (~$0.05) | lifetime: 8.9K saved over 217 cmds (~$2.85)

Each segment:

SegmentSourceMeaningResets on session restart?
$0.42 spentClaude Code’s cost.total_cost_usdCumulative session cost reported by Claude CodeYes
1.2M in/outClaude Code’s total_input_tokens + total_output_tokensNon-cached input + output tokens across the sessionYes
📊 last cmd: −1.2KPRECC measurement of the most recent Bash commandReal ground-truth saving from re-running the originalNo (persists across sessions)
PRECC: 7 fixesPRECC session aggregate from metrics.logNumber of corrections this session — fix count only, no fake token estimateYes
5.8ms avgPRECC hook latency p50Time PRECC spent processing each tool callYes
bash 18% of totalPRECC post_observations.log filtered by session windowShare of session tokens that came from Bash output — clarifies why PRECC’s savings are naturally a fraction of total cost (PRECC only optimizes Bash output)Yes
this session: 320 saved over 7 cmds (~$0.05)~/.local/share/precc/.lifetime_summary.json minus the per-session baseline at ~/.local/share/precc/sessions/<session_id>.savings_baselineReal per-session delta. Baseline is captured the first time PRECC sees this session_id; subsequent refreshes compute current_lifetime − baseline so the value reflects savings accrued in this session only. Hidden when delta is zero (start of session)Yes (baseline re-snapshots)
lifetime: 8.9K saved over 217 cmds (~$2.85)~/.local/share/precc/.lifetime_summary.json + current session’s cost.total_cost_usd / total_used_tokens rateCumulative tokens saved and re-measured commands since PRECC was first installed, plus an estimated USD value computed from the current session’s per-token rate. Cost estimate is conservative — it uses (input+output) as the denominator while the cost includes cache tokens, so the per-token rate is overstated and the resulting savings figure is lower than actualNo

The lifetime: segment is placed last so it’s the first to be truncated if Claude Code’s UI clips the bar at the right edge.

Why cost and token count don’t divide

The displayed 1.2M in/out is not the denominator that produced $0.42 spent. Claude Code’s cost.total_cost_usd is computed from the API’s full token breakdown — base input, output, plus cache reads and cache creations. The session-wide cumulative cache token counts are not exposed in the statusline schema, so PRECC can only show the visible (non-cache) portion.

On long sessions with heavy file rereads, cache reads can be 10× the visible token count. That’s why pairing the two as a ratio would mislead — PRECC shows them as independent segments instead.

Why PRECC doesn’t compute the cost

The cost number is authoritative. PRECC reads cost.total_cost_usd verbatim from the JSON Claude Code pipes into the status command on stdin. That’s the same number Claude Code charges against your subscription/usage budget. You can verify it any time with the built-in /cost slash command — both should agree.

What drives the cost

For Claude Opus 4.6:

Token typeStandard (≤200k context)1M context tier
Input$15 / MTok$30 / MTok
Output$75 / MTok$150 / MTok
Cache write$18.75 / MTok$37.50 / MTok
Cache read$1.50 / MTok$3 / MTok

The biggest drivers on long sessions are usually:

  1. Output tokens — most expensive per-token type, especially on the 1M context tier
  2. Repeated cache reads — cheap individually but accumulate fast across many turns
  3. Cache creations — written once per file read, ~1.25× the base input rate

PRECC reduces the visible-token cost by compressing Bash output (the 📊 last cmd: segment shows the per-command saving), but it cannot reduce cache reads of files Claude has already loaded.

Stable session counts

The “PRECC: N fixes” segment counts events since the persisted session start, written to ~/.local/share/precc/sessions/<session_id>.start on the first statusline refresh of each session. This makes the count monotonic — it cannot drop mid-session even if cost.total_duration_ms is missing on a particular refresh (which would otherwise collapse the window to “since now” and silently drop nearly all events).

Auto-refreshed lifetime snapshot

The lifetime: segment reads ~/.local/share/precc/.lifetime_summary.json, which is rewritten:

  • On every PostToolUse measurement (so it stays current as commands accumulate)
  • On every precc savings invocation

The this session: segment reads the same lifetime file but subtracts a per-session baseline persisted to ~/.local/share/precc/sessions/<session_id>.savings_baseline on the first refresh of each session.

No need to manually refresh anything — the files update themselves.

Suppressing the status bar

If you’d rather keep your existing status bar, set your own statusLine command in ~/.claude/settings.json. PRECC’s installer will detect the custom value and leave it alone on subsequent updates.

To suppress only the per-interaction 📊 PRECC line (in additionalContext), set PRECC_QUIET=1 in your shell environment.

Komprimieren

precc compress verkleinert CLAUDE.md und andere Kontextdateien, um den Token-Verbrauch zu reduzieren, wenn Claude Code sie lädt. Dies ist eine Pro-Funktion.

Grundlegende Verwendung

$ precc compress .
[precc] Scanning directory: .
[precc] Found 3 context files:
         CLAUDE.md (2,847 tokens -> 1,203 tokens, -57.7%)
         ARCHITECTURE.md (4,112 tokens -> 2,044 tokens, -50.3%)
         ALTERNATIVES.md (3,891 tokens -> 1,967 tokens, -49.5%)
[precc] Total: 10,850 tokens -> 5,214 tokens (-51.9%)
[precc] Files compressed. Use --revert to restore originals.

Probelauf

Vorschau der Änderungen ohne Dateien zu modifizieren:

$ precc compress . --dry-run
[precc] Dry run -- no files will be modified.
[precc] CLAUDE.md: 2,847 tokens -> 1,203 tokens (-57.7%)
[precc] ARCHITECTURE.md: 4,112 tokens -> 2,044 tokens (-50.3%)
[precc] ALTERNATIVES.md: 3,891 tokens -> 1,967 tokens (-49.5%)
[precc] Total: 10,850 tokens -> 5,214 tokens (-51.9%)

Zurücksetzen

Originale werden automatisch gesichert. Um sie wiederherzustellen:

$ precc compress --revert
[precc] Restored 3 files from backups.

Was wird komprimiert

Der Kompressor wendet mehrere Transformationen an:

  • Entfernt überflüssige Leerzeichen und Leerzeilen
  • Kürzt ausführliche Formulierungen unter Beibehaltung der Bedeutung
  • Verdichtet Tabellen und Listen
  • Entfernt Kommentare und dekorative Formatierung
  • Behält alle Codeblöcke, Pfade und technische Bezeichner bei

Die komprimierte Ausgabe ist weiterhin menschenlesbar – sie ist weder minifiziert noch verschleiert.

Bestimmte Dateien auswählen

$ precc compress CLAUDE.md
[precc] CLAUDE.md: 2,847 tokens -> 1,203 tokens (-57.7%)

Berichte

precc report erstellt ein Analyse-Dashboard, das PRECC-Aktivität und Token-Einsparungen zusammenfasst.

Einen Bericht erstellen

$ precc report
PRECC Report -- 2026-04-03
==========================

Sessions analyzed: 12
Commands intercepted: 87
Total token savings: 42,389

Top skills by activation:
  1. cargo-wrong-dir     34 activations   17,204 tokens saved
  2. npm-wrong-dir       18 activations    9,360 tokens saved
  3. git-wrong-dir       12 activations    4,944 tokens saved
  4. RTK rewrite         15 activations    3,750 tokens saved
  5. python-wrong-dir     8 activations    4,131 tokens saved

Savings by pillar:
  Pillar 1 (context resolution):  28,639 tokens  67.6%
  Pillar 4 (automation skills):    7,000 tokens  16.5%
  RTK rewrites:                    3,750 tokens   8.8%
  Lean-ctx wraps:                  3,000 tokens   7.1%

Recent corrections:
  2026-04-03 09:12  cargo build -> cd myapp && cargo build
  2026-04-03 09:18  npm test -> cd frontend && npm test
  2026-04-03 10:05  git status -> cd repo && git status
  ...

Einen Bericht per E-Mail senden

Senden Sie den Bericht an eine E-Mail-Adresse (erfordert Mail-Einrichtung, siehe Email):

$ precc report --email
[precc] Report sent to you@example.com

Die Empfängeradresse wird aus ~/.config/precc/mail.toml gelesen. Sie können auch precc mail report EMAIL verwenden, um an eine bestimmte Adresse zu senden.

Berichtsdaten

Berichte werden aus der lokalen PRECC-Datenbank unter ~/.local/share/precc/history.db generiert. Keine Daten verlassen Ihren Rechner, es sei denn, Sie senden den Bericht explizit per E-Mail.

Mining

PRECC analysiert Claude Code-Sitzungsprotokolle, um Fehler-Fix-Muster zu lernen. Wenn es denselben Fehler erneut erkennt, wendet es die Lösung automatisch an.

Sitzungsprotokolle einlesen

Eine einzelne Datei einlesen

$ precc ingest ~/.claude/logs/session-2026-04-03.jsonl
[precc] Parsing session-2026-04-03.jsonl...
[precc] Found 142 commands, 8 failure-fix pairs
[precc] Stored 8 patterns in history.db
[precc] 2 new skill candidates identified

Alle Protokolle einlesen

$ precc ingest --all
[precc] Scanning ~/.claude/logs/...
[precc] Found 23 session files (14 new, 9 already ingested)
[precc] Parsing 14 new files...
[precc] Found 47 failure-fix pairs across 14 sessions
[precc] Stored 47 patterns in history.db
[precc] 5 new skill candidates identified

Erneutes Einlesen erzwingen

Um bereits eingelesene Dateien erneut zu verarbeiten:

$ precc ingest --all --force
[precc] Re-ingesting all 23 session files...

Wie Mining funktioniert

  1. PRECC liest die JSONL-Sitzungsprotokolldatei.
  2. Es identifiziert Befehlspaare, bei denen der erste Befehl fehlschlug und der zweite ein korrigierter Versuch war.
  3. Es extrahiert das Muster (was schiefging) und die Lösung (was Claude anders machte).
  4. Muster werden in ~/.local/share/precc/history.db gespeichert.
  5. Wenn ein Muster einen Konfidenzschwellenwert erreicht (mehrfach gesehen), wird es zu einem gemeinten Skill in heuristics.db.

Beispielmuster

Failure: pytest tests/test_auth.py
Error:   ModuleNotFoundError: No module named 'myapp'
Fix:     cd /home/user/myapp && pytest tests/test_auth.py
Pattern: pytest outside project root -> prepend cd

Der precc-learner-Daemon

Der precc-learner-Daemon läuft im Hintergrund und überwacht automatisch neue Sitzungsprotokolle:

$ precc-learner &
[precc-learner] Watching ~/.claude/logs/ for new sessions...
[precc-learner] Processing session-2026-04-03-1412.jsonl... 3 new patterns

Der Daemon verwendet Dateisystem-Benachrichtigungen (inotify auf Linux, FSEvents auf macOS) und reagiert daher sofort, wenn eine Sitzung endet.

Von Mustern zu Skills

Geminte Muster werden zu Skills, wenn sie diese Kriterien erfüllen:

  • Mindestens 3 Mal über Sitzungen hinweg gesehen
  • Konsistentes Fix-Muster (gleiche Art der Korrektur jedes Mal)
  • Keine Fehlalarme erkannt

Sie können Skill-Kandidaten überprüfen mit:

$ precc skills advise

Siehe Skills für Details zur Verwaltung von Skills.

Datenspeicherung

  • Fehler-Fix-Paare: ~/.local/share/precc/history.db
  • Graduierte Skills: ~/.local/share/precc/heuristics.db

Beide sind SQLite-Datenbanken im WAL-Modus für sicheren gleichzeitigen Zugriff.

E-Mail

PRECC kann Berichte und Dateien per E-Mail senden. Dies erfordert eine einmalige SMTP-Einrichtung.

Einrichtung

$ precc mail setup
SMTP host: smtp.gmail.com
SMTP port [587]: 587
Username: you@gmail.com
Password: ********
From address [you@gmail.com]: you@gmail.com
[precc] Mail configuration saved to ~/.config/precc/mail.toml
[precc] Sending test email to you@gmail.com...
[precc] Test email sent successfully.

Konfigurationsdatei

Die Konfiguration wird unter ~/.config/precc/mail.toml gespeichert:

[smtp]
host = "smtp.gmail.com"
port = 587
username = "you@gmail.com"
password = "app-password-here"
from = "you@gmail.com"
tls = true

Sie können diese Datei direkt bearbeiten:

$EDITOR ~/.config/precc/mail.toml

Verwenden Sie für Gmail ein App-Passwort anstelle Ihres Kontopassworts.

Berichte senden

$ precc mail report team@example.com
[precc] Generating report...
[precc] Sending to team@example.com...
[precc] Report sent.

Dateien senden

$ precc mail send colleague@example.com output.log
[precc] Sending output.log to colleague@example.com...
[precc] Sent (14.2 KB).

SSH-Relay-Unterstützung

Wenn Ihr Rechner keinen SMTP-Server direkt erreichen kann (z.B. hinter einer Firmen-Firewall), unterstützt PRECC die Weiterleitung über einen SSH-Tunnel:

[smtp]
host = "localhost"
port = 2525

[ssh_relay]
host = "relay.example.com"
user = "you"
remote_port = 587
local_port = 2525

PRECC stellt den SSH-Tunnel vor dem Senden automatisch her.

GIF-Aufnahme

precc gif erstellt animierte GIF-Aufnahmen von Terminal-Sitzungen aus Bash-Skripten. Dies ist eine Pro-Funktion.

Grundlegende Verwendung

$ precc gif script.sh 30s
[precc] Recording script.sh (max 30s)...
[precc] Running: echo "Hello, world!"
[precc] Running: cargo build --release
[precc] Running: cargo test
[precc] Recording complete.
[precc] Output: script.gif (1.2 MB, 24s)

Das erste Argument ist ein Bash-Skript mit den auszuführenden Befehlen. Das zweite Argument ist die maximale Aufnahmedauer.

Skriptformat

Das Skript ist eine Standard-Bash-Datei:

#!/bin/bash
echo "Building project..."
cargo build --release
echo "Running tests..."
cargo test
echo "Done!"

Eingabesimulation

Für interaktive Befehle geben Sie Eingabewerte als zusätzliche Argumente an:

$ precc gif interactive-demo.sh 60s "yes" "my-project" "3"

Jedes zusätzliche Argument wird als stdin-Zeile übergeben, wenn das Skript nach Eingabe fragt.

Ausgabeoptionen

Die Ausgabedatei wird standardmäßig nach dem Skript benannt (script.gif). Das GIF verwendet ein dunkles Terminal-Theme mit Standard-80x24-Dimensionen.

Warum GIF statt asciinema?

Der eingebaute Skill asciinema-gif schreibt asciinema rec automatisch in precc gif um. GIF-Dateien sind portabler – sie werden inline in GitHub-READMEs, Slack und E-Mails angezeigt, ohne einen Player zu benötigen.

GitHub Actions Analyse

precc gha analysiert fehlgeschlagene GitHub Actions-Läufe und schlägt Korrekturen vor. Dies ist eine Pro-Funktion.

Verwendung

Übergeben Sie die URL eines fehlgeschlagenen GitHub Actions-Laufs:

$ precc gha https://github.com/myorg/myrepo/actions/runs/12345678
[precc] Fetching run 12345678...
[precc] Run: CI / build (ubuntu-latest)
[precc] Status: failure
[precc] Failed step: Run cargo test

[precc] Log analysis:
  Error: test result: FAILED. 2 passed; 1 failed
  Failed test: tests::integration::test_database_connection
  Cause: thread 'tests::integration::test_database_connection' panicked at
         'called Result::unwrap() on an Err value: Connection refused'

[precc] Suggested fix:
  The test requires a database connection but the CI environment does not
  start a database service. Add a services block to your workflow:

    services:
      postgres:
        image: postgres:15
        ports:
          - 5432:5432
        env:
          POSTGRES_PASSWORD: test

Was es tut

  1. Parst die GitHub Actions-Run-URL, um den Eigentümer, das Repository und die Run-ID zu extrahieren.
  2. Ruft die Run-Logs über die GitHub-API ab (verwendet GITHUB_TOKEN falls gesetzt, sonst öffentlichen Zugang).
  3. Identifiziert den fehlgeschlagenen Schritt und extrahiert die relevanten Fehlerzeilen.
  4. Analysiert den Fehler und schlägt eine Korrektur basierend auf häufigen CI-Fehlermustern vor.

Unterstützte Fehlermuster

  • Fehlende Service-Container (Datenbanken, Redis, etc.)
  • Falsches Runner-Betriebssystem oder falsche Architektur
  • Fehlende Umgebungsvariablen oder Secrets
  • Fehler bei der Abhängigkeitsinstallation
  • Test-Timeouts
  • Berechtigungsfehler
  • Cache-Misses, die langsame Builds verursachen

Geofence

PRECC enthält IP-Geofence-Compliance-Prüfung für regulierte Umgebungen. Dies ist eine Pro-Funktion.

Überblick

Einige Organisationen verlangen, dass Entwicklungswerkzeuge nur innerhalb genehmigter geografischer Regionen betrieben werden. Die Geofence-Funktion von PRECC überprüft, ob die IP-Adresse des aktuellen Rechners in einer Liste erlaubter Regionen liegt.

Compliance-Prüfung

$ precc geofence check
[precc] Current IP: 203.0.113.42
[precc] Region: US-East (Virginia)
[precc] Status: COMPLIANT
[precc] Policy: us-east-1, us-west-2, eu-west-1

Wenn sich der Rechner außerhalb der erlaubten Regionen befindet:

$ precc geofence check
[precc] Current IP: 198.51.100.7
[precc] Region: AP-Southeast (Singapore)
[precc] Status: NON-COMPLIANT
[precc] Policy: us-east-1, us-west-2, eu-west-1
[precc] Warning: Current region is not in the allowed list.

Geofence-Daten aktualisieren

$ precc geofence refresh
[precc] Fetching updated IP geolocation data...
[precc] Updated. Cache expires in 24h.

Geofence-Informationen anzeigen

$ precc geofence info
Geofence Configuration
======================
Policy file:    ~/.config/precc/geofence.toml
Allowed regions: us-east-1, us-west-2, eu-west-1
Cache age:      2h 14m
Last check:     2026-04-03 09:12:00 UTC
Status:         COMPLIANT

Cache leeren

$ precc geofence clear
[precc] Geofence cache cleared.

Konfiguration

Die Geofence-Richtlinie wird in ~/.config/precc/geofence.toml definiert:

[geofence]
allowed_regions = ["us-east-1", "us-west-2", "eu-west-1"]
check_on_init = true
block_on_violation = false

Setzen Sie block_on_violation = true, um zu verhindern, dass PRECC außerhalb der erlaubten Regionen arbeitet.

Telemetrie

PRECC unterstützt optionale anonyme Telemetrie zur Verbesserung des Tools. Es werden keine Daten erfasst, es sei denn, Sie stimmen ausdrücklich zu.

Aktivieren

$ precc telemetry consent
[precc] Telemetry enabled. Thank you for helping improve PRECC.
[precc] You can revoke consent at any time with: precc telemetry revoke

Deaktivieren

$ precc telemetry revoke
[precc] Telemetry disabled. No further data will be sent.

Status prüfen

$ precc telemetry status
Telemetry: disabled
Last sent: never

Vorschau der zu sendenden Daten

Vor der Aktivierung können Sie genau sehen, welche Daten erfasst würden:

$ precc telemetry preview
Telemetry payload (this session):
{
  "version": "0.3.0",
  "os": "linux",
  "arch": "x86_64",
  "skills_activated": 12,
  "commands_intercepted": 87,
  "pillars_used": [1, 4],
  "avg_hook_latency_ms": 2.3,
  "session_count": 1
}

Was erfasst wird

  • PRECC-Version, Betriebssystem und Architektur
  • Aggregierte Zähler: abgefangene Befehle, aktivierte Skills, verwendete Säulen
  • Durchschnittliche Hook-Latenz
  • Anzahl der Sitzungen

Was NICHT erfasst wird

  • Kein Befehlstext oder Argumente
  • Keine Dateipfade oder Verzeichnisnamen
  • Keine Projektnamen oder Repository-URLs
  • Keine personenbezogenen Daten (PII)
  • Keine IP-Adressen (der Server protokolliert sie nicht)

Umgebungsvariable überschreiben

Um Telemetrie ohne Befehl zu deaktivieren (nützlich in CI oder gemeinsamen Umgebungen):

export PRECC_NO_TELEMETRY=1

Dies hat Vorrang vor der Einwilligungseinstellung.

Datenziel

Telemetriedaten werden über HTTPS an https://telemetry.peria.ai/v1/precc gesendet. Die Daten werden ausschließlich verwendet, um Nutzungsmuster zu verstehen und die Entwicklung zu priorisieren.

Mindmap

Diese Seite wird automatisch aus mindmap.db generiert — einer SQLite-Momentaufnahme aller aufgezeichneten PRECC-Entwicklungssitzungen und Git-Commits. Jede Zeile lässt sich bis zu ihrer Quelle zurückverfolgen (commit:<sha>, session:<id> oder doc:<path>).

Überblick

  • Analysierte Sitzungen: 22
  • Nachrichten: 14023
  • Werkzeugaufrufe: 5072
  • Commits: 205
  • Zeitbereich: 2026-03-20T07:04:14.787Z → 2026-04-19T11:50:10.153Z
  • Aufwand (Tokens):
    • Eingabe: 27928
    • Ausgabe: 2750669
    • Cache-Schreibvorgänge: 43349705
    • Cache-Lesevorgänge: 1936351239

Funktionen

BereichTitelStatusCommitsTokensErsterLetzterQuelle
benchfeat(bench): SWE-bench Verified/Lite driver scaffoldingstabilizing443442992026-04-172026-04-17commit:5bdd027d
benchmark_gate.shfeat: benchmark_gate.sh + pin tb dataset to 0.1.1shipped143442992026-04-172026-04-17commit:99fa9a74
realfeat: real lean-ctx (not stub), wider campaign, doc updatesshipped2298211522026-04-072026-04-17commit:6095720a
precc_mode=benchmarkfeat: PRECC_MODE=benchmark toggle + pairwise benchmark harnessshipped143442992026-04-172026-04-17commit:50c5a30f
addfeat: add precc update self-update commandshipped14425571072026-03-092026-04-17commit:e5542fba
negotiablefeat: negotiable rewrites, skill decay, explain/undo — response to criticshipped143442992026-04-172026-04-17commit:6fda67e4
statuslinefeat: statusline shows actual session token consumption + coststabilizing3254249152026-04-082026-04-13commit:4f65556d
publicfeat: public repo commits attributed to Ce-cyber-artshipped1253821192026-04-102026-04-10commit:0e4840e4
shortfeat: short install URL https://peria.ai/install.shshipped1253821192026-04-092026-04-09commit:615d3d06
rewritefeat: rewrite Pillar 2b (ccc) and Pillar 3 (compress) in Rust for single-binary deploymentshipped2381180742026-03-202026-04-08commit:78621579
shortenfeat: shorten statusline segments to fit narrower terminalsshipped1253821192026-04-082026-04-08commit:ef2c88b4
dropfeat: drop fake token estimate, append cost estimate to lifetime segmentstabilizing2253821192026-04-082026-04-08commit:2702f3f9
updatefeat: update pricing to $5/6mo + $10/yr, add webhook serverstabilizing9381180742026-02-252026-04-08commit:2d366031
clearerfeat: clearer statusline labels — meas:, drop confusing %, add bash shareshipped1253821192026-04-082026-04-08commit:4cd837b7
stablefeat: stable machine_hash for telemetry dedupstabilizing2253821192026-04-082026-04-08commit:3073f428
lifetimefeat: lifetime savings segment in statuslineshipped1253821192026-04-082026-04-08commit:9af422e8
preccfeat: precc analyze frequencies — data-driven rule gap discoveryshipped3253821192026-04-072026-04-08commit:d6f24c50
per-interactionfeat: per-interaction PRECC savings line in PostToolUseshipped1253821192026-04-082026-04-08commit:e3bc282e
webhookfeat: webhook auto-regenerates stats.json on telemetry POSTstabilizing2291341862026-03-312026-04-08commit:912b75f3
per-emailfeat: per-email aggregation for telemetryshipped1253821192026-04-082026-04-08commit:14c95e7d
v0.3.3feat: v0.3.3 — companion tools default-on, install-script clarityshipped1253821192026-04-072026-04-07commit:48fca046
measurementfeat: measurement campaign script — real per-mode measurementsshipped1253821192026-04-072026-04-07commit:36760587
quote-awarefeat: quote-aware chain split + sysadmin tool whitelist (54.2% → 55.5%)shipped1253821192026-04-072026-04-07commit:f6580598
;feat: ; chain support + ssh inner-command parsing for measurementshipped1253821192026-04-072026-04-07commit:10093218
expandfeat: expand is_safe_to_rerun coverage + measurement timeout/cacheshipped1253821192026-04-072026-04-07commit:c5a7ea79
multi-modefeat: multi-mode adaptive compression with failure learningshipped1253821192026-04-072026-04-07commit:81475afc
measuredfeat: measured savings in telemetry, detailed live stats, update nudgeshipped1253821192026-04-062026-04-06commit:06907091
scientificfeat: scientific token savings measurement, telemetry dedup, 28-language docsshipped1253821192026-04-062026-04-06commit:78a20ef2
v0.3.2feat: v0.3.2 — hook safety, adaptive compression, on-demand metrics importshipped1253821192026-04-052026-04-05commit:a0c0c882
self-hostedfeat: self-hosted telemetry endpoint at peria.ai, install UX improvementsshipped125657032026-04-042026-04-04commit:8212a18e
auto-updatefeat: auto-update consent prompt on init and manual updateshipped119243022026-04-022026-04-02commit:818be6dd
useperf: use pre-built binaries for lean-ctx and nushell installationstabilizing4101702522026-03-092026-03-31commit:8c612e55
authorizefeat: authorize peria.ai server for license key generationshipped211863642026-03-312026-03-31commit:53dfe832
licensefeat: license keys, SMTP mail-agent, updated business plan and demosstabilizing2101702522026-03-092026-03-31commit:b07c9dfb
lean-ctxfeat: lean-ctx integration for deep output compressionshipped111863642026-03-312026-03-31commit:07361e62
integratefeat: integrate three-pillar savings from precc-cc (cocoindex-code, token-saver, ClawHub)shipped2101702522026-03-202026-03-31commit:af4205f1
windowsfeat: Windows build via CI, deploy triggers workflowstabilizing225336922026-03-292026-03-29commit:7404761b
monthlyfeat: monthly usage report via email for Pro usersshipped125336922026-03-282026-03-28commit:77ad78bc
nushellfeat: nushell what-if analysis, skill clustering, comment blocker, bash unwrap (v0.2.6)shipped123379412026-03-272026-03-27commit:803df684
geofencefeat: geofence compliance guard, 3rd-party skill Claude interaction tracking (v0.2.5)shipped123379412026-03-262026-03-26commit:0c9fc765
stripefeat: Stripe payment integration, context pressure, GHA analysisshipped224570882026-03-212026-03-22commit:8eb16f78
contextfeat: context pressure warning, GHA analysis, statusline context %shipped121661412026-03-202026-03-20commit:894621ba
statusline,feat: statusline, squash deploy, ClaWHub metadata, SHA256 checksumsshipped121661412026-03-202026-03-20commit:7ab15883
gumroadfeat: Gumroad license verification via API (v0.2.2)shipped102026-03-132026-03-13commit:75c5e480
per-userfeat: per-user email-based license keys with Gumroad webhook (v0.2.2)shipped102026-03-132026-03-13commit:6d056958
posttoolusefeat: PostToolUse observability + comprehensive test coverage (v0.2.1)shipped102026-03-122026-03-12commit:6e33b7e4
multi-toolfeat: multi-tool hook dispatch, subagent propagation & Read/Grep filters (v0.2.0)shipped102026-03-122026-03-12commit:1bf5a108
skillfeat: skill advisor, sharing credits, telemetry & Rust actionbook (v0.1.9)shipped102026-03-122026-03-12commit:d41d310e
firefeat: fire anonymous update-check ping on precc update (opt-out via PRECC_NO_TELEMETRY=1)shipped102026-03-102026-03-10commit:7acce69d
enforcefeat: enforce license tier gates (Free/Pro) on ingest, mined skills, gif, mail, savingsshipped102026-03-102026-03-10commit:a7bd23e3
translatefeat: translate git commands to jj (Jujutsu) in colocated reposshipped102026-03-092026-03-09commit:d8a29e48
rtkfeat(rtk): sync rewrite rules with upstream RTK v0.27.2shipped102026-03-092026-03-09commit:ad7dca0e
applyfeat: apply skill portfolio per command for maximum token savingsshipped102026-03-092026-03-09commit:b2490073
pitchfeat(pitch): add bilingual EN/ZH PowerPoint pitch deckshipped202026-02-272026-02-28commit:8876c4b7
hookperf(hook): skip heuristics.db open via plain-text prefix cacheshipped102026-02-272026-02-27commit:89537483
initfeat(init): embed builtin skills in binary via include_str!shipped102026-02-262026-02-26commit:3a837b13
clifeat(cli): add precc skills export commandshipped202026-02-262026-02-26commit:59beea8d
gdbfeat(gdb): re-enable Pillar 2 GDB hook suggestionshipped102026-02-262026-02-26commit:a8428025
skillsfeat(skills): add git wrong-dir skill and context mappingstabilizing202026-02-252026-02-25commit:352474e1
metricsfeat(metrics): record hook latency, rtk_rewrite, cd_prepend via append-logshipped102026-02-252026-02-25commit:9bf31d12
demofeat(demo): add investor demo suiteshipped102026-02-252026-02-25commit:c818a0ac
securityfeat(security): SQLCipher encryption, binary hardening, multi-platform CIshipped102026-02-252026-02-25commit:efd3dfc8
ingestfeat(ingest): add –force flag to re-mine already-recorded sessionsshipped102026-02-222026-02-22commit:85cc8f6f

Abhängigkeiten (precc-core-Module)

  • advisordb, promote, skills
  • dietlean_ctx
  • metricsdb
  • miningskills
  • mode_selectordb, mode
  • multi_probediet, lean_ctx, mode, nushell, post_observe, rtk
  • nushelllean_ctx, mining, rtk
  • promotedb, skills
  • rtklean_ctx
  • sharingdb, license, skills
  • skill_advisormining, nushell
  • skillsdb
  • telemetrydb, license, mining

Pläne und Aufgaben

Pläne (Design-/Architekturanfragen)

  • [proposed] indeed the measurement needs to be based on precc-cc’s established KPI’s. If the two ideas are so close, perhaps you can draft a plan to integrate them (algorithmatically) step-by-step, then start to use Rust (consistent with Precc) to impl… — session:905ff169 (2026-04-18)
  • [proposed] 西班牙语网站上有人评价:中文翻譯(繁體): — session:781fe484 (2026-04-16)
  • [proposed] That’s a really solid framing — using pre-tool-call hooks as quality gates instead of just optimization is a big shift in mindset. You’re essentially moving from “make the model cheaper” to “make the system more correct,” whic… — session:ebd81938 (2026-04-05)
  • [proposed] Plan the integration of both tools, make sure we don’t take their credit and maintain a clear interface so that once it evolves, we can get smaller changes to integrate with their future changes — session:43541885 (2026-03-31)
  • [proposed] for the benchmark, we need to prepare a table to record the comparison for existing historical scenarios, as a “what-if” analysis because there is no way to measure the results for future usages. For this requirement, plan out a step-by-ste… — session:5761d7ca (2026-03-27)
  • [proposed] while bash could be improved using RTK, would its replacement with nushell a better choice for Claude Code? If so, plan an option for replacing bash with nushell to gain better accuracy and hence potentially more token savings by some small… — session:5761d7ca (2026-03-27)

Aufgaben (TaskCreate-/TodoWrite-Einträge)

  • completed: 89
  • in_progress: 3
  • deleted: 2

Neueste 30 Aufgaben:

  • [completed] Re-ingest and review residual pending — Run precc mindmap build after the fix, then classify the actually-pending tasks (done-but-unclosed vs genuinely-unfinished). — session:0925455d (2026-04-19)
  • [completed] Fold TaskCreate/TaskUpdate + dedupe TodoWrite — Replay TaskCreate/TaskUpdate events per (session_id, taskId) to derive final status. For TodoWrite, keep only the last call per session. — session:0925455d (2026-04-19)
  • [completed] Run ingest and produce MINDMAP.md — Execute ingest on local sessions + git, then render output to docs/MINDMAP.md. — session:0925455d (2026-04-19)
  • [completed] Wire precc mindmap CLI subcommand — Add ingest/render subcommands to precc-cli. — session:0925455d (2026-04-19)
  • [completed] Write mindmap render module — Query DB and render nested markdown mindmap with KPIs, features, plans, blockers. — session:0925455d (2026-04-19)
  • [completed] Write mindmap ingest module — Parse JSONL sessions + git log, extract messages/tokens/commands/decisions into SQLite. — session:0925455d (2026-04-19)
  • [completed] Design SQLite mindmap schema — Tables: sessions, messages, commands, features, plans, tasks, kpis, decisions, dependencies. Every row traces to source (session_id+uuid or commit sha). — session:0925455d (2026-04-19)
  • [in_progress] Step 4: HeaderSlicePass + kernel corpus — Shallow-clone Linux kernel, adapt filter for kernel conventions (Fixes: tag, selftests/ and kunit test-surface detection, .c/.h classification). Measure how many recent fix commits ship with a test an… — session:905ff169 (2026-04-19)
  • [completed] Step 6: concurrency extraction — Add Pipeline::run_parallel_applies that parallelizes applies() via std::thread::scope when pass count ≥ threshold. Falls back to serial below threshold (thread-spawn overhead > savings). Benchmark s… — session:905ff169 (2026-04-19)
  • [completed] [parallel] AST-aware #[test] extractor — Use syn (Rust) or tree-sitter-rust (Python) to detect added #[test] fns in a commit diff and emit a test-only patch. Gates fail→pass verification on this repo. Not blocking; parallel work for the Ru… — session:905ff169 (2026-04-19)
  • [completed] Step 7: precc skvm report tooling — Wire had_solid_hit into metrics log. Add precc skvm report that surfaces pass activation counts, cache hit rate, hook-latency percentiles. Read from metrics.db + skvm_solid_cache. Closes the observa… — session:905ff169 (2026-04-19)
  • [completed] Wire SolidificationPass into live hook — Add stage_solidification_lookup (front, short-circuits on hit) and stage_solidification_record (end) to Pipeline. Gate behind PRECC_SOLIDIFY. Add had_solid_hit flag. Open cache via db::open_metrics fo… — session:905ff169 (2026-04-19)
  • [completed] Step 3: solidification cache — skvm::solid module: Cache (SQLite-backed) with lookup/record, Key with normalization, SolidificationPass at pipeline front. Gated by PRECC_SOLIDIFY=1. Tests with in-memory DB. No wiring into live hook… — session:905ff169 (2026-04-19)
  • [completed] Wire CdPrependPass into hook’s stage_context — Replace the direct context::resolve/apply calls in precc-hook::Pipeline::stage_context with CdPrependPass via HookIR. Verify no hook tests regress; full cargo test green. — session:905ff169 (2026-04-19)
  • [completed] Step 2: migrate cd_prepend through Pass trait — Re-express the existing cd-prepend stage as a Pass impl that reuses the current context resolution. Diff-test: on a fixture corpus, the new pass must produce byte-identical output to the legacy path. … — session:905ff169 (2026-04-19)
  • [completed] Step 5 preview: CrateSlicePass sketch — Implement CrateSlicePass in precc-core::skvm::passes::crate_slice. Detects cargo &lt;build\|test\|check\|clippy&gt; without -p, reads cached cargo metadata, narrows to -p when unambiguous. Wire a minimal K… — session:905ff169 (2026-04-19)
  • [completed] Step 1: Pass trait + HookIR — precc-core::skvm::{pass, ir}. Pass trait with name/capability/applies/run. HookIR holds command, cwd, and mutable output. Capability enum: Detect|Rewrite|Slice|Verify. No behavior change; no passes re… — session:905ff169 (2026-04-19)
  • [completed] Step 0: baseline harness — Add precc-core::skvm::baseline module + precc report --skvm-baseline subcommand. Snapshots K1 (hook latency p50/p99), K3 (token savings total), activation counts from metrics.db into a named baselin… — session:905ff169 (2026-04-19)
  • [completed] Build K3-only replay corpus — For each of the 82 fix-surface commits, derive ground-truth set of changed crates and emit realistic cargo commands. CrateSlicePass evaluation will read this corpus and measure narrowing precision/rec… — session:905ff169 (2026-04-18)
  • [deleted] Run verifier over 33 candidates — Execute verifier, collect verdicts. Apply size gate to verified set. Emit precc_self_corpus.jsonl. — session:905ff169 (2026-04-18)
  • [deleted] Write fail-at-parent verifier — Per candidate: git worktree at parent, apply only test-file diff, cargo test (expect added tests FAIL), reset + apply full commit, cargo test (expect PASS). Per-worktree CARGO_TARGET_DIR to avoid tras… — session:905ff169 (2026-04-18)
  • [completed] Classify test surface of 33 candidates — Split candidates into pure_test_path (tests/ only) vs mixed_file_test (production + #[test] in same file). Reports count by class. Cheap, no cargo. — session:905ff169 (2026-04-18)
  • [completed] Run first Terminal-bench batch (5 tasks) — Execute scripts/benchmark.sh –tasks 5 using OAuth token from subscription as ANTHROPIC_API_KEY. Verify arm A (vanilla) works, then arm B (PRECC), then compare.json. — session:781fe484 (2026-04-17)
  • [completed] Add precc explain and precc undo — explain –since 1h: lists recent rewrites with diff + skill + confidence (reads stash + rewrite_log). undo <id>: re-disables the skill that produced rewrite id. — session:781fe484 (2026-04-16)
  • [completed] Confidence decay on retry-after-rewrite — post_observe: if same command class is retried within 60s after a PRECC rewrite, decrement skill confidence by 0.05 (or count as false-correction event). Below SUGGEST_THRESHOLD (0.3) skill auto-disab… — session:781fe484 (2026-04-16)
  • [completed] Add precc skills disable/enable per-project — CLI commands to disable a skill in the current project (writes to .precc/disabled-skills file at project root). Hook reads this list and skips matching skills. — session:781fe484 (2026-04-16)
  • [completed] Make every rewrite visible via additionalContext — In precc-hook, whenever the pipeline produces a non-trivial rewrite (cd-prepend, skill, RTK, lean-ctx, nushell, diet), append a one-line summary “PRECC rewrote: <orig> -> <new> [reason]” to additional… — session:781fe484 (2026-04-16)
  • [completed] Soften overstated claims in intro — Replace “Claude never sees the error. No tokens wasted.” with measured language matching README. Update strings_intro.sql and re-translate the new key for all 28 langs. — session:781fe484 (2026-04-16)
  • [completed] Fix per-language html lang and dir — build-book.sh must rewrite book.toml language= and text-direction= per language so generated pages have correct lang/dir attributes. RTL for ar, fa. — session:781fe484 (2026-04-16)
  • [completed] Rebuild book and verify — Run scripts/build-book.sh to regenerate introduction.md per language, verify first lines now show translations — session:781fe484 (2026-04-16)

Blockaden (vom Nutzer gemeldete Fehler-/Hängesignale)

  • look at all the historical session logs and executed commands to summarize a mark down document like Mindmap showing (1) the features, status, decisions, dependencies, and effort (tokens releated to its development); (2) the plans, tasks, s… — session:0925455d (2026-04-19)
  • check if it is working? why precc savings –all doesn’t work? — session:ebd81938 (2026-04-13)
  • i tried that url it doesn’t work? — session:ebd81938 (2026-04-08)
  • why I can’t see the “last: “ messages? — session:ebd81938 (2026-04-08)
  • not yet. I would wait to get more data from telemetry to update the website. But now you need to investigate on those “unmeasured” cases, why we cannot measure them? — session:ebd81938 (2026-04-07)
  • regarding the live usage statistics https://precc.cc/en/#live-usage-statistics, we need to report the percentages based on the duration of releases, i.e., how much saving was made by which release (otherwise it is easy to mislead readers to… — session:ebd81938 (2026-04-06)
  • https://precc.cc cannot find the server — session:ebd81938 (2026-04-05)
  • can see key_id mk_1TDiUmFxhHEidPnDw5esdOMa, but cannot reveal or see the sk_live_… — session:d65ad15f (2026-04-01)
  • PS C:\Users\y00577373> iwr -useb https://raw.githubusercontent.com/peria-ai/precc-cc/main/scripts/install.ps1 | iex — session:10175339 (2026-03-30)
  • why can’t you create peria-ai or peri-a-i organizations — session:10175339 (2026-03-28)
  • the hello_world_do example has the following errors: NPU run failed. — session:3b5e2947 (2026-03-22)

Entscheidungen und Begründungen

  • feat(bench): clean-subset metrics (exclude timeouts & infra failures) — When one arm times out or the agent fails to install, the resulting tokens/pass numbers aren’t measuring PRECC — they’re measuring tb’s source: commit:5bdd027d (commit 2026-04-17)
  • fix(bench): drop –include-hook-events (causes 401 Invalid API key) — Adding --include-hook-events to the tb agent command caused Claude Code to return api_error_status=401 on first turn, even though the source: commit:025995d9 (commit 2026-04-17)
  • feat: PRECC_MODE=benchmark toggle + pairwise benchmark harness — Problem (from reviewer): the “trivial vs semantic” error-shaping claim is rhetoric without a measurable boundary. A rewriter that saves tokens source: commit:50c5a30f (commit 2026-04-17)
  • docs: update savings.md.tpl + README to match new statusline labels — - Σ → meas: throughout - New ‘bash X% of total’ segment row in segment table source: commit:2d366031 (commit 2026-04-08)
  • feat: clearer statusline labels — meas:, drop confusing %, add bash share — Three statusline UX changes from user feedback: 1. Lifetime segment renamed from ‘Σ 8.9K (22% over 217)’ to source: commit:4cd837b7 (commit 2026-04-08)
  • docs: explain statusline cost vs token semantics in book + README — Adds a ‘Status Bar’ section to docs/book/templates/savings.md.tpl and README.md explaining: source: commit:6028b64c (commit 2026-04-08)
  • feat: v0.3.3 — companion tools default-on, install-script clarity — The single biggest change: install.sh now installs companion tools (lean-ctx, RTK, nushell, cocoindex-code) BY DEFAULT instead of source: commit:48fca046 (commit 2026-04-07)
  • feat: quote-aware chain split + sysadmin tool whitelist (54.2% → 55.5%) — Three improvements that increase measurable Bash invocation coverage: 1. Quote-aware top-level chain split source: commit:f6580598 (commit 2026-04-07)
  • fix: command_class env stripping, skill validation, ssh/journalctl/kubectl diet rules — 1. command_class strips env prefixes and noise: - RUST_BACKTRACE=1 cargo test → “cargo test” source: commit:f4220343 (commit 2026-04-07)
  • feat: multi-mode adaptive compression with failure learning — New modules: - mode.rs: CompressionMode enum (basic/diet/nushell/lean-ctx/rtk/adaptive-expand) source: commit:81475afc (commit 2026-04-07)
  • test: comprehensive tests for ccc and compress modules (319 → 386 tests) — ccc.rs: +20 tests covering edge cases for is_eligible (flags, whitespace, empty input), extract_pattern (no path, multiple flags, boundary length), source: commit:448430e2 (commit 2026-03-20)
  • feat(gdb): re-enable Pillar 2 GDB hook suggestion — - Add open_history_readonly() to db.rs (same pattern as heuristics) - Add count_recent_failures() to gdb.rs: queries failure_fix_pairs for source: commit:a8428025 (commit 2026-02-26)
  • fix(mining): correct summary counters and orphaned events on –force re-mine — Three bugs fixed: 1. mine_session returned Skipped for sessions with no Bash events even source: commit:3ef089d8 (commit 2026-02-22)
  • 1. Compiled Rust Binary vs Shell ScriptDecision: Replace the rtk-rewrite.sh shell script hook with a compiled Rust binary (precc-hook). Alternatives considered: source: doc:ALTERNATIVES.md
  • 2. SQLite vs Key-Value StoreDecision: Use SQLite for both history.db and heuristics.db. Alternatives considered: source: doc:ALTERNATIVES.md
  • 3. Workspace of 4 Crates vs MonolithDecision: Structure the project as a Cargo workspace with 4 crates: precc-core, precc-hook, precc-cli, precc-learner. Alternatives considered: source: doc:ALTERNATIVES.md
  • 4. GDB Hook Integration vs Standalone CLIDecision: Implement GDB debugging as a CLI command (precc debug) rather than as an automatic hook rewrite. Alternatives considered: source: doc:ALTERNATIVES.md
  • 5. Background Daemon vs On-Demand MiningDecision: Support both modes — precc-learner daemon for continuous mining, precc ingest for on-demand. Alternatives considered: source: doc:ALTERNATIVES.md
  • 6. Confidence ThresholdsDecision: Three-tier confidence system: auto-apply (≥ 0.7), suggest (0.3-0.7), hidden (< 0.3). Alternatives considered: source: doc:ALTERNATIVES.md
  • 7. RTK Subsumption StrategyDecision: Port RTK’s rewriting logic into precc-core as the final pipeline stage, rather than running both hooks in sequence. Alternatives considered: source: doc:ALTERNATIVES.md
  • 8. Skill Storage FormatDecision: TOML files for built-in skills, SQLite rows for mined/user skills. Alternatives considered: source: doc:ALTERNATIVES.md
  • 9. Session Log FormatDecision: Read Claude Code’s native JSONL format directly rather than converting to a custom format. Rationale: Claude Code already writes detailed session logs in JSONL format at ~/.claude/projects/*/. Creating a custom format would mean: source: doc:ALTERNATIVES.md

KPIs im Zeitverlauf

MetrikEinheitErsterNeuesteΔStichprobenLetzte Quelle
atx0.11.25+1.152commit:4f65556d
buildms3480+4772commit:f84bab49
hookms53-22commit:f81e4543
precctokens42387-3362commit:e3bc282e
savedms4.86.3+1.52commit:ec17f16c

Aufwand pro Sitzung (Top 10 nach Tokens)

SitzungErster → LetzterNachr.EingabeAusgabeCache-SchreibenCache-Lesen
ebd819382026-04-04 → 2026-04-1345174547686622246909501020430414
781fe4842026-04-16 → 2026-04-17143413416035963739362259708120
101753392026-03-28 → 2026-03-30131811761024692430047110606429
5761d7ca2026-03-26 → 2026-03-28118043631370562196522116605673
550c7bab2026-03-20 → 2026-03-2210641466104943205973292991217
905ff1692026-04-18 → 2026-04-196501698496929157266863432376
d65ad15f2026-03-31 → 2026-04-0475255878099184564558334554
3b5e29472026-03-22 → 2026-03-2311628961280681526203102403205
0925455d2026-04-19 → 2026-04-19440830262128122605432943523
435418852026-03-31 → 2026-03-31566735382683109632841667559

Befehlsreferenz

Vollständige Referenz für alle PRECC-Befehle.


precc init

PRECC initialisieren und den Hook bei Claude Code registrieren.

precc init

Options:
  (none)

Effects:
  - Registers PreToolUse:Bash hook with Claude Code
  - Creates ~/.local/share/precc/ data directory
  - Initializes heuristics.db with built-in skills
  - Prompts for telemetry consent

precc ingest

Sitzungsprotokolle nach Fehler-Fix-Mustern durchsuchen.

precc ingest [FILE] [--all] [--force]

Arguments:
  FILE            Path to a session log file (.jsonl)

Options:
  --all           Ingest all session logs from ~/.claude/logs/
  --force         Re-process files that were already ingested

Examples:
  precc ingest session.jsonl
  precc ingest --all
  precc ingest --all --force

precc skills

Automatisierungsskills verwalten.

precc skills list

precc skills list

List all active skills (built-in and mined).

precc skills show

precc skills show NAME

Show detailed information about a specific skill.

Arguments:
  NAME            Skill name (e.g., cargo-wrong-dir)

precc skills export

precc skills export NAME

Export a skill definition as TOML.

Arguments:
  NAME            Skill name

precc skills edit

precc skills edit NAME

Open a skill definition in $EDITOR.

Arguments:
  NAME            Skill name

precc skills advise

precc skills advise

Analyze recent sessions and suggest new skills based on repeated patterns.

precc skills cluster

precc skills cluster

Group similar mined skills to identify redundant or overlapping patterns.

precc report

Einen Analysebericht erstellen.

precc report [--email]

Options:
  --email         Send the report via email (requires mail setup)

precc savings

Token-Einsparungen anzeigen.

precc savings [--all]

Options:
  --all           Show detailed per-command breakdown (Pro)

precc compress

Kontextdateien komprimieren, um Token-Verbrauch zu reduzieren.

precc compress [DIR] [--dry-run] [--revert]

Arguments:
  DIR             Directory or file to compress (default: current directory)

Options:
  --dry-run       Preview changes without modifying files
  --revert        Restore files from backup

precc license

Ihre PRECC-Lizenz verwalten.

precc license activate

precc license activate KEY --email EMAIL

Arguments:
  KEY             License key (XXXX-XXXX-XXXX-XXXX)

Options:
  --email EMAIL   Email address associated with the license

precc license status

precc license status

Display current license status, plan, and expiration.

precc license deactivate

precc license deactivate

Deactivate the license on this machine.

precc license fingerprint

precc license fingerprint

Display the device fingerprint for this machine.

precc mail

E-Mail-Funktionalität.

precc mail setup

precc mail setup

Interactive SMTP configuration. Saves to ~/.config/precc/mail.toml.

precc mail report

precc mail report EMAIL

Send a PRECC analytics report to the specified email address.

Arguments:
  EMAIL           Recipient email address

precc mail send

precc mail send EMAIL FILE

Send a file as an email attachment.

Arguments:
  EMAIL           Recipient email address
  FILE            Path to the file to send

precc update

PRECC auf die neueste Version aktualisieren.

precc update [--force] [--version VERSION] [--auto]

Options:
  --force             Force update even if already on latest
  --version VERSION   Update to a specific version
  --auto              Enable automatic updates

precc telemetry

Anonyme Telemetrie verwalten.

precc telemetry consent

Opt in to anonymous telemetry.

precc telemetry revoke

precc telemetry revoke

Opt out of telemetry. No further data will be sent.

precc telemetry status

precc telemetry status

Show current telemetry consent status.

precc telemetry preview

precc telemetry preview

Display the telemetry payload that would be sent (without sending it).

precc geofence

IP-Geofence-Compliance (Pro).

precc geofence check

precc geofence check

Check if the current machine is in an allowed region.

precc geofence refresh

precc geofence refresh

Refresh the IP geolocation cache.

precc geofence clear

precc geofence clear

Clear the geofence cache.

precc geofence info

precc geofence info

Display geofence configuration and current status.

precc gif

Animierte GIFs aus Bash-Skripten aufnehmen (Pro).

precc gif SCRIPT LENGTH [INPUTS...]

Arguments:
  SCRIPT          Path to a bash script
  LENGTH          Maximum recording duration (e.g., 30s, 2m)
  INPUTS...       Optional input lines for interactive prompts

Examples:
  precc gif demo.sh 30s
  precc gif interactive.sh 60s "yes" "my-project"

precc gha

Fehlgeschlagene GitHub Actions-Läufe analysieren (Pro).

precc gha URL

Arguments:
  URL             GitHub Actions run URL

Example:
  precc gha https://github.com/org/repo/actions/runs/12345678

precc cache-hint

Cache-Hinweis-Informationen für das aktuelle Projekt anzeigen.

precc cache-hint

precc trial

Eine Pro-Testversion starten.

precc trial EMAIL

Arguments:
  EMAIL           Email address for the trial

precc nushell

Eine Nushell-Sitzung mit PRECC-Integration starten.

precc nushell

FAQ

Ist PRECC sicher?

Ja. PRECC verwendet den offiziellen PreToolUse-Hook-Mechanismus von Claude Code – denselben Erweiterungspunkt, den Anthropic genau für diesen Zweck entwickelt hat. Der Hook:

  • Läuft vollständig offline (keine Netzwerkaufrufe im Hot Path)
  • Wird in unter 5 Millisekunden abgeschlossen
  • Ist fail-open: bei Problemen wird der ursprüngliche Befehl unverändert ausgeführt
  • Ändert nur Befehle, führt sie nie selbst aus
  • Speichert Daten lokal in SQLite-Datenbanken

Funktioniert PRECC mit anderen KI-Coding-Tools?

PRECC ist speziell für Claude Code entwickelt. Es basiert auf dem PreToolUse-Hook-Protokoll, das Claude Code bereitstellt. Es funktioniert nicht mit Cursor, Copilot, Windsurf oder anderen KI-Coding-Tools.

Welche Daten sendet die Telemetrie?

Telemetrie ist nur Opt-in. Wenn aktiviert, sendet sie:

  • PRECC-Version, Betriebssystem und Architektur
  • Aggregierte Zähler (abgefangene Befehle, aktivierte Skills)
  • Durchschnittliche Hook-Latenz

Sie sendet keine Befehlstexte, Dateipfade, Projektnamen oder persönlich identifizierbare Informationen. Sie können die genaue Nutzlast mit precc telemetry preview vor der Aktivierung ansehen. Siehe Telemetrie für Details.

Wie deinstalliere ich PRECC?

??faq_uninstall_a_intro??

  1. Hook-Registrierung entfernen:

    # Delete the hook entry from Claude Code's settings
    # (precc init added it; removing it disables PRECC)
    
  2. Binärdatei entfernen:

    rm ~/.local/bin/precc ~/.local/bin/precc-hook ~/.local/bin/precc-learner
    
  3. Daten entfernen (optional):

    rm -rf ~/.local/share/precc/
    rm -rf ~/.config/precc/
    

Meine Lizenz ist abgelaufen. Was passiert?

PRECC kehrt zum Community-Tier zurück. Alle Kernfunktionen funktionieren weiterhin:

  • Eingebaute Skills bleiben aktiv
  • Die Hook-Pipeline läuft normal
  • precc savings zeigt die Zusammenfassung
  • precc ingest und Session-Mining funktionieren

Pro-Funktionen werden bis zur Verlängerung nicht verfügbar:

  • precc savings --all (detaillierte Aufschlüsselung)
  • precc compress
  • precc gif
  • precc gha
  • precc geofence
  • E-Mail-Berichte

Der Hook scheint nicht zu laufen. Wie debugge ich?

??faq_debug_a_intro??

  1. Prüfen Sie, ob der Hook registriert ist:

    precc init
    
  2. Testen Sie den Hook manuell:

    echo '{"tool_input":{"command":"cargo build"}}' | precc-hook
    
  3. Prüfen Sie, ob die Binärdatei in Ihrem PATH ist:

    which precc-hook
    
  4. Prüfen Sie die Hook-Konfiguration von Claude Code in ~/.claude/settings.json.

Verlangsamt PRECC Claude Code?

Nein. Der Hook wird in unter 5 Millisekunden (p99) abgeschlossen. Dies ist im Vergleich zur Zeit, die Claude für Reasoning und Antwortgenerierung benötigt, nicht wahrnehmbar.

Kann ich PRECC in CI/CD verwenden?

PRECC ist für interaktive Claude Code-Sitzungen konzipiert. In CI/CD gibt es keine Claude Code-Instanz zum Anhaken. Allerdings kann precc gha fehlgeschlagene GitHub Actions-Läufe aus jeder Umgebung analysieren.

Wie unterscheiden sich geminte Skills von eingebauten Skills?

Eingebaute Skills werden mit PRECC ausgeliefert und decken häufige Falsche-Verzeichnis-Muster ab. Geminte Skills werden aus Ihren spezifischen Sitzungsprotokollen gelernt – sie erfassen Muster, die einzigartig für Ihren Workflow sind. Beide werden in SQLite gespeichert und identisch von der Hook-Pipeline ausgewertet.

Kann ich Skills mit meinem Team teilen?

Ja. Exportieren Sie einen Skill mit precc skills export NAME als TOML und teilen Sie die Datei. Teammitglieder können sie in ihr skills/-Verzeichnis legen oder in ihre Heuristik-Datenbank importieren.

Andere Sprachen