$ from anthropic import Anthropic client = Anthropic() def medir_ratio(texto: str) -> float: tokens_46 = client.messages.count_tokens( model="claude-opus-4-6", messages=[{"role": "user", "content": texto}], ).input_tokens tokens_47 = client.messages.count_tokens( model="claude-opus-4-7", messages=[{"role": "user", "content": texto}], ).input_tokens return tokens_47 / tokens_46 with open("mi_prompt.md") as f: ratio = medir_ratio(f.read()) print(f"Ratio: {ratio:.3f}x")
from anthropic import Anthropic client = Anthropic() def medir_ratio(texto: str) -> float: tokens_46 = client.messages.count_tokens( model="claude-opus-4-6", messages=[{"role": "user", "content": texto}], ).input_tokens tokens_47 = client.messages.count_tokens( model="claude-opus-4-7", messages=[{"role": "user", "content": texto}], ).input_tokens return tokens_47 / tokens_46 with open("mi_prompt.md") as f: ratio = medir_ratio(f.read()) print(f"Ratio: {ratio:.3f}x")
from anthropic import Anthropic client = Anthropic() def medir_ratio(texto: str) -> float: tokens_46 = client.messages.count_tokens( model="claude-opus-4-6", messages=[{"role": "user", "content": texto}], ).input_tokens tokens_47 = client.messages.count_tokens( model="claude-opus-4-7", messages=[{"role": "user", "content": texto}], ).input_tokens return tokens_47 / tokens_46 with open("mi_prompt.md") as f: ratio = medir_ratio(f.read()) print(f"Ratio: {ratio:.3f}x")
# Windows (PowerShell), macOS y Linux:
-weight: 500;">pip -weight: 500;">install anthropic # Configurar la API key:
# PowerShell:
$env:ANTHROPIC_API_KEY = "sk-ant-..." # macOS / Linux (bash/zsh):
export ANTHROPIC_API_KEY="sk-ant-..."
# Windows (PowerShell), macOS y Linux:
-weight: 500;">pip -weight: 500;">install anthropic # Configurar la API key:
# PowerShell:
$env:ANTHROPIC_API_KEY = "sk-ant-..." # macOS / Linux (bash/zsh):
export ANTHROPIC_API_KEY="sk-ant-..."
# Windows (PowerShell), macOS y Linux:
-weight: 500;">pip -weight: 500;">install anthropic # Configurar la API key:
# PowerShell:
$env:ANTHROPIC_API_KEY = "sk-ant-..." # macOS / Linux (bash/zsh):
export ANTHROPIC_API_KEY="sk-ant-..." - CLAUDE.md (5KB): 1,399 → 2,021 tokens = 1.445x
- Prompt de usuario típico: 1,122 → 1,541 tokens = 1.373x
- Post de blog en Markdown: 1,209 → 1,654 tokens = 1.368x
- Log de -weight: 500;">git: 910 → 1,223 tokens = 1.344x
- Output de terminal (pytest): 652 → 842 tokens = 1.291x
- Stack trace de Python: 1,736 → 2,170 tokens = 1.250x
- Diff de código: 1,226 → 1,486 tokens = 1.212x - Documentación técnica (inglés): 1.47x
- Shell script: 1.39x
- TypeScript: 1.36x
- Prosa en español: 1.35x
- Markdown con bloques de código: 1.34x
- Python: 1.29x
- Prosa en inglés: 1.20x
- JSON denso: 1.13x
- CSV numérico: 1.07x
- Japonés y chino: 1.01x (prácticamente idéntico) - Claude Code Camp: I Measured Claude 4.7's New Tokenizer — mediciones originales de Abhishek Ray con metodología y datasets completos.
- IFEval: Instruction-Following Eval for LLMs (Zhou et al., 2023) — benchmark usado para validar la mejora de seguimiento de instrucciones en Claude 4.7.
- SDK oficial de Anthropic para Python — incluye el cliente count_tokens usado para auditar ratios sin consumir cuota de inferencia.
- Byte-Pair Encoding en Wikipedia — explicación técnica del algoritmo de tokenización BPE usado por todos los LLMs modernos.