我做了一个 AI Token 计算器:GPT、Claude、Gemini 发提示词前先估一下
最近做长 prompt、整理文档和调 AI 工具时我越来越需要一个发送前的检查动作先看看这段内容大概会占多少 Token。所以我在 Tools Online 上做了一个新工具AI Token 计算器。为什么需要提前算 Token很多场景里等 API 返回 usage 再知道 Token 数已经有点晚了。比如你准备把一份长文档、日志、代码片段或多轮对话塞进模型时真正想知道的是这段输入会不会接近上下文窗口需不需要先摘要、拆分或者换成上下文更大的模型这个工具的目标就是把这个判断提前。粘贴文本选择模型就能看到 Token 数、字符数、词数以及上下文窗口占用情况。第一版支持的模型OpenAI / GPT 模型ClaudeGemini通义千问 Qwen智谱 GLMKimi这里我特别区分了精确计算和估算。OpenAI 模型使用兼容的本地 BPE tokenizerClaude、Gemini、Qwen、GLM、Kimi 由于 tokenizer 不完全公开或依赖厂商 API工具里会明确标成估算结果。本地计算和隐私Prompt 里经常包含内部文档、业务描述、日志、客户文本或代码片段所以这个工具默认在浏览器本地计算不要求登录也不需要 API Key。它更适合在真正调用模型前做一次快速的上下文规划。开发时 AI 帮了什么这次 AI 主要帮我梳理了功能边界哪些模型应该放进第一版哪些结果必须明确写“估算”FAQ 怎么解释本地计算和厂商 tokenizer 的差异以及页面文案怎样覆盖 GPT、Claude、Gemini、Qwen、GLM、Kimi 这些关键词。最后落地出来的形态比较克制不做复杂后台不上传文本核心就是粘贴、选择模型、查看 Token 和上下文占用。工具地址https://toolsonline.run/zh/token-calculator