studioglobal
熱門發現
答案已發布7 來源

Новый токенизатор Claude Opus 4.7: что означает рост токенов до 35%

Да, стоимость может вырасти: Anthropic пишет, что новый tokenizer Claude Opus 4.7 при обработке текста может использовать примерно 1x–1,35x токенов по сравнению с предыдущими моделями, то есть до 35% больше, в зависим... Если цена за input token не меняется, большее число input tokens обычно повышает input часть сто...

17K0
抽象 AI token 計算圖示,說明 Claude Opus 4.7 新 tokenizer 可能令 prompt token 數上升
新 tokenizer 會令 prompt 更貴嗎?Claude Opus 4.7 的 35% token 警示AI 生成的編輯圖片:tokenizer 變動可能改變同一 prompt 的 token count。
AI 提示

Create a landscape editorial hero image for this Studio Global article: 新 tokenizer 會令 prompt 更貴嗎?Claude Opus 4.7 的 35% token 警示. Article summary: 會,有可能:Claude Opus 4.7 官方文件指新 tokenizer 處理文字可能使用舊模型約 1x–1.35x tokens,最多約多 35%;但增幅視內容而定,唔等於所有 prompt 或總帳單都加 35%。[34]. Topic tags: ai, llm, claude, anthropic, tokenization. Reference image context from search candidates: Reference image 1: visual subject "Anthropic 甚至為了新版Tokenizer 增加了全體訂閱者的速率限制,因為在處理相同輸入時,新架構會多消耗高達35% 的Token。 「Claude Opus 4.7 拒絕填補指令的" source context "你的 AI 提示詞為何失靈?揭開 GPT-5.5 與 Claude 4.7 慘痛進化的真相 - YOLO LAB|解構科技邊際與媒體娛樂的數據實驗室" Reference image 2: visual subject "* I Measured Claude 4.7's New Tokenizer. Here's What It Costs You. The docs said 1.0–1.35x more tokens. On real content, I measured 1.47x. Anthropic's Claude Opus 4.7 migration gui" source context "I Measured Claude 4.7's New Tokenizer. Here's What It Costs You." Style: prem

openai.com

Обновление модели — это не только сравнение цены за миллион токенов. Tokenizer, или токенизатор, — это правило, по которому текст до попадания в модель разбивается на токены. А токены — одна из базовых единиц, через которые API крупных языковых моделей считают стоимость.[20][12][32][2]

Claude Opus 4.7 — наглядный пример. В документации Anthropic сказано, что новый tokenizer при обработке текста может использовать примерно от 1x до 1,35x токенов по сравнению с предыдущими моделями — до ~35% больше, причём разница зависит от содержимого. Для одного и того же ввода /v1/messages/count_tokens вернёт разные значения для Claude Opus 4.7 и Claude Opus 4.6.[34]

Главное: может стать дороже, но не каждый prompt на 35%

Самая точная формулировка такая: новый tokenizer может увеличить число input tokens у того же prompt’а. Если цена за input token остаётся прежней, input-часть стоимости может вырасти.

Но превращать это в лозунг «всё стало дороже на 35%» неправильно. Anthropic указывает диапазон примерно 1x–1,35x и отдельно подчёркивает, что результат зависит от содержимого.[34]

Кроме того, рост числа input tokens не равен росту всего счёта. В прайсинге Claude API отдельно указаны Base Input Tokens, Cache Writes, Cache Hits и Output Tokens; у OpenAI и Gemini также есть собственные страницы API pricing.[12][32][2] То есть итоговая стоимость зависит не только от промпта, но и от ответа модели, кэша, структуры запроса и выбранной модели.

Почему один и тот же текст может дать разное число токенов

Токен — это не слово и не символ. Один tokenizer может разбить фразу одним способом, другой — иначе. В руководстве OpenAI по tiktoken показано, что для подсчёта нужно использовать конкретную encoding-схему; документация Gemini также говорит, что input и output в Gemini API токенизируются, включая текст и изображения.[20][1]

Поэтому подсчёт по словам, символам или усреднённой формуле годится только для грубой оценки. Для бюджета и миграции модели надёжнее смотреть фактический token count, который возвращает целевой API. Именно это и демонстрирует случай Opus 4.7: один и тот же ввод может получить другой счётчик токенов, чем в Opus 4.6.[34]

Как правильно читать цифру 35%

Расхожая интерпретацияБолее точная версия
Opus 4.7 делает каждый prompt на 35% дорожеЭто упрощение. Документация говорит о примерно 1x–1,35x токенов и зависимости от содержимого.[34]
Один и тот же текст может считаться как большее число токеновДа. Anthropic прямо пишет, что новый tokenizer может использовать больше токенов, а count_tokens даст другой результат для Opus 4.7 по сравнению с Opus 4.6.[34]
Tokenizer влияет только на лимит контекста, но не на деньгиНеполно. API-прайсинг обычно опирается на input, output и другие токеновые категории, поэтому изменение token count может повлиять на расчёт стоимости.[12][32][2]
Надо проверять официальным счётчикомДа. У OpenAI есть документация по input token counting и tiktoken, у Gemini — count_tokens, а Anthropic указывает /v1/messages/count_tokens для Claude.[33][20][1][34]

Простая формула для оценки

Если смотреть только на input tokens и предположить, что цена за input token не изменилась, можно использовать упрощённую оценку:

дополнительная input-стоимость ≈ (input tokens в новой модели − input tokens в старой модели) × цена input-токена

Но это только input-часть. Реальный счёт может включать output tokens, cache writes, cache hits и другие категории тарификации. У Anthropic эти поля вынесены отдельно, а у OpenAI и Gemini есть собственные документы с ценами API.[12][32][2]

Что сделать перед переходом на Claude Opus 4.7

1. Берите полный payload, а не только сообщение пользователя

В реальном продукте в модель часто уходит не только user message. Там могут быть system-инструкции, длинный контекст, результаты инструментов, файлы, изображения и служебные данные. Документация Gemini говорит, что входы и выходы токенизируются, включая текст и изображения; руководство OpenAI также показывает подсчёт input tokens для запроса с текстом и изображением.[1][33]

2. Считайте токены инструментом целевой модели

Не полагайтесь на универсальный калькулятор, если речь идёт о бюджете. OpenAI описывает responses.input_tokens.count и tiktoken; Gemini предоставляет count_tokens; Anthropic в документации Opus 4.7 указывает /v1/messages/count_tokens и предупреждает, что Opus 4.7 и Opus 4.6 вернут разные числа токенов.[33][20][1][34]

3. Тестируйте разные типы запросов

Один короткий prompt мало что покажет. Разница зависит от содержимого, поэтому стоит отдельно проверить самые частые, самые длинные и самые дорогие payload’ы: например, запросы с большим контекстом, инструментами, файлами или типовыми пользовательскими сценариями.[34]

4. Пересчитывайте стоимость по официальному прайсингу

Сначала сравните token count старой и новой модели. Затем примените актуальные цены для input tokens. После этого добавьте output, cache writes, cache hits и другие поля, если они есть в вашей архитектуре. Для сверки используйте официальные страницы Anthropic, OpenAI и Gemini.[12][32][2]

5. Решайте по данным, а не по заголовку

Если разница небольшая, возможно, достаточно обновить бюджет и мониторинг. Если подорожали высоконагруженные сценарии, тогда уже есть смысл сокращать контекст, уплотнять prompt, пересматривать стратегию кэширования или считать стоимость одного запроса заново. Главное — не паниковать из-за числа 35%, а измерить именно ваши payload’ы.[12][34]

Итог

Новый tokenizer действительно может сделать тот же prompt «тяжелее» в input tokens. Для Claude Opus 4.7 Anthropic прямо указывает диапазон примерно 1x–1,35x токенов при обработке текста по сравнению с предыдущими моделями, максимум около 35%, с зависимостью от содержимого.[34]

Но правильный вопрос не «прибавилось ли 35% ко всему», а «сколько токенов добавилось в моих реальных запросах». Надёжный путь: взять реальные payload’ы, прогнать их через официальный token counter целевой модели, затем применить официальный pricing с учётом input, output и cache-полей.[33][1][34][12][32][2]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查核事實

重點

  • Да, стоимость может вырасти: Anthropic пишет, что новый tokenizer Claude Opus 4.7 при обработке текста может использовать примерно 1x–1,35x токенов по сравнению с предыдущими моделями, то есть до 35% больше, в зависим...
  • Если цена за input token не меняется, большее число input tokens обычно повышает input часть стоимости.
  • Перед переходом на новую модель лучше взять реальные payload’ы, посчитать токены официальным счётчиком целевой модели и только потом применять официальный прайсинг.[33][1][34]

人們還問

「Новый токенизатор Claude Opus 4.7: что означает рост токенов до 35%」的簡短答案是什麼?

Да, стоимость может вырасти: Anthropic пишет, что новый tokenizer Claude Opus 4.7 при обработке текста может использовать примерно 1x–1,35x токенов по сравнению с предыдущими моделями, то есть до 35% больше, в зависим...

首先要驗證的關鍵點是什麼?

Да, стоимость может вырасти: Anthropic пишет, что новый tokenizer Claude Opus 4.7 при обработке текста может использовать примерно 1x–1,35x токенов по сравнению с предыдущими моделями, то есть до 35% больше, в зависим... Если цена за input token не меняется, большее число input tokens обычно повышает input часть стоимости.

接下來在實務上我該做什麼?

Перед переходом на новую модель лучше взять реальные payload’ы, посчитать токены официальным счётчиком целевой модели и только потом применять официальный прайсинг.[33][1][34]

接下來我應該探索哪個相關主題?

繼續“Claude Security 公測版:Anthropic 點樣用 AI 幫企業掃 code 漏洞”以獲得另一個角度和額外的引用。

開啟相關頁面

我應該將其與什麼進行比較?

對照「xAI Grok 4.3 API 解讀:1M context、低 token 價與語音平台野心」交叉檢查此答案。

開啟相關頁面

繼續你的研究

研究對話

研究問題

搜尋及事實查核:新 tokenizer 會唔會令同一份 prompt 用多咗 token、變相貴咗?

Studio Global AI40 來源

引用的答案

會,有可能;但唔係必然。最明確嘅官方例子係 Anthropic:Claude Opus 4.7 用咗新 tokenizer,官方寫明同一段固定文字可能會用大約 1x 至 1.35x token,即最多多約 35%,而且會因內容而異。[6]

  • 之所以會「變相貴咗」,係因為主流 API 都係按 token 計費。Anthropic 的定價頁面明確分開 Base Input Tokens 同 Output Tokens 收費;Google Gemini 文件亦寫明 API 成本部分取決於 input/output token 數;OpenAI 亦提供按 token 計價嘅 API pricing 頁面。[4][5][2]
  • 所以如果你講嘅「新 tokenizer」係同一供應商、同一價表之下換咗 tokenization 規則,而每個 input token 單價冇變,咁同一份 prompt 被切成更多 token,成本通常就會上升。[6][4][5]
  • 但唔可以一概而論成「新 tokenizer 一定更貴」。Anthropic 自己都寫明係 roughly 1x to 1.35x,而且「varying by content」,即係有啲內容增幅大,有啲細,亦未必所有模型都係加。[6]
  • 最穩陣做法係唔好靠估,直接用模型對應嘅 token counter 實測。OpenAI 有 input token counting 文件;Gemini 有 count_tokens;Anthropic 亦喺 Opus 4.7 文件直接指向 /v1/messages/count_tokens。[1][5][6]

如果你想,我可以下一步幫你做兩樣實用嘢:

  • 幫你查你關心嗰間供應商/模型(例如 GPT、Claude、Gemini)係咪最近換咗 tokenizer。
  • 幫你拎一段你實際用緊嘅 prompt,比較新舊模型大概會多幾多 token、貴幾多。

來源

  • [1] Understand and count tokens | Gemini API - Google AI for Developersai.google.dev

    All input to and output from the Gemini API is tokenized, including text, image. response, err := client.Models.GenerateContent(ctx, "gemini-3-flash-preview", contents, nil). print(client.models.count tokens(model="gemini-3-flash-preview", contents=history)...

  • [2] Gemini Developer API pricingai.google.dev

    English. Pricing. []( []( []( and audio. []( []( started. []( input. []( [](

  • [12] Pricing - Claude API Docsplatform.claude.com

    The "Base Input Tokens" column shows standard input pricing, "Cache Writes" and "Cache Hits" are specific to prompt caching, and "Output Tokens" shows output pricing. Prompt caching multipliers apply on top of fast mode pricing. Fast mode is not available w...

  • [20] How to count tokens with Tiktoken - OpenAI Developersdevelopers.openai.com

    Using o200k base encoding.") encoding = tiktoken.get encoding("o200k base") encoding = tiktoken.get encoding("o200k base") if model in { if model in { "gpt-3.5-turbo-0125", "gpt-3.5-turbo-0125", "gpt-4-0314", "gpt-4-0314", "gpt-4-32k-0314", "gpt-4-32k-0314"...

  • [32] Pricing | OpenAI APIdevelopers.openai.com

    gpt-5.4 $2.50 $0.25 $15.00 $5.00 $0.50 $22.50 . gpt-5.4 $1.25 $0.13 $7.50 $2.50 $0.25 $11.25 . gpt-5.4 $1.25 $0.13 $7.50 $2.50 $0.25 $11.25 . gpt-5.4 $5.00 $0.50 $30.00 - - - . Per-image output pricing for GPT Image and DALL·E models is listed in the Calcul...

  • [33] Counting tokens | OpenAI APIdevelopers.openai.com

    1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 from openai import OpenAI from openai import OpenAI client = OpenAI() Use file id from uploaded file, or image url for a URL Use file id from uploaded file, or image url for a URL response = client.responses.inpu...

  • [34] What's new in Claude Opus 4.7platform.claude.com

    Claude Opus 4.7 introduces task budgets. This new tokenizer may use roughly 1x to 1.35x as many tokens when processing text compared to previous models (up to 35% more, varying by content), and /v1/messages/count tokens will return a different number of tok...